设为首页收藏本站 关注微博 关注微信

全球新闻在线

全球新闻在线 首页 财经资讯 创业招商 查看内容

用AI减少算力荒,CoCoPIE在一千美金等级的通用单片设施上实现L4级自动驾驭

2021-11-29 12:15| 发布者: wdb| 查看: 77| 评论: 0|原作者: [db:作者]|来自: [db:来源]

摘要: 用AI减少算力荒,CoCoPIE在一千美金等级的通用单片设施上实现L4级自动驾驭,更多创业资讯关注我们。

记者 | 姜菁玲

全家企业正好试图用AI来减少日前的算力危机。

2020年8月,来源美国东北大学、北卡罗来纳州立大学及威廉玛丽学院几位人力智能方向的顶尖教授,成立了CoCoPIE。经过全栈式的紧缩、编码、以及运转改良,人力智能的运转效能被明显提高,运转人力智能的算力要求也随以下降。

CoCoPIE CTO慎熙鹏向界面新闻记者推荐称,以最近CoCoPIE在自动驾驭情景下的人力智能改良取得的突破性进展为例,在确保同等明确和实时成果下,经过协同改良技艺,L4等级的自动驾驭AI平台对算力的要求从日前业界运用的NVIDIA Drive AGX Pegasus,可行降到NVIDIA Jetson AGX,前者本钱在1万美元左右,后者仅需699美元。

自动驾驭技艺须要借助AI判别各式各类的路面状况,因而对AI的明确性和实时性请求十分高。慎熙鹏显示,这可行相当大水平上对当前车子资产缺芯的概况发展缓和,由于对算力资源的要求降低,相对更低级别的芯片也可行被应用起来。“这意指着大伙可行从少许低端机上入手从新设置,实现自动驾驭体系。”

CoCoPIE以为,在深度学习模子当地化运算的进程中,CPU、GPU、DSP等主流硬件尚有相当大潜力无被开发,经过改良紧缩和编译的进程,能够让得过去没有办法运转在某些末端设施上的神经网站可以在这点末端设施上运转。而“紧缩-编译协同”设置可行让AI只借助主流料理器在当地化上运转,而不用AI提速硬件。

CoCoPIE焦点技艺是紧缩、编码、以及运转改良。慎熙鹏以为,与其它人力智能模子改良企业比较,CoCoPIE的区分在因而全栈改良,从人力智能的模子到编译器的代码生成,再到运转时资源的调整,可行悉数达成。

日前,CoCoPIE正好与国家内部的自动驾驭厂家发展合作,产物将要落地。除此之外,CoCoPIE日前还为qq提供实时高清视频改良,实时地在末端产物上将低清楚度视频转化高清。以及,与芯片厂家合作,帮助它们改良芯片效率,“使中端芯片跑出高档芯片成果,低端芯片跑出中端芯片的成果。”

慎熙鹏显示,全体上,CoCoPIE日前具有十余家消费者,包括qq、滴滴、Cognizant等企业。CoCoPIE的交付形式最重要的有两种,一是与合作方一同开发,定制化提供解决方案;二是将面向中小公司,提供SaaS体系,可行鉴于CoCoPIE平台发展AI模子改良,提升速度和明确度。全体上,CoCoPIE计划未来以SaaS为进行要点。除了全体平台的交付,CoCoPIE也将针对特定产业和情景公布相应解决方案。

当前,CoCoPIE日前团队大家都有15人,分布在美国和华夏。2021年8月,CoCoPIE达成了数千万国民币A轮融资。