36氪首发 | 在芯片上实现AI应用实时化,「CoCoPIE」获红杉种子等数千万元A轮融资
作者 | 咏仪
编辑 | 苏建勋
36氪获悉,「CoCoPIE」近期完成数千万元A轮融资,投资方为红杉中国种子基金、初心资本等机构。
CoCoPIE是一家人工智能初创公司,成立于2020年。创始团队包括来自美国东北大学的王言治教授、北卡罗来纳州立大学的慎熙鹏教授及威廉玛丽学院的任彬教授,也有成员来自多家国际知名科技公司。
CoCoPIE CEO王言治为美国东北大学电子工程系与Khoury计算机科学学院助理教授,其团队的主要研究方向包括AI模型压缩和编译等。王言治对36氪表示,近年来国内芯片创业潮来临,大部分创业方向都偏向硬件层,软件方面需求量明显加大,这与团队的研究方向吻合,才产生创业的想法。
芯片大致可以分为通用芯片和专用芯片两大类。通用芯片,包括CPU、 GPU、 DSP等,装载于手机、电脑等常用设备;而专用芯片则包括FPGA、ASIC等,是为做特定的运算而设计。
技术革新让应用层得到极大丰富,这背后离不开芯片算力的提升。目前AI应用在主流终端硬件上的实现方式是,设备将数据发送至云端进行运算处理,处理后再发回至设备。
而在今天,越来越多的数据、愈加复杂的运算逻辑等等,让行业积极投入到创新当中。一种常用的思路是在硬件层面做创新,研制AI专用加速硬件,置入到终端中。
CoCoPIE的方向则在软件层。简单来说,CoCoPIE希望作为软件版的AI加速器,在通用芯片上实现AI应用实时化。
从技术来看,CoCoPIE通过“压缩-编译协同”设计,可以有效优化模型的大小和速度,缩短压缩过程及调优时间,让AI应用在本地即可运行,最大程度发挥芯片的应用潜力。
“现在手机等终端采用的都是通用芯片,其实通用芯片本身的算力还是不错的,只是没有对AI进行很好的优化,”王言治表示,“通过CoCoPIE的技术,我们可以让AI模型或者应用以最优的状态在芯片上运行,相当于让原来无法跑AI模型的芯片可以用起来,提升芯片的利用效率。”
当前,CoCoPIE的应用场景更多是针对CPU、GPU等主流芯片。以手机为例,手机上要想播放4K超高清视频,或者此前流行的AI换脸等应用,是无法在本地直接实时实现的,需要在云端处理部分数据。
CoCoPIE的技术能够让芯片算力提高3-4倍,同时减少这些应用运营方的成本——以往在云上计算和传输数据,运营方需要负担巨大的服务器和带宽成本。另一方面,这也提升了使用体验,摆脱了无网络或网络环境不佳对AI应用的限制。
对于专用芯片,AI芯片的弱点在于网络和应用适配的类型比较局限。当前,一些主流大公司会设计NPU,应用于自家终端中,但也只能为深度学习做简单加速,尚未大规模普及。而AI应用程序运营方若想让他们的程序适配市场上所有的NPU,需要大量程序开发人员。
这时,CoCoPIE能在应用研发团队和芯片厂商间起到桥梁作用,使同一个深度学习模型适配不同硬件平台,芯片效能最高可提升5-10倍。
目前,CoCoPIE已经完成初步研发,推出了两款产品CoCo-Gen以及CoCo-Tune,能够在不额外增加人工智能专用硬件的情况下,让现有处理器实时地处理人工智能应用。应用场景方面,CoCoPIE会首先关注手机、车载芯片等领域,而对于一些制程相对较低的IoT终端芯片,CoCoPIE也能做到很好的适配。
全球芯片市场增长迅速。IC Insights预计,今年芯片市场的销售额将增长24%,并且将是有史以来首次突破5000亿美元,于智能手机、计算机、电视、汽车和其他终端应用的芯片仍供不应求,这种状态可能持续到2022年。
芯片短缺导致一些技术公司不得不停止发展脚步,如AI专用芯片等研发需要5-10年的周期,这直接制约了许多产业的发展。比如新能源汽车,CoCoPIE相当于能够让旧芯片应用神经网络,解决当前芯片方面的燃眉之急。
而在竞争层面,当前芯片研发进步飞快、5G等基础设施规模化推进,云厂商也在大力推进云边端战略,这是否会让CoCoPIE的发展时间窗口变短?
王言治认为,CoCoPIE的技术解决的是神经网络“能不能上”设备的问题,对市场各方机构而言是可以互补合作的伙伴而非竞争对手。事实上,CoCoPIE当前也已经开始商业化落地的尝试,合作客户包括腾讯、著名美国软件外包服务商Cognizant等,此外也有芯片厂商。合作模式有多种,客户可以选择与CoCoPIE联合开发或按license采购,CoCoPIE会融入到其生态中,这些都是共同发展的证明。
本轮融资后,CoCoPIE将继续推进研发和市场发展,引进更多人才。目前CoCoPIE创始团队约有10余人,总部位于美国,今年将在中国设立办事处。