本文转载自公众号:StarryHeavensAbove
概要:2017年,AI芯片是半导体产业的亮点,而它受到的关注又远远超出半导体的圈子。
2017年,AI芯片是半导体产业的亮点,而它受到的关注又远远超出半导体的圈子。这一年,从科技巨头到初创公司,新老角色轮番登场,为我们上演了精彩好戏。若干年后,当我们再回头来看,一定可以把2017年作为AI芯片元年。
Google vs Nvidia • 巨头间的“错位战争”
四月初,Google公布了一篇即将在ISCA2017上发表的论文:“In-DatacenterPerformance Analysis of a Tensor Processing Unit”。可以说正是这件“小事”,揭开了一部年度大戏的序幕,而它产生的深远影响甚至可能会持续到很多年之后。其实,在2016年6月的时候Google就透露了自己研发了一款在云端使用的专用AI芯片,TPU(Tensor Processing Unit)。Google做AI芯片当然是吸引眼球的新闻,但苦于一直没有公布细节,大家也只能猜测和等待。因此,这篇普通的学术论文,得到了媒体的极大关注。我也在第一时间写了一篇评论文章:“Google TPU 揭秘”,也是我的公众号阅读量最大的文章之一。对TPU高度关注的当然不只我们这些吃瓜群众,还有AI芯片领域绝对的统治者Nvidia。后面就发生了黄教主和Google间关于TPU的Benchmark结果是否合理的口水战。而早在2016年Google透露TPU的时候,Nvidia就多次表示它对GPU在AI运算上的统治地位没有什么威胁。
5月11日,Nvidia GTC2017大会,黄教主在Keynote上抛出了最新的GPU Volta(GV100)。Nvidia股票应声大涨,媒体也是大肆报道。AI芯片的焦点似乎又回到了Nvidia这一边。
除了公布了重量级的Volta,GTC上还有一个“小事件”,Nvidia宣布开源它的DeepLearning Accelerator(DLA),9月正式公开。这个发布,在黄教主的Keynote中是一句话带过,但在业界引起的震动却一点也不小。“Nvidia为什么要搞开源?会开源什么东西?这个开源会不会影响众多初创公司的前景?”对这些问题的讨论一直延续到NVDLA真正开源之后。
没过多久,5月17日,在Google I/O大会上,Google公布了第二代TPU,用媒体的话说“…stoleNvidia’s recent Volta GPU thunder…”。虽然TPU2的细节公布的并不多,但指标确实看起来很不错,而且具有非常好的可扩展性。唯一的遗憾就是它并不对外销售,只能以TPU Cloud的方式供大家使用。
9月下旬,Jeff Dean这位Google的软件大神参加了HotChip这个芯片界的重要会议,并在Keynote “Recent Advances in ArtificialIntelligence via Machine Learning and the Implications for Computer SystemDesign”也亲自介绍了TPU和TPU2的情况,把它们作为新的计算生态中重要的一环。
9月底,NVDLA在承诺的最后期限之前开源了NVDLA的部分硬件代码,同时公布了未来开源更多硬件和软件的路线图。这之后,大家对NVDLA也做了各种分析和讨论,试图把它玩起来。从目前来看,NVDLA的开源好像并没有影响众多初创公司的融资。这个话题我们后面再说。至于Nvidia开源DLA的原因,官方的说法是让更多人可以更容易的实现Inference,促进AI的推广,特别是在众多嵌入式设备上的应用。但从整个开源的过程来看,这个开源的决定似乎是比较仓促的。DLA来自Nvidia自动驾驶SoC中的一个模块,最初并不是以开源IP为目的而设计的。而且9月的开源也只公开了一部分硬件代码和相应的验证环境,离真正能用起来也还是有较大差距。我们不好判断这个开源的决定是否和Google TPU(在Inference上有比较大的优势)的强势亮相有关系。但基本的推测是,在Deep Learning中Nvidia的核心利益应该在于Training(目前GPU还是training的最好平台)。让Inference门槛更低,渗透到更多应用,特别是Edge端,从而进一步促进Training的需求,应该是符合它的最大利益的。而且NVDLA的软件环境还是使用Nvidia的CUDA/TensorRT,还是由Nvidia掌控的。
这场从一篇论文开始,几乎贯穿了2017年全年的Google和Nvidia的明争暗斗,对业界的影响可能要远远超过这两家公司本身。我之所以把它称为“错位”的战争,是因为它发生在Google这样的传统的软件巨头和Nvidia这样的芯片巨头之间。如果换成Intel vs Nvidia,似乎是再正常不过的。Google的参战,也许是开启了新的时代。我们可以看到,不仅是TPU,Google在10月又公布了他们在“GooglePixel 2”手机中使用的定制SoC IPU(ImageProcessing Unit)。和Apple越来越多的自己定制芯片一样,Google这样的科技巨头同样有应用(明确知道自己要什么),技术(对相关技术的多年积累),资源(不缺钱,不缺人)上的优势,定制自己的硬件,甚至芯片会变得常态化。同时我们也看到,Google TPU的示范效应已经显现,更多的科技巨头加入AI加速硬件的竞争。Tesla宣布自己定制自动驾驶芯片;Amazon,Microsoft,以及国内的BAT,华为都在Cloud中提供专门的FPGA加速的支持;据称Big Five中还有在自己开发芯片的;BAT也都在组建芯片设计的团队,等等。虽然大家具体的架构和实现方式不同,但都反映出对AI专用硬件的极大兴趣。相信未来这一趋势会越来越明显。
“以Machine Learning为代表的新型计算模式将引领未来芯片的发展方向”,这一观点基本已经是大家的一个共识。越来越多的玩家会关注能够支持新型计算的芯片,其中很多可能之前完全不在半导体这个圈子,也完全不了解芯片是怎么回事。2017年我们不时能看到一些对比CPU,GPU,FPGA和ASIC架构的科普文章,甚至有10W+的阅读量,不难看出大家的热情。
初创公司 • 长长的list
2017的AI芯片大戏中,主角不仅是巨头,初创公司也都粉墨登场,戏份一点儿都不逊色。更重要的,在初创公司的“表演”中,中国公司不仅毫不怯场,而且非常出彩。我从8月份开始在github上维护一个AI芯片的列表,既包括大公司的产品,又包括初创公司的情况。到12月,这个列表中的信息越来越多,世界范围内的初创公司有30多家。而且这个列表还只包含了公开信息,还有很多公司处在stealth状态并没有收录。我也听到一个说法,在AI芯片领域的初创公司可能超过了100家,在TSMC排队投片也有30家。
熟悉半导体产业的朋友可能比较清楚,半导体领域初创公司获得VC投资在之前是非常困难的。主要原因是这个产业风险大,门槛高,周期长。但2017年,AI芯片的初创企业却受到了资金追捧。我们可以看看今年的一些公开的融资数据。寒武纪:1亿美金(估值近10亿美金);深鉴科技:4000万美金;地平线:近亿美金;;Cerabras:6000万美金(估值8.6亿美金);Graphcore:5000万美金。在前面我也提到,当Nvidia宣布要开源DLA的时候,大家感觉会对初创公司的融资和估值有一定影响。但从结果来看,这种情况并没有出现。在9月之后,我们又看到很多初创公司成功融资。而投资者的热情似乎一点都没有减弱,只要有一个新的公司出现,立刻会有很多投资机构蜂拥而至。
2018 • 关注什么
对于2018,我还是非常期待的。作为一名多年从事芯片架构设计多年的工程师,我首先期待看到一些技术上的创新。2017年我写了不少分析AI芯片相关技术的文章,到年末几乎有点审美疲劳了(相信读者也是一样),似乎新鲜东西越来越少。在2017年底,有一个叫Vathys的初创公司,一下子开了好几个脑洞,全定制的Asynchronous Logic,等效的时钟可以到12GHz(28nm工艺);High-densitySRAM(1T-SRAM),片上存储容量可以达到1.5GB(28nm);Wireless 3D Stacking,10,000GBit/S @ ~8 fJ/bit。这几项技术要么是目前还停留在学术研究阶段,要么是曾经昙花一现。一个初创公司一下就祭出这几个大招,又是这么高的指标,真有可能实现吗?所以,当Vathys的老板发邮件说应该把他们公司加到我做的AI芯片List里的时候,我开始是婉拒的。不过,换一个角度来看,即使是他们完全在忽悠,也算是击中了Deep Learning处理器的痛点。而且这几项技术目前也都有人在研究,在AI的热潮和巨大的资金支持下也许真能搞出来也说不定。所以,我还是希望看到他们或者是其它团队能够在这几项技术上取得突破,让我们真正激动一把。说到技术的突破,我们未来(可能要比2018年更远)还可以期待看到在存储技术上的突破,以及由新的存储技术带动的架构上的创新,包括Neuromorphic这条技术路线。
接下来,当然是巨头们的下一步动作。Google的TPU是否会卖给自己之外的用户,直接和Nvidia展开竞争?目前ONNX阵营已经形成和Google的对峙,Google作为生态最完整的厂商,推广TPU对巩固自己的领先地位很有意义。Big Five和BAT哪个会学习Google榜样直接自研芯片?阿里达摩院的芯片研究会不会从AI开始?Intel能不能如大家所期待的全面爆发?Nvidia会如何应对来自各方的挑战,是否会做更专用的加速芯片,而不是仅仅在GPU中加个Tensor Core?高通什么时候在手机芯片中加上硬件加速器?ARM下一步会怎么走,会不会横扫嵌入端?。。。随便想想就会有很多值得期待的看点。最近我们也看到,为了对抗Nvidia,AMD和Intel竟然很罕见的宣布合作。而IBM在Power9上和Nvidia深度合作。2018年也许我们还能看到业界巨头间更多的合纵连横。
初创公司的命运也是2018年最大的看点。我在之前的一篇文章中说过“对于AI芯片的startup来说,2018年就算不是毕业大考,也至少到了学期末考试了…”。2018年,大部分初创公司都将会交出第一次测验的结果(芯片),也会开始小批量的试用。相信到时会有比较公平的Benchmarking结果出现,“理论上”的指标会被实际的“跑分”结果取代。虽然对于初创公司来说,犯错误是可以容忍的,第一代芯片也不能完全代表公司未来的前景。但是,做芯片需要巨大资源的持续支持,这个阶段掉队可能非常危险。当然,第一次的淘汰对于真正优秀的企业也是最好的机会。我非常期待看到能够在考试中脱颖而出,并跨上新的台阶(或者直接毕业)的同学;或者,会有我们不认识的面孔,突然惊艳出场。另外,2018年,在Edge端会有更多的传统芯片厂商加入竞争,除了三星,高通,MTK,展讯等芯片厂商,还有传统的IP厂商;而在嵌入端IP上有绝对优势的ARM应该也会有更大的动作,这些都可能会对初创公司产生重大影响。
最后,是变局的可能。从整体上来讲,AI整体上在2018年会怎么发展是一个大家都非常关注的问题。继续高速增长,还是平稳发展,又或者会遇到问题高开低走?不管是哪种情况,AI芯片必然会受到大势的影响。比较特殊的是,芯片研发的周期大约在9到18个月左右,这比软件应用的开发和更新周期要长的多。再加上一些滞后效应,芯片的发展很难和算法和应用的发展节奏同步。芯片开发中一个比较可怕的问题就是未来的不确定性。相对来说,一个可预期的平稳增长的环境是最有利于芯片研发的,可以让芯片设计者能够更好的规划产品和协调资源。另一种变局情况是,算法层面发生巨大的变化,也就是技术上的不确定性。这几年最成功的AI算法就是基于神经网络的深度学习。这正是目前AI芯片在需求上的基础,也决定了现在大部分AI芯片都是以加速这一类算法为目标的。如果基本算法需求发生变化,会对AI芯片的设计产生很大的影响。比如,目前已经有一定应用基础的低精度网络,也就是在inference中使用非常低的精度,甚至直接使用二值网络。如果这种Inference得到广泛应用,现在的芯片架构则可能得要重新考虑。再比如,如果Hinton大神的capsule networks得到实用,也可能会需要新的芯片架构来支持。毕竟AI领域现在发展很快,所以大家也都必须要时刻盯着应用和算法层面最新的进展。我们也要随时问自己下面的问题(来自Jeff Dean在NIPS2017的演讲)。
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。由互联网进化论作者,计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”