编者按:本文来自微信公众号硅谷密探(ID:guigudiyixian),作者Lake Dai,36氪经授权转载。 谷歌的人工智能大杀器 AlphaGO 下赢了世界围棋冠军李世石,但你知道吗,李世石的大脑就是我们普通人类的大脑,如果说人脑耗能是20瓦的话,AlphaGO所用的计算机耗能2000千瓦。 也就是说,人工智能机器人用十万倍的功耗才把李世石打败。 可见,人工智能要往前发展,硬件是个很大障碍,谁克服了这个障碍,谁就能往前跑得更快。这也是为什么,芯片对于人工智能的普及和发展来说极为重要。 作为人工智能的重要加速器,2018年人工智能芯片前景如何?市场现有的重要玩家又有什么重要表现?创业公司机会在哪里?硅谷投资人,LDV Partner基金的合伙人 Lake Dai 做出了独家分析与预测。 大玩家霸主地位仍在如果说,谁是这两年美国股市的大牛股,英伟达(Nvidia)是当仁不让的那个。 得益于人工智能和深度学习的迅速发展,英伟达股价在2016年上涨了近200%,2017年涨幅也高达81%,平均下来两年内股价升了10倍,跑赢了Facebook、Google、Apple 等科技巨头的股票。 因为 GPU (Graphic Processing Unit,图形处理单元)对处理复杂运算、并行运算拥有天然优势,这也让英伟达成为了深度学习的首选和主要选择。 去年12月,英伟达公布了首款基于 Volta 架构的Titan V,官方宣称是目前“全球最强 PC 用 GPU”,主要针对的就是 AI、深度学习等相关领域的科研人士。 这款“旗舰产品”在 815 平方毫米的芯片上装有 211 亿个晶体管,可以产生 110 TFLOps,当然售价也达到了2999美元。 相较于芯片巨头英伟达,另一个重要玩家却是以互联网搜索起家的科技巨头--Google。我们知道李世石大战 AlphaGo,TPU 就是谷歌称帮助 AlphaGo 击败李世石的“秘密武器”。 17年4月,谷歌关于张量处理器(TPU)的论文被接收,这也是谷歌官方首次公开这款定制机器学习芯片的“内幕”。 将 TPU 与 Intel 和 Nvidia 的芯片进行比较的话,谷歌官方博客透露,“尽管在一些应用上利用率很低,TPU 平均比当前的 GPU 或 CPU 快15-30倍,性能功耗比高出约 30-80 倍”。 为什么身为互联网公司的谷歌要自己造芯片?还是取决于对处理数据和能耗的要求。尽管英伟达的GPU是理想的深度学习芯片,但谷歌数百万台服务器如果不停运行,GPU的能耗就会变成严重的问题。于是,谷歌开始设计更高效、更低能耗的芯片。2016年5月的I/O大会,谷歌首次公布了TPU(张量处理单元)。 第二年的I/ O大会上,谷歌公司宣布了第二代 TPU 的性能:它可以提供高达 180 TFLOPS (万亿次浮点运算)。为了让人明白这个性能有多强大,谷歌官方举例是:大规模翻译模型可能需要花一整天的时间来训练世界上最好的32个GPU,但只需要一个下午,用八分之一个TPU,就能把这件事情做好了。 毫无疑问,目前,谷歌并没有将定制的硬件推向市场,这对于英伟达、英特尔等公司来说是一件好事。根据Jon Peddie Research 的数据显示,Nvidia独立GPU市场份额在2017年第三季度增长至72.8%,而其余的则由AMD占据。 而消费者和个人电脑OEM(原始设备制造商)更倾向于使用英特尔集成芯片和AMD最新Vega GPU上的独立显卡。不过,英特尔传闻会拿出独立GPU来挑战Nvidia的霸主地位。 不管如何,当前英伟达与英特尔等大公司仍占据人工智能芯片市场的头号地位暂时并未被撼动。 小玩家垂直领域机会众多到底人工智能芯片市场有多大?根据瑞士联合银行预测,AI芯片市场到2021年将激增至350亿美元,高于2016年的60亿美元。尽管存在着英伟达、英特尔、谷歌等大玩家,但现有市场依旧容得下更多的玩家进入。 比如说Groq这个隐形创业公司。 这家公司是由Google TPU 原来的创始工程师团队创立的,有八名是TPU团队的前十名员工,其中创始人之一就是TPU的发明者Jonathan Ross。尽管没有正式产品出来,但团队称,正在“构建下一代芯片”。 硅谷知名风投机构Social Capital 为这家公司投了1000万美元,投资人恰好是密探此前介绍过的Facebook 前副总裁Palihapitiya,光找到创始人,Palihapitiya 就花了一年半时间。 另一家公司 Novumind 则是希望打造Google Deepmind +TPU的结合。它旗下的NovuMind 为人工智能推理提供高性能、低功耗的 NovuTensor,以及为 AI Training 设计了超级计算机 NovuStar,2016年已经完成了1500万美元的A轮融资。 到底中小玩家在什么领域更有机会? 我们都知道,目前使用深度神经网络是一个两阶段的过程,首先,第一阶段是“训练一个神经网络”,也就是Training。第二阶段,是部署这个“神经网络”进行推理,使用之前训练过的参数,对未知的输入进行分类、识别和处理,也就是Inference。 芯片针对训练(Training)和推理(Inference)功能所达到的不同目标,给人工智能芯片领域的中小玩家带来了巨大的机会。 因为针对训练的话,需要很高的吞吐量,大量的算力、数据等,而GPU 具有很高的计算精度(Computational precision),很强的并行、复杂运算的能力,但Nvidia仍然需要不断提高其内存带宽和数据吞吐量(Data throughput)。 而推理方面,通常会比训练分批输入更少的数据量,但需要尽可能快的响应和能耗效率优化。能耗优化在终端场景更为重要,比如无人机、IoT 等。谷歌第一代 TPU 就在推理方面的性能和耗电效能方面超过 GPU。据谷歌称,与当前的CPU和GPU相比,TPU的性能提高了15-30倍,每瓦性能提高了30-80倍。这些优势有助于Google的许多服务以较低的成本和规模运行最先进的神经网络。 举个例子你就懂了。 神经网络如果是人,大家可以想象这个人在学习做一份工作。学习的过程中需要大量数据大量练习,反复出错纠错,然后总结出了经验。一旦学会了,执行工作就快很多了。因为你已经知道该怎么做了。用专业词汇说,训练有素的神经网络是在数字世界中运用已经学到的东西 - 识别图像,语言,基因疾病,根据训练结果推断出新数据。在AI词典中,这被称为“推理”。 推理跟人大脑处理信息是一样的。如果你把人放在花花草草的环境里,去看去吸收,脑子里自然会有各种结论,比如这里有行人,这里有花草等等。如果你带着“现在是不是春天”这样的问题去看,你可能知道有嫩绿花草的就是春天,带着问题去找答案,就没用这么多脑细胞,决策就快了。 因此,现在很多芯片创业公司会研发推理芯片,而且就某一个垂直领域进行优化,他们更省能耗就是这个道理。 这里面就是机会,因为垂直领域很多,也不会是一个芯片解决所有的问题,专门优化的芯片可能会做得更好。不过值得注意的是,各大公司其实各自有倾向性,到底是适应什么场景去优化这点很重要。 2018市场预测:“垂直领域有一场混战”既然垂直领域众多机会,2018年人工智能芯片市场的一个明显趋势将会是:推理的垂直领域将会有一场芯片“混战”。 因为,不仅中小玩家意识到机会,连大公司也进入了。 今年 CES 上,第一场重磅发布会就是英伟达发布"全球首个自动化机器处理器Drive Xavier",这是英伟达新一代的自动驾驶芯片。因为,深度学习正是自驾车算法的秘密武器。这款芯片不仅拥有8核ARM架构的CPU、GPU核心暴涨到了512个,且采用了下一代Volta架构、但功耗下降至30W。 除了英伟达之外,英特尔也跳出来说“could be better in inference of AI”。再加上谷歌的定制芯片,有可能会促使Amazon 、Microsoft 等公司进行更多的定制芯片开发,可见,接下来的芯片开发、研发的一场混战很可能就在推理(Inference)这块。 尽管机会众多,但不可否认芯片这个行业属于研发投入非常高的行业。从巨头公司来看,像英伟达拿出了20亿美元研发费用设计这款最强的芯片 Titan V,所以说,初创公司融资1000多万美元,可能只够完成芯片的设计部分。 此外,整个芯片从设计到量产的环节耗时非常久。因为首先要有一个理论,需要满足什么功能,当芯片做出来,需要在不同场景之下测试,看是不是能够实现原本理论设计的功能。小批量生产后,还要结合量产做设计,看最终能否成功量产。通常至少需要上百人的工程师团队,花上2到3年的时间。 从人工智能的风开始吹,借助英伟达股票这两年的上涨和整个行业的增长空间,可以说,人工智能芯片的创业意识从两年前就开始觉醒了,经过两年多的潜伏与发展,2018年恰好达到一个成长期。因此,不管是涌现更多的芯片也好,或者是芯片相关软件层面的开发,2018年都会开始陆续出现,这将是今年值得期待和观察的第二个重要趋势。
|