本月初,谷歌的机器学习实验室取得了新的研究成果:工作人员找到了能自动化生成机器学习软件的方法,另外,他们也发现了如何更快更有效地将机器学习技术部署到新的应用场景中。这让谷歌的首席执行官桑达尔·皮查伊(Sundar Pichai)也非常兴奋。

不过,在人工智能研究人员看来,该项目之所以名声大噪另有原因:它证明了,在机器学习研究的最前沿,庞大的计算资源才是竞争的根本。

打开网易新闻 查看更多图片

一篇研究文章表明,在此次项目中,谷歌的开发者同时使用了多达800个图形处理器(GPU)。这些GPU极其昂贵、功能强大,并且对机器学习能力的提升至关重要。他们告诉《麻省理工科技评论》,该项目已经持续进行了好几周时间,运行了成百上千个GPU。

机器学习相当耗费资源成本,仅仅是一个研究项目,即使像谷歌这样的大公司也难以承受其中巨大的资源成本。

对于那些无法访问大型GPU集群的编码器而言,重复该实验意味着大量财力的耗费。如果从亚马逊的云计算服务租用800个GPU,仅一周时间就要花费12万美金,而这还只是保守估计。

与使用深度学习软件相比,训练深度学习软件的资源密集属性更为明显。斯坦福大学的兼职教授、Matroid的创始人兼首席执行官Reza Zadeh认为,计算能力是机器学习的一个瓶颈。

人工智能的发展渴求新的计算能力突破。计算机领域中,使芯片越来越强大的两个定律正在走向极限:一个是“摩尔定律”,它曾预测每两年,相同面积的芯片上的晶体管数量将翻倍;另一个是“登纳德缩放比例定律”,它描述的是当晶体管变小时,它们的功耗如何按比例缩小。

如今,这两个定律都已不再适用。英特尔已经减缓了引入更小、更密集的晶体管的步伐。21世纪前十年,晶体管的效率提升随着它们越来越小的体积而变得停滞不前,功耗成了一个令人头疼的大问题。

当然,人工智能领域还是有好消息的,例如图形芯片目前已经成功地避开了上述的威胁。最近,全球领先图形芯片英伟达的首席执行官黄仁勋展示了一个图表,该图表显示,英伟达芯片的性能在继续以指数级加速,尽管通用处理器或CPU的性能提升已经减缓。

致力于将新技术商业化的微软NExT部门的杰出工程师Doug Burger表示,传统软件和机器学习软件之间也有类似的差距(即CPU与GPU的差距)。他说:“目前,通用软件的性能已经开始停滞不前,摩尔定律相当于失效了,但是人工智能却在迅速的发展。

Doug Burger认为,这种趋势将继续下去。工程师们已经使GPU变得越来越强大,因为GPU可以更专业地处理图形或机器学习中所需的特定数学问题。

从长远角度来看,要使人工智能变得更加强大,需要计算机芯片的工作方式发生彻底的改变,开发特定的芯片是一个主要方向。现实情况证明,这些芯片确实能够使计算机效率更高,并且不会损害机器学习软件结果的准确性。

能直接复制生物结构的芯片设计可能也至关重要。IBM和其它一些公司已经构建出使用尖峰电流进行计算的原型芯片,其计算过程类似人类神经元的激发过程。Burger说:“许多证据表明,芯片的性能和效率还可以实现更多提升。在人工智能领域,我们可能还有数十年的时间去扩展它们。”