打开网易新闻 查看更多图片

前言:人工智能最近很火,很多人由此引发出来了很多浪漫的遐想。但事实上,让我们非常站在理性客观的角度上去评估它,它的危险性及不可知性,注定了它的到来需要一个非常漫长的时间。

人工智能这件事儿有点特殊,特殊之处在于:人类要开发一种前所未见的东西,你要开发出它,而且要让它变得不可知。这就像是人在放风筝,最终的目的是要把那根绳子彻底放开,让它在天上自行飞翔。那么问题就来了:接下来会发生什么?

去年,新泽西州蒙茂斯市的街道上,出现了一辆无人自驾驶汽车,由芯片制造商 Nvidia 公司的研发人员进行设计开发,虽然外观上看起来并不怎么起眼,但是它的无人自驾驶能力不亚于 Google、Tesla、General Motors 这些科技巨头所研发的无人自驾驶技术水平。最关键的一点是,在整个行驶过程中,不会出现任何一个工程师、程序员,他们不会发出一个指令,整个车子的行驶安全完全是基于某种算法。正是这种算法,让它能够通过观察人类的驾驶行为,一步步地让自己学会如何在马路上安全的行驶。

马路上跑着这样一辆车子,固然能获取到聚光灯下的喝彩,但仔细想想也确实觉得有点吓人。因为没有任何一个人能够完全的掌握这辆汽车在各个时间点上的决策机制,思维路径。

通过汽车传感器捕获的信息会直接进入到由人工智能神经所组成的巨大网络系统当中,数据在里面被处理,然后转化成为必要的指令,进而控制汽车的油门、方向盘、还有刹车及其他系统。汽车上整个系统搭配协作起来,宛如一个老经验的司机在开车。

可是如果有一天,它做了一些人们预料之外的事情,比如一头撞到树干上了?又或者是眼前明明是绿灯但就是不走?而一旦出现这样的问题之后,人们是很难找出根本原因的。其实,大多数人是低估了这个系统的复杂程度,甚至设计这个系统的工程师,他都很难将完全自动化系统中每一个动作环节,找到相对应的原因。

也正因为无人自驾驶汽车当自我学习升级到了一定程度,开始超出人们的认知边界的时候,人工智能核心的问题,又或者称之为所有人要么刻意避而不谈,要么忽视掉的问题就浮出水面了:将人工智能的缰绳牢牢把持在人类的手里,和人工智能技术的前进方向是存在着本质冲突的。

最近这几年,人工智能技术中的一个分支:深度学习,不仅仅是推动了无人自驾驶汽车的快速发展,它还广泛应用在图像识别、语音识别、语言翻译等领域。而且还有人希望这项技术可以用来诊断威胁生命的疾病,对价值上百万美金的交易做决策,总而言之,它能彻底颠覆掉很多行业既有的格局与面貌。

但上述愿景的实现是存在两个前提条件的。首先,这项技术无论发展到怎样的程度,在它的发明者眼里应该都是可以被理解的,或者说是透明的;其次,这项技术无论走到何处,它应该永远是本着对用户负责的目的来运行的。如果这两点做不到,人工智能技术就完全真正成熟普及开来,因为你永远不知道它什么时候会抽风。

这也是为什么 Nvidia 的无人自驾驶汽车如今还处于测试阶段。

我们开始逐渐不知道它的生成决策机制是什么了

其实我们现在已经有了一些数学模型,可以用来决定「谁能够获得假释」,「谁可以获得这笔贷款」,「谁能够得到这个工作机会」。其实你只要多花点儿时间去研究一下这些模型,你肯定能够明白这些决策是基于怎样的推理做出来的。但是如今的银行、军队、私营企业老板,他们都在寻求更加高级复杂的机器学习路径,这使得完全自动化的决策机制,变得极其难以回溯其原因。

麻省理工学院的一名专门研究机器学习应用的教授 Tommi Jaakkola 就表示:「人工智能变得难以理解和掌控,这现在已经是一个问题,而在将来会成为一个更大的麻烦。无论你是投资行业,医疗行业又或者是做军事部署,你是不可能完全将决策机制交给一个你无法看清楚的『黑盒子』的。」

事实上,不断「拷问」人工智能系统的决策机制,这已经逐渐成为了法律上必须尽到的一项责任。从 2018 年的夏季开始,欧盟有可能要求各家公司,在解释自动化系统如何运行上面,向用户做出一番合理的解释。这其实真的是很难办到的事,哪怕是一些最流于皮毛,浅尝辄止的系统,比如如今各大网站,以及手机应用中利用人工智能算法来推送广告以及推荐歌曲,它们都难以把每一个环节的决策说的明白无误。

其实进一步的,这个问题的核心其实就归结到了「信任」两个字身上。我们是否要将世界运行的一些关键岗位,功能,逐步地让渡给机器,并相信它们能办好这件事呢?

说到底,我们人类自己其实也无法圆满解释自己的思维路径,但是我们人类社会之所以能够运转下去全是建立在下面两个因素上:其一就是不需要任何理由的信任,其二是我们能够基于外部的一些表象来评价这个人。

我们作为世间的造物主,从来没有开发出来过一款我们无法理解的机器,我们是否有可能跟一个智能机器交流并相处?哪怕它在我们面前是不可知的?带着这个问题,我前往了世界上人工智能算法的前沿地带:Google、Apple 以及其他一些科技大公司,其中还有一名我们这个时代最为优秀的哲学家。

目前人工智能的进展有可能已经开始挑战你的想象力边界了

在 2015 年,纽约城,一家名叫 Mount Sinai 的医院里有一个研发团队,正打算将深度学习技术应用在医院有关病人档案的数据库中。这个数据库非常巨大,里面病人的信息真的是分的特别的细致,比如他们每次的身体体检结果,比如他们来看医生的次数等等。

最终,这个深度技术项目终于上线,并取了个名字叫「Deep Patient」,它用来学习的数据涉及到了 70 万个病人。它通过学习这么大量的数据之后获得了一种怎样的本领呢?当人们把一个新病人的病历拿给它「看」,它能很准确地预测出来这个人有可能得的疾病。

没有任何专业医师指导的前提下,这个 Deep Patien 似乎从海量的医院数据当中找出来了一些直抵真相的隐秘路径,这些路径在人们肉眼底下完全是隐形的。人们究竟有着怎样的生活作息,家族病史,曾经得过的疾病,这些信息组合到一起,会让他们在将来得上哪些病,其中包括了肝癌。

Mount Sinai 团队的领导人 Joel Dudley 认为:「其实现在在疾病预测上面有好几种非常前沿的技术,不过是我们目前采取的这项技术表现的更加优秀而已。」

但与此同时,Deep Patient 也有一些让人存疑的地方。就比如说,它在预测精神错乱分支下的「精神分裂」上出奇的准确。但要预测「精神分裂」,这对于医生来说简直是难如登天。最让 Dudley 困惑不解的一点是:这个人工智能到底是怎么做到这一点的?他是真的完全摸不到一点头绪。

如果 Deep Patient 的预测会通过时间的检验,获得进一步的落实,那么也许医生们会参考它的建议,在病人所开发的药上面做一些变动,让本来会出现的病不再出现?Dudley 不无悲伤地说到:「确实是我们开发了这些模型和系统,但是我们到头来不知道它们是怎么运作的。」

深度学习是人工智能技术获得突破的关键

人工智能可不是从一开始就变的如此的「神秘莫测」的。从这个概念出现的那天开始,其实关于人工智能的理解方式,解读方式,一直有两种学派。

一些人认为:基于一些规则和逻辑去打造智能机器,这是合乎情理的,它内部的运作机理也是完全透明的,每个想要去检查代码的人,都可以一览无余。

还有一些人觉得:如果机器能够从生物上借鉴,从观察和体验中去学习,智能才有可能出现。这就直接颠覆了原本的计算机编程概念。这个时候不是程序员在写代码来解决某个问题了,程序会基于样本数据,和一个期望的结果,自动去生成一些算法。也正是基于这种思路,才有了如今最为强大的人工智能系统:机器可以自我进行编程。

其实从一开始,也就是上世纪的六七十年代,后者这种思路并不被人们所看好。大家还停留在写程序,让程序执行命令这种狭窄范畴当中。但后来,随着不断有行业历经数字化变迁,而机器学习的方法逐渐流行起来,这再次点燃了人们的兴趣,并催生出来了一批机器学习的途径和方法,其中最为强大的莫过于「人工神经网络」。

但即便如此,直到最近的 10 年时间,它才真正在自动化感知领域真正显示出强大的威力,如今已经可以形成一些非常巨大的,或者说「深度」的神经网络系统。深度学习直接带来了如今人工智能技术的迅速蹿红,它赋予了计算机一种史无前例的能力,比如像人一样地去识别语音。这种能力是压根不可能通过手动输入代码来完成的。

深度学习还大幅度地提升了机器翻译的能力,可以这么说,它已经彻底改变了人们对计算机的理解,对它未来的某种期待,它现在用来在医疗、金融、制造业以及其他领域中指引着各项决策的生成。

任何有关机器学习的技术,它的工作机理是近乎于不透明的,哪怕对于一个计算机学家来说也是如此。这不是说未来人工智能技术全都是不可知的,而是说从本质上来说,深度学习近乎于一个纯黑色的「黑匣子」。

你是不可能把头伸进这个「黑匣子」里面观察它是怎么工作的。网络中进行推理思考的环节是发生在数以千计的「模拟神经元」上的,而这数以千计的「神经元」,又组成了好几个异常复杂,相互关联的「层」。在「第一层」的神经元吸收一个信号,比如说是图片上某个像素的大小,然后进行一番运算之后给出一个新的信号。在超复杂的网络结构中,「第一层」的信号再发送到「第二层」,依次类推,最终一个运算结果就出现了。另外,这里还存在着一个叫做「反向传播」的概念,它会不断地调整,修正单位神经元的运算结果,使得最终出来的结果更加接近于人们期望中的目标。

这种在深度网络中设置各种层,并进而获取在不同层级的抽象尺度上面去理解、识别事物的本领。就比如说在一个专门用来识别狗狗的系统中,较低的层级是用来识别一些简单的信息,比如狗狗的轮廓、颜色;较高的层级是用来识别较为复杂的东西,比如皮毛和眼睛。最高的层级最终确认它就是一条狗。

这样的方式和路径其实可以用来做很多事,让机器完全自我学习的任务,比如通过「声音」来识别「语音」中的「单词」,比如通过「字」和「词」来创造文本中的「句子」,又或者是在汽车行驶过程当中,控制方向盘的摆动。

这种天才般的想法已经用来分析,和解释系统中部分的工作机制。在 2015 年,Google 的研究人员对「基于深度学习技术的图片识别算法」进行了一些修改,这样一来,算法不再在照片中去识别物体,而是在原有图片的基础上生成一个新的图片。

打开网易新闻 查看更多图片

通过有效地对这些算法进行「逆向运行」,他们终于可以搞明白程序是通过哪些特点来进行物体识别的,比如识别一只鸟或者一栋建筑物。项目 Deep Dream 所生成了一些最终的图片里,有从云和植物中走出来的,貌似外星人的奇怪动物,有遍布森林山川,存在于人们幻觉当中的古塔。

这些图片证明了:深度学习也并非是完全无从下手去了解,算法也是将自己的注意力放在了一些熟悉的视觉特点上,比如鸟嘴以及皮毛。但同时,它也证明了深度学习和人类感知是多么的不同,

Google 的研究人员指出:算法依照大笨钟进行图片的生成,在生成钟的同时,总是会有一支人的胳膊握着它。机器似乎已经认定:大笨钟的本身就存在着一条人的胳膊。

借助于「神经学」和「认知学」上的概念,深度学习走得更远了。美国怀俄明州大学的助理教授 Jeff Clune 就领导了一个团队,

我们想要探究人工智能的思考路径,仅仅做到往里面瞅上一眼肯定是不够的。但是,想要窥见全貌,从头至尾地走完整个流程,这真的是很难做到的事。在深度神经网络中,复杂的运算相互叠加,勾连,这样才能实现高级别的模式辨认和复杂的决策生成。这些计算简直就是数学方程式和变量所组成的一个巨大无比的「沼泽」。

资深研究人员 Jaakola 就表示:「如果这只是一个规模很小的神经网络,你也许还可以试着理解它。但是一旦它的规模变大,每一层有数千个神经元,一共有数百层这么多,那么它就完全超脱出人们认知能力的极限了。」

Jaakola 旁边的办公室是属于 Regina Barzilay 的,他是麻省理工学院的一名教授,致力于将机器学习应用在医药领域。几年前,当时的她 43 岁,被诊断患有乳腺癌。这个结果下来本身就挺让人沮丧的了。但是让她更加沮丧的是:处于行业尖端的数据分析及机器学习方式没有在医疗行业获得认可,没有获准在肿瘤研究方面提供帮助或者是引导病人的治疗。

她说:人工智能在颠覆医疗行业方面有着极为强大的潜力,但是外界却不这么看,他们认为人工智能所能干的事儿无非就是整理整理病人的医疗档案而已。但如果所有原始数据都能拿来让人工智能分析,想想这会带来怎样意想不到的效果?!

去年,她完成了乳腺癌的治疗。随后,她与她的学生开始与马萨诸塞着公立医院的医生合作,开发一种提取病理报告的人工智能系统,在病理报告中会明确注明病人的临床反应,方便医疗工作者对病情的跟踪和分析。但是,Barzilay 清楚:这个系统要推广,首先你得给大家解释系统是怎么得出这些结论来的。

所以,她跟 Kaakkola 和她的一名学生一起,增加了这么一个步骤:系统提取、或者高亮出来一段文本,它指明了人工智能目前发现的一种新的模式。同时,他们还开发了一种深度学习算法,能够在乳房 X 射线图片中,提前就发现乳腺癌的一些征兆。当然,他们还得想着针对这个功能,开发出一种能够给大家说明原理的系统出来。

Barzilay 说道:「你真的需要在人与机器之间设计出一个协作的循环出来。让人能够相信机器。」

就像是人类的行为无法每一个都给外界解释的清楚透彻,AI 也不可能把自己全部敞开来让所有人参观。怀俄明州大学的教授 Clune 说道:「智能活动本身的一大特点,就是在理性分析之外,还有一些无法解释的部分,比如本能,下意识的反应。这是你无法追溯根源的。」

那么到最终,如果我们真的将信任交付在人工智能手里,那么在此之前还有一个问题需要解决。我们在设计人工智能系统的时候,要让它能够适应我们现有的社会准则,如果我们要开发机器人坦克或者其他杀人武器,我们需要让其符合一定的道德标准才可以。

当我在人工智能的话题上走得越来越深,我去 Tufits 大学采访了 Daniel Dennett,这是一名非常著名的哲学家及研究意识和思维的认知学家。他的新书《From Bacteria to Bach and Back》(从细菌到巴赫,再回到过去)揭示了智能生命进化的本质:新生成的这个系统有能力去制造一个「系统的制造者」完全不知道怎么去完成的事。

同时,他还给我们发出了警告:如果人工智能系统跟我们一样,无法彻底解释它的一切活动,也许在目前,或者说未来很长的一段时间里,我们最好还是不要信任它为好。」

本文来源:MIT Technology Review 译文创见首发 由 TECH2IPO/创见 花满楼 编译 转载请注明出处