打开

李飞飞对话顶级神经科学家纽瑟姆:大脑也做「微积分」,最高效GPU依然很浪费

subtitle
新智元 2020-11-19 13:24
打开网易新闻 查看更多图片

新智元报道

来源:HAI

编辑:白峰

【新智元导读】最近,李飞飞在斯坦福HAI座谈会上对话著名的神经生理学家、Wu Tsai神经科学研究所所长威廉 · 纽瑟姆,探讨了计算在神经科学中的作用,是AI促进了神经科学的发展还是神经科学为人工智能铺平了道路?人类大脑进化了5亿年,人工智能和自然智能仍然处在两个平行的世界?

最近,李飞飞在HAI座谈会上和斯坦福大学医学院神经生物学教授、Wu Tsai神经科学研究所所长威廉 · 纽瑟姆讨论了计算在神经科学中的作用。

在分子水平上理解大脑能否构建出更好的神经网络?意识在自然智能和人工智能中究竟应该如何定义?

带着这些问题,我们走进这次顶级AI学者与神经科学家的碰撞!

计算主导神经落后?纽瑟姆:计算的终极将是微观解剖!

首先让我们来认识下这次的与会嘉宾。

William Newsome 生于1952年6月5日,是斯坦福大学的一名神经科学家,他致力于「理解神经元过程对视知觉和视觉引导行为的调节」,同时也是美国国家科学院的院士。

根据美国国家科学院院刊的一篇文章,「纽瑟姆的研究与这一领域的许多其他研究不同,他使用的技术——主要是用微电极刺激灵长类动物的大脑区域——有助于证明因果关系,而不仅仅是显示行为和大脑活动之间的相关性」。

李飞飞也毫不吝惜对纽瑟姆的溢美之词,「我非常非常兴奋能和比尔进行这次谈话,我一直是比尔的超级粉丝。

纽瑟姆对于理解视知觉和简单决策形式背后的神经机制做出了重大贡献,作为Wu Tsai研究所的负责人,他致力于多学科的研究,帮助我们更深刻地了解大脑,为脑部疾病提供了新的治疗方法。」

纽瑟姆很高兴再次见到李飞飞,一番寒暄之后进入正题。

李飞飞:让我们从定义和讨论人工智能与神经科学的交叉点开始,你认为计算在你的领域中的作用是什么?

纽瑟姆: 嗯,这是个很好的问题。在今天的神经科学领域,计算是极其重要的。我有两三种不同的方法来回答这个问题,我们实际上有一个子领域叫做计算神经科学,目前斯坦福已经招募了这个领域的教员,我们希望可以有更多的专家参与进来。人们有时会问我,那是什么? 这么说吧,神经科学中的计算有三个不同的领域,非常非常重要!

第一个领域都是些理论学家: 这帮人试图理论化和提取关于大脑如何计算,大脑如何表现,大脑如何产生行动的一般原则。

第二个领域都是信奉神经网络的建模师 :那些真正懂得如何做深度卷积网络,懂得如何做循环神经网络,并且能够将简单问题进行建模的人。我们知道神经系统如何解决,如果我们能弄清楚这些网络是如何解决这些问题的,那么就可能对神经系统有新的认识。

第三种真正影响神经科学的计算方式是通过高端数据分析 ,就像许多科学领域一样,我们周围的世界正在变得更大、更丰富、更复杂,大脑中的模糊数据集比人类历史上任何时候都要多。要真正理解如何处理这些数据,如何避免统计上的陷阱,是极其重要的。

我认为这三个计算领域对神经科学来说都非常重要。我认为不同的计算神经科学家可能擅长两个,少有三个的,但我们需要更多这样的人,我们面临很多挑战。

李飞飞:那计算神经学家的最大挑战是什么?

针对这个问题,纽瑟姆举了个 计算已经发挥主导作用而神经科学还落后 的例子。

纽瑟姆: 那么,让我给你们一些现实世界的例子; 也许给你们一个计算实际上已经发挥了主导作用,而其他神经科学的研究方法却落在后面,计算需要介入并创造一个角色来创造理解。

神经系统中的一个叫做『整合』的东西,对于学过微积分的人来说,这是很熟悉的,它逐字逐句地计算发生的事件,逐字逐句地整合一些时间序列,并积累出最后结果。

事实证明,搞懂这个整合的原理对神经系统的研究十分重要,包括决策。

就拿简单的眼睛移动来说,从这一点移动到那一点时,某些神经元会在大脑中的眼球运动空间图上产生一个小的突起,当它们产生突起时,眼睛就会移动到那里。令人惊奇的是,眼球到达后就会待在那,即使突起已经过去了。

从理论上来说,计算理论是关于整合的: 你怎样才能获得爆发的神经信号,整合一些值,使眼睛保持在合适的位置,直到准备好再次移动眼睛 ?

我们知道一些生理学的知识,我们知道一些计算的知识,我们知道一些关于大脑结构连接的知识,这些知识产生眼球运动。在这种情况下,我们真正缺少的是解剖学。

事实证明, 几个不同的计算理论可以解释这一现象,但是要知道哪一个实际上发挥了作用,我们需要一次微观解剖 ,来搞清楚细胞之间是如何真正连接在一起的。这是一个例子,计算理论实际上引领了方向,并激发了一些解剖学问题。

但是,许多人对这一观点产生共鸣,是因为深层卷积网络正在接近人类在视觉方面的表现。

大脑已经进化5亿年,人工智能和自然智能仍是平行宇宙?

李飞飞:在某些方面正在超越。

纽瑟姆: 在某些情况下绝对超越。因为这些网络变得如此善于视觉分类,很多人可能丢掉工作。现在就有一个非常有趣的问题, 我们训练了一个深层的卷积网络,它可以做些非常神奇的事情,但我们真的了解它吗 ?

我们准确地知道神经网络各层之间的联系,我们知道传递了什么信号,我们可以看到神经元的动态,我们可以测量它们的表现。

但是在神经科学家中,仍然存在着这种深层的焦虑,一种智力上的焦虑,我认为人工智能领域的一些人,仍然不明白这是如何发生的。

将一组像素转换成面孔,然后区分不同的面孔,这些算法原理是什么?不知何故,深层的物理原理和计算原理还没有到位。

我们不明白这些东西是如何运作的。我们理解这种算法,也许在某种程度上,这已经是最深层次的了。但是我认为计算需要介入并教会我们这些,不管是对于人工网络,还是对于我们大脑中识别人脸的真实网络。

李飞飞:我想详细说明这一点,因为神经网络,尤其是视觉识别,是非常昂贵的,但也是非凡的,不是吗?这些数百层甚至数千层的卷积神经网络或循环网络算法,这些算法非常复杂,而且可以表现得非常好。

当涉及到物体识别时,一些网络确实超过了人类。但与此同时,如果你仔细看看这些算法的本质,虽然它们非常庞大,但与大脑相比,它们也是非常不自然的。

我只举一个神经元之间的交流的例子。在今天的神经网络算法中,它的实现方式是一个单一的标量值,而大脑中的突触交流,要复杂得多,那神经信号究竟是什么?

另外,从更系统的角度来看,我们的大脑是一个至少已经进化了5亿年的器官,哺乳动物的大脑大约有1亿年,它有不同的部分,不同的模块,今天的神经网络还远不能及。

因此,一方面,这些巨大的深度学习模型做得非常好。另一方面,与大脑相比,它们也非常不自然。我只是很好奇: 从你的角度来看,当我们在分子水平、突触水平和系统水平上,更多地了解大脑的计算实体时,你对如何构建这些神经网络有不同的见解吗?

纽瑟姆: 希望如此。我认为这是有计算意识的神经科学家争论的最深层次的智力问题之一,那就是人工智能在多大程度上,会与 NI (自然智能)汇聚并真正成为有用的智能?它们只是夜间通过的船只,还是两个平行的宇宙?

神经元完全非线性,GPU「疯狂燃烧」太浪费

一个单独的神经元(我们的大脑包含大约1000亿个神经元)是极其复杂的: 难以置信的复杂形状和难以置信的复杂生物物理学,而且我们大脑中不同类型的神经元具有不同的物理类型。

它们完全是非线性的,它们通过这些突触连接在一起,形成电路,理解和绘制这些电路,是神经科学的重大问题 。

但是有些东西应该让我们停下来,有些物质在大脑中局部释放,叫做神经肽,它们扩散到大脑周围的数千个突触,它们可以完全改变这个回路。你把一组以特定方式连接起来的神经元,喷射到这个神经肽上,它们瞬时就形成一个不同的回路。

李飞飞:是的,那很有趣。在我们的深度学习架构中,我们根本没有那种计算机制。

纽瑟姆: 大脑结构的另一个特征,几乎都是循环结构的。大脑 a 区向 b 区投影,你可以把它想象成深层卷积网络的一个层到另一个层。但是不可避免的,b 回到了 a。如果你不了解这两个区域的活动,以及非线性的行为,就不能理解这两个区域的活动,这些动态的相互作用产生了一个同时涉及多个层的状态。

许多人认为, 理解那些分布在网络中的动态状态将是理解大量脑计算的秘密 。

我知道现在这些深度卷积网络中的一些已经开始内置循环了,我不知道这个领域的确切位置,但肯定是个不错的想法。

动力学是大脑活动的另一个特征,它们反映了周围世界的动态,以及输入和输出的动态。为了让肌肉从一个地方移动到另一个地方,你必须有动态的输出,对吗?所以从动力学的角度来看,大脑要丰富得多。

而大脑最让人惊奇的是,它只需要极低的能量来做这些计算。

李飞飞:我本来想说20瓦的问题,这比我们所有的灯泡都要暗。我们听说过这些令人印象深刻的神经网络,比如 GPT-3或者神经结构搜索,都在疯狂地燃烧GPU,那你是怎么想的呢?

纽瑟姆: 嗯,我没怎么考虑这个问题,除了我们发明的设备是非常非常低效和浪费的。

我们在斯坦福大学有一个同事,Kwabena Boahen,他研究神经形态工程学,并试图建立模拟电路, 以一种更像大脑的方式运算 。他的模拟电路在电源使用上比数字计算机更有效率。但是他们还没有达到深度神经网络的认知效果,所以这里有一个鸿沟需要被跨越。

李飞飞:是的,我认为这是一个非常有趣的研究领域。你提到了「认知」这个词,我想详细说明一下,因为我知道我们开始谈论计算神经科学,但是认知神经科学是神经科学的一部分,也是视觉领域的一部分。

神经科学是计算视觉的「鼻祖」,AI也能反哺生物认知研究

首先,我的博士学位有一半是认知神经科学。

其次,在过去的30年里,我在视觉领域给予了认知神经科学很多信任,向人工智能世界展示了哪些问题需要解决,特别是像 Irv Biederman,Molly Potter 这样的人在70年代和80年代在心理物理学方面的杰出工作。

然后是神经生理学和认知神经生理学,像 Nancy Kanwisher,Simon识别方面的成果,最终导致了90年代末和21世纪前十年计算机视觉的繁荣。

所以我想听听你的意见---- 你是否仍然认为 认知神经科学在其中扮演着一个角色,或者说人工智能也能反过来帮忙 ?

纽瑟姆: 我以一种非常简单的方式来看待认知神经科学,这可能会让我们的同事,可能会让你不寒而栗,飞飞。我主要作为一个感官神经科学家,在视觉系统、 Hubel 和 Wiesel 的基本原理,以及视网膜的感受野特性方面,接着是大脑的第一个处理过程,然后是大脑皮层。

在20世纪70年代,我开始研究大脑,思考来自外围的信号。我们都称自己为感官神经科学家,但是还有另外一群神经科学家,他们的观点正好相反,他们让动物做动作,然后观察为这些运动提供输入的神经元,再把输入信息回溯至大脑,这是运动科学的努力。

而我们通过研究简单的决策形式来做到这一点,给动物感官刺激、要求动物对看到的东西做出决定,然后做出动作,如果答对了,就会有奖励。

那么,作为决策结果的感官信号是如何与操纵运动联系在一起的呢?这里,你正好处于认知领域。有些人认为这是大脑感觉系统和运动系统之间的分水岭。你如何做出决定?

你不能同时向左和向右移动你的眼睛,你不得不做出决定。

这就是我进入认知神经科学的原因,我认为这是目前神经科学中最有趣的领域之一。人工智能和计算理论模型深刻地影响了我自己的决策工作。

我有时会想反过来: 视觉和神经科学对人工智能有什么启发?

李飞飞:对。斯坦福大学的神经科学专家正在将认知的灵感,运用到深度学习框架的计算模型中。他们正在构建一些智能体, 试图遵循早期人类认知发展的规则,在好奇心、探索等方面,学习建立一个世界模型,并且改进与世界的互动 。

我认为认知科学已经在影响人工智能,激发新的计算算法,超越更传统的模型。

纽瑟姆: 神经科学真正引领人工智能、卷积网络和人工视觉之路的一个例子是对哺乳动物大脑视觉的深入理解。

比如方向性 Gabor 过滤器等,都已经被人工视觉化了。

你只需要从前端开始,从大卫 · 菲尔德这样的人那里得到一些心理物理学和统计分析的原理。如果必须指出神经科学对人工智能的促进,那就是许多视觉的前端,都来自神经科学。

李飞飞:这绝对是一件大事。

纽瑟姆:我认为从事视觉研究的年轻一代都该认识到,人造视觉系统虽然在某些情况下可以超越人类的表现,但是人类的学习过程与人造系统是非常不同的。

李飞飞:人工智能有局限,「一次性学习」是关键

人造系统需要成千上万的例子才能做得非常好,而且它们必须被人为标记。

「我家里有一个5岁的小女儿,在她两三岁的时候,她已经观察了十几只大象,就能认出任何地方的大象。她可以辨认线条画,照片,不同的角度,不同的大小,不同的环境。」

所以我认为人类视觉、认知神经科学以及幼年动物视觉发育的研究,对人工智能,才是真正的挑战。

李飞飞:是的,实际上我想强调你刚才提出的一点,因为用你的话来说,真的很深奥,因为人类在生物学上学习的方式,自然智能系统学习的方式是如此不同。

我仍然记得20年前,我在人工智能领域的第一篇论文「一次性学习对象类别」,但是直到今天, 我们还没有一个真正有效的框架来像人类那样进行一次性学习,或者说几次性学习 。

除了基于实例的学习训练,还有非监督式学习、灵活性和概括能力,这真的是整个智能领域的前沿,无论是人类智能,还是人工智能。

纽瑟姆: 是的,我认为人工智能必须对此保持谦虚的态度,我们几乎不知道这是如何发生的。

李飞飞:在某种程度上,我认为我们这些科学家有责任,与公众分享人工智能的局限性,因为当今对人工智能、机器霸主等等的大肆宣传,是缺乏对人工智能系统的局限性认识。

最后,纽瑟姆认为,人工智能的确更像是一种工具。人工智能可以极大地帮助我们,收集细胞内的遗传、获得分子水平上的数据分析结果。

人的大脑要考虑的东西太多,信息处理、信息抽取、组织、决策、记忆和学习等等。

不同的神经元中实例化的计算规则和算法可能是不同的,小脑可能有一套理论和一套原则,而大脑皮层可能有另一套 。

「我不确定哺乳动物的大脑,是否会有一个普遍适用的统一理论,但很可能是一系列相关理论的集合。」

https://hai.stanford.edu/blog/what-computations-role-neuroscience?sf132574832=1

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
28赞
大家都在看打开应用 查看全部
网易热搜每30分钟更新
打开应用 查看全部
打开