人类大脑是如何学习的?想要全面地回答这个问题并不容易。
人脑是目前已知最复杂的神经网络,也是唯一能够实现复杂认知功能的器官,它的神经元多达数百亿个,并且每个神经元都与数千乃至上万个其他神经元形成连接网络。
尽管科学家们一直在努力探索,但迄今为止人们对大脑的功能和信号传递机制尚未完全明晰。
美国著名物理学家理查德·费曼(Richard Feynman)曾说过,“如果我不能创造它,我就不能理解它(If I cannot create,I do not understand)。”
为进一步理解大脑的工作原理,复旦大学冯建峰教授团队构建了一个全人脑尺度大脑模拟平台数字孪生脑(DTB,Digital Twin Brain),首次在世界上实现了对 860 亿神经元和百万亿突触的具有生物已知结构的模拟。
数字孪生脑是通过计算机或芯片来实现的虚拟大脑,它能够帮助研究人员理解信息如何在大脑中传播和处理的过程。
大脑在临界点附近的动态行为,被认为是其认知功能的关键时空特性,这与大模型中经常提到的 Scaling Law(缩放定律)有“异曲同工之妙”。
研究人员发现,DTB 在规模与结构方面越接近人类大脑时,其在功能上表现出的现象也更接近真实人脑的认知功能。
当神经元数量达到 50 亿以上规模时,会在数字孪生脑中观察到人脑智能的涌现特征。
该研究有望为脑疾病的诊疗提供更好的策略,为生物实验提供平台,以及为发展类脑 AI 提供新的工具和理念。
ARM 处理器硬件微型体系架构原创者、英国曼彻斯特大学斯蒂芬·B·弗伯(Stephen B. Furber)教授对该研究评价称:“我已经深入了解了 DTB 团队的工作,他们有着很大的目标,通过基于生物数据的全脑计算模型的模拟和整合来探索类脑智能。”
在英国伦敦大学学院卡尔·J·弗里斯顿(Karl J. Friston)教授看来,DTB 是“全球计算神经科学和生物信息学领域最全面、技术原则最严谨和最重要的工作之一”。
日前,相关论文以《通过模仿大脑休息和执行任务状态的类脑计算:扩展和架构》(Imitating and exploring human brain's resting and task-performing states via resembling brain computing: scaling and architecture)为题,以期刊封面形式发表在National Science Review[1]。
复旦大学卢文联教授是第一作者,冯建峰教授担任通讯作者。
解决 243 万 Gbit 每秒海量信息传递拥堵问题
据悉,该研究由 20 多名成员组成的交叉团队共同完成,包括数学、神经科学、计算机科学等。自 2018 年底,他们开始对数字孪生脑进行探索,整个研究经历了近 6 年时间。
欧盟“未来新型旗舰技术项目人类脑计划”首席科学家、法国艾克斯-马赛大学维克托·吉尔萨(Viktor Jirsa)教授指出,模拟具有 860 亿个神经元的人脑,并处理与动力学和参数空间相关的复杂性,是数学和计算机科学本身所面临的一个挑战。
在计算科学方面,想实现模拟如此大规模的神经元,首先需要解决神经元之间通讯量的挑战。据课题组估算,860 亿个神经元之间的通讯量相当于中国所有无线通讯总量的 30 倍。
为了解决该问题,研究人员使用了 14012 张图形处理器(GPU,Graphics Processing Unit),最大程度为计算的可靠性和准确性提供保障。
通过使用高性能计算系统和设计优化路由,改进了神经元组的分布,从而解决了 243 万 Gbit 每秒海量信息传递的拥堵问题。
在数学方面,如何准确地估计神经元之间的连接权重,使得数字孪生脑的信号与人脑的信号尽可能相似,是研究中的关键难题之一。
英国皇家学会院士、2024 年诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)此前在接受《麻省理工科技评论》采访时曾指出,人脑的突触参数高达 100 万亿,比 GPT-3 的参数量(1750 亿个)还高出 1000 倍 [2]。
研究人员使用数据同化方法,从有限的数据中估计出神经元之间的连接权重。“这种方法使我们能够将数字孪生脑的信号与人脑静息态信号之间的相似度提高到 93% 以上。”冯建峰说。
除了数学和计算科学上的挑战,该研究在生物学方面也经历了技术攻关。在静息状态下,数字孪生脑与大脑活动的高相似度是在大脑处于完全放松、不做任何事情的状态下实现的。
当要求大脑执行具体任务,例如对某个图像进行评分或表达喜好时,情况会变得更复杂。
这时,大脑需要与外界环境进行交互,接收输入信息(如视觉图像)。因此生物学方面的挑战在于,如何将这些环境输入有效地传递给数字孪生脑,使其能够模拟人脑与环境的互动。
冯建峰表示,这不仅要模拟大脑在静息状态下的活动,还要模拟大脑在执行具体任务时的活动。
其涉及到大脑如何利用环境信息来执行任务,即从“不做任何事情”到“做某件事情”的转变,还涉及到对大脑功能更深层次的理解。
研究人员不仅整合了丰富的生物学知识,还利用课题组通过扫描技术获得的大脑内部连接情况的实验数据,以及神经元数量等详细信息。
他们运用逆向工程计算方法,以确保模拟出的神经元活动模式能够反映真实的大脑信号。
为发展类脑 AI 提供新工具
在全球范围内,虚拟脑孪生项目 EBRAINS 与该课题组构建的数字孪生脑平台类似,但前者只在宏观的脑区水平实现了全脑模拟。
冯建峰表示:“我们的模型跨越了宏观、介观和微观世界,实现了模拟包括神经元之间的精细连接在内的大脑复杂结构,并达到了神经元水平。”
数字孪生脑平台有望在以下三个领域发挥重要作用,具体来说:
第一,作为医学平台用于模拟各种复杂的脑疾病,如脑肿瘤、脑卒中、抑郁症、精神分裂症、老年痴呆症等,从而帮助研究人员深入理解相关疾病的发病机制,并为治疗方法的开发提供新思路。
冯建峰指出,通过数字孪生脑模拟患者的大脑活动,来预测脑肿瘤的生长速度,可为手术或干预的最佳时机的选择提供依据。
据悉,目前研究人员基于数字孪生脑技术,已在 6 名抑郁症患者的脑组织上进行试验。通过对比模拟结果与实际大脑中的信号,在抑郁症患者的脑组织中模拟信号的准确性能达到 90% 以上。
第二,作为生物平台,对斑马鱼(约 10 万个神经元)、小鼠(约 7000 万个神经元)、猴子(超过 60 亿个神经元)的大脑进行模拟,从而替代部分真实的生物实验,减少对动物的伤害,有望用于药物研发等生物科学领域。
例如,在研究中为模拟大脑的内感受回路,验证静息状态活动反映内部身体状态的假设。研究人员发现,去除从初级视觉皮层到下游视觉通路的连接会显著降低模型与生物大脑在海马体的相似性,而对整个大脑的影响较小。
第三,作为通用人工智能平台,为开发类脑 AI 系统提供重要参考。
AI 的发展在很大程度上受人脑结构和功能研究的启发。通过模仿大脑的工作原理,AI 技术在许多方面取得了显著的进步,例如神经网络的设计、深度学习算法的开发以及自然语言处理等领域。
实现通用人工智能是人类未来的目标之一,如果能够精确地模拟人脑处理信息的方式,有望通过揭示其背后的机制,指导人们加速发展通用人工智能。
冯建峰指出,随着技术的发展,未来人们或许会拥有三种类型的计算机。
一种是传统计算机,用于日常计算任务和数据处理;另一种是量子计算机,用来帮助加速计算;还有一种是类脑计算机,能够帮助人类做出更加智能的决策。
终极科学梦想:真正地理解人脑
冯建峰教授本科毕业于北京大学数学系,并在该校概率统计系获得硕士和博士学位。“我是学数学出身的,后来对生物产生了兴趣,三十多年来,我一直用数学方法研究神经科学。”冯建峰表示。
他是在全球顶级 AI 会议神经信息处理系统大会(NeurIPS,Conference on Neural Information Processing Systems)上发表论文的首位中国学者。
1994 年,冯建峰在 NeurIPS 发表重要论文,对无监督学习规则 Hebbian 学习进行分析,为理解神经网络中的学习规则提供了重要的理论基础。
此前,他曾在英国华威大学计算机科学系担任讲席教授。2015 年起,冯建峰担任复旦大学类脑智能科学与技术研究院院长,目前,他还担任上海数学中心首席教授兼任复旦大学大数据学院院长。
数字孪生脑平台的开发是向理解人脑迈出重要的一步,但冯建峰也指出,“我们的模拟速度比人脑正常运行速度慢 70 倍,因此我们在计算模拟方面还有很大的提升空间。”
未来,该课题组希望通过扩大模拟规模和提高模拟精度,模拟超过人脑神经元数量(例如 1000 亿神经元),探索超脑中可能出现的各种新现象,以增进对大脑功能和智能行为的理解。
目前,研究人员也在探索利用数字孪生脑平台对人脑过去状态和未来可能出现的变化进行模拟,从而帮助理解大脑的工作原理和发育过程。
“现在我们也在探索将数字孪生脑安装在机器人上,真正地与环境发生作用的效果,以确定在自动驾驶等工业界应用的可能性。”冯建峰表示。
在该研究中另一个不可忽视的问题是,需要庞大计算资源的支持。因此,他们计划在下个研究阶段与斯蒂芬·B·弗伯(Stephen B. Furber)教授共同探索在神经形态超级计算机 SpiNNaker2 实现人脑模拟的可能性,硬件芯片的使用有望降低计算资源。
展望未来,该团队希望将数字孪生脑开放为公共平台,让全球的科学家都可以用起来。“脑科学是科学领域中最后的堡垒,而真正地理解人脑是我们的终极目标。”冯建峰说。
参考资料:
1.Lu,W. et al. Imitating and exploring human brain's resting and task-performing states via resembling brain computing: scaling and architecture.National Science Review11: 080(2024). https://doi.org/10.1093/nsr/nwae080
2.https://www.technologyreview.com/2020/11/03/1011616/ai-godfather-geoffrey-hinton-deep-learning-will-do-everything/
排版:刘雅坤、何晨龙