随着人工智能的飞速发展,各种大模型的能力获得了极大的提升,应用日益广泛。但是,从自然演化的角度来看,人工智能的方向走对了吗?
文|张军平
复旦大学计算与智能创新学院教授、博士生导师,中国自动化学会普及工作委员会主任,《科学画报》编委会人工智能专委会委员。研究方向包括人工智能、图像处理、生物认证、智能交通等。连续5年(2021—2025年)入选全球前2%顶尖科学家榜单和终身科学影响力排行榜。
2023年年初,美国人工智能研究公司OpenAI的chatGPT快速出圈,随后引发了人工智能模型的“百团大战”。
两三年过去了,人工智能领域出现了大量新的突破。例如,OpenAI的新一代视频生成模型Sora-2的短视频制作水平提升,谷歌公司推出包括大语言模型Gemini-3、人工智能笔记本电脑NotebookLM和图像编辑模型Nano Banana Pro的人工智能套餐。2025年12月,Meta公司宣布收购智能体公司Manus,引发争议。这些都意味着人工智能又向前迈进了一个台阶。
但是,我们还是需要思考一下:人工智能的方向是否走对了?
01.
大模型的能力
关于这个疑问,我与我的研究生孙睿进行了一段有趣的讨论。我们先讨论了Transformer模型架构到底能不能像人一样做长思考。孙睿说,Transformer这样的架构已经可以对足够长的Token(字符或字符序列,是大型语言模型的输入输出基本单位)进行回溯和关联,如25万字的长篇小说。因此,大模型可以拥有比人更强的长思考能力。
我的观点是这种能力需要付出代价。因为它需要大量的数据来学习和训练,模型的参数调整又需要好的并行能力,所以现在的大模型方案基本上都是高耗能的。
这在自然界几乎是不可想象的。试想:在一个能源需要自给的自然环境中,高耗能的动物有没有可能生存下来?自然界能生存下来的动物往往都是比较节能的,像七星瓢虫,也许几只蚜虫的能量就能够支撑它飞一天。这可能是自然界长期随机演化的结果。虽然这种演化不一定时时刻刻都朝着最优的方向,有的时候还会倒退,但总体来看,它获得了一种平衡。
如果用人工智能对大模型的调参来比拟,这种平衡是自然界通过上亿年的调参获得的。只不过,它在结构上与目前人工智能的做法可能是完全不同的。
大模型是建立在巨量参数基础上的,但受限于人类所能提供的算力影响,输入的特征却不多。例如,面向图像的深度网络的输入特征一般是256像素×256像素、1024像素×1024像素等,而特征层则会将需要学习的参数变得异常巨大。类似的,受自然语言处理和注意力启发的Transformer、大语言模型也是如此,中间层的参数非常大。从某种角度来看,这两种网络更多地关注对“抽象层”的统计特征学习。要学习好这些参数,巨量数据是必不可少的。为了获得高计算效率,我们不得不依赖显卡或图像处理器(GPU)集群来加速。
与之相反,人类或其他生命的输入层要复杂得多,有着极其丰富的传感器。这也导致了一个无法攻克的莫拉维克悖论的出现:人类觉得简单的,机器觉得复杂;人类觉得复杂的,机器觉得简单。机器所认为的复杂主要表现在学习上,一旦学习可以程序化、流程化、规范化,机器必然会觉得简单。这一点在围棋上已经得到印证,所有与学习相关的任务也逐渐验证了人工智能的强大。
人类觉得简单的,却是自然演化出来的丰富传感器导致的。这些传感器的设计大多数远比人类设计得要精妙且难以模仿。例如,蚊子的刺吸式口器、蝎子的尾刺,相较于人类的注射针头要复杂得多。与学习相比,这些传感器可能会导致与身体技能相关的一些工作很难被人工智能取代。
02.
自然界与人工智能
由此推开来,我和孙睿同学似乎有了一个更有意思的观点:如果把自然界的演化看成是一种神经网络或深度网络,那这个网络的输入层会是巨量的参数,如10的22次方或更高数量级的,而网络也许很浅,模型的优化也并不一定聪明,甚至还会有极强的随机性掺杂其中。
但是,和人类相比,自然界的优化最不缺乏的不是能源,而是时间。它可以用上亿年来优化这个模型。相反,单个人类能够贡献出来的工作或投身人工智能研究的时间就少得可怜,只有自然界认为可以忽略不计的一瞬间。
因此,我们不得不退而求其次,只针对智能的某一个方面来穷极一生进行优化。现在能找到的并能获得成就感的优化点都是与预测相关的,或任何能转成预测问题的,如人脸识别、大语言模型等。为了能让它们的性能变好,人类会通过消耗大量的能源来换取时间上的加速。
事实上,这种用能源换时间的做法不仅在人工智能方面是如此,在气候变化方面,人类也有类似的行为。例如,自汽车发明以来,人类短时间内消耗的能源总和可能相当于自然界千万年的积累,于是它不可避免地影响了全球气候。
也许,从自然界的角度来看,人类就是一种极其贪婪的动物,即使现在有了人工智能的加持和赋能。从短期来看,人类通过这种做法可以获得巨大的收益。但是,如果放到自然界的时间尺度来看,人类的这种加速就不一定是对的,甚至目前人工智能的做法也不一定是对的。
*本文刊登于《科学画报》2026年第3期人工智能专栏,更多相关内容欢迎订阅。
全年订阅

