人工智能能解决科学问题吗?

随着近年来 AI 技术的蓬勃发展,AI 在科研领域的应用也越来越广泛深入,无疑让许多人们对这一问题持有乐观的态度,但是,人工智能最终可以彻底替代人类科学家,帮人类解决所有科学问题吗?

对此,Wolfram 语言之父、美国计算机科学家 Stephen Wolfram 给出的答案是:NO。

在近期的 Imagination In Action 峰会中,Wolfram 与德国著名计算机科学家与认知科学家 Joscha Bach 对谈,发表了他关于这一问题的观点。

打开网易新闻 查看更多图片
(来源:Imagination In Action)

1. 人工智能能预测未来吗?

从历史上看,一种科学是否成功的决定性特征往往是:它能预测未来会发生什么吗?或者说,它能够找到某个系统运行的基本规则吗?而目前的人工智能,似乎并不能完全做到这一点。

Wolfram 认为,其核心就在于,在科学研究中,许多系统运行的规则体现着计算的不可规约性(Computational irreducibility),意即指某些系统或过程无法通过简化的计算步骤提前得到预测。而目前的人工智能,就其构造而言,本质上只是在做相当浅层的计算。

如何理解这种计算的不可规约性?

我们的科学理论核心之一在于,可以把一切过程视为计算。系统进行计算,以确定其行为。人类以及我们创造的任何 AI——也必须进行计算,试图预测或“解决”这种行为。

然而,计算等价原则指出,如果任何两个问题或函数具有相同的解决方法或计算结果,那么这些运算在复杂度上是等价的。

这意味着我们无法跳级“速解”系统,要想准确地理解这个系统的行为,总是需要一定的运算输入。所以,不管人工智能是否被应用,“科学力”都受限于行为的不可规约的计算本质。

但为何计算不可规约性的存在不妨碍科学取得进展?关键就在于,在全局不可规约中普遍存在局部的可规约计算。即系统总有可经有限计算描述的方面,这恰是科学关注点所在。

不过,即使我们将计算局限在可规约的范围内,自然界出现的现象与问题也总会迫使我们去面对不可规约性计算。

AI 或许能提供途径,揭示某些可简化计算,但总有未被计算简化的未知等待被发现,它始终制约着我们全面“攻克”科学之谜,而 AI 在处理这些计算时就显得力不从心。

我们可以借助 Wolfram 此前在他所写的文章中提到的一个例子说明这一点。

假设我们的已有“数据”是这里的蓝色曲线——也许代表的是悬挂在弹簧上的重物的运动,而“物理学”则能让我们知道延续出来的红色曲线部分:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

现在我们来看一个非常简单的神经网络:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

使用上面的蓝色曲线数据对其进行训练,以得到一个具有特定权重集合的网络:

现在,让我们应用这个训练有素的网络来重现原始数据,并对其进行扩展:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

我们看到,该网络重现出了训练数据,但却未能做到“预测未来”。

这是因为我们训练的时间不够长吗?下面是逐步增加训练回合后的结果:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

似乎,这并没有什么用。所以问题的原因可能在于,我们的神经网络规模太小了。下面对其进行进一步调整。

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

更大的神经网络或许会起到一定的作用,但它们并不能解决我们的预测是否成功的问题。神经网络的一个特点就在于其激活函数:我们如何根据输入的加权和来确定每个节点的输出。下面是一些使用各种常用激活函数的结果:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

可以发现,不同的激活函数导致了不同的预测结果,似乎,其预测的结果只是激活函数形式的直接反映。

我们当然可以继续对其加以训练,不只限于某单一函数,而是训练整个函数系列——比如三角函数集合,或者 Wolfram Language 中的所有内置数学函数。

这样,我们当然可以预测出上面的正弦函数,但是,这称得上是“做科学”吗?

从本质上说,它只是人类在某一特定领域的典型经验的自动化的版本。所以,Wolfram 说,人工智能在“预测”这方面的表现“出乎意料地糟糕”。

他认为,大语言模型等人工智能等表现出色的地方,从某种意义上说,是那些计算量比我们所知道的要少的方面。

例如,我们能从 ChatGPT 的成功中所了解到的一点,或许就是语言比我们想象的要简单,语言中的规律性比我们所发现的要多得多。这也是人工智能能在科学领域的这类问题上取得成功的原因。

但在这些问题中,有一些计算从根本上来说也是不可化归的。在这一方面,人工智能的表现并不比我们人类更好,它也无法取得更大的进步。

如果我们要求 LLMs 给出一些没有那么精确的回答,例如对某个主题的文献、对某些事情的看法,那么它们可以答得很好。

Wolfram 认为,LLMs 拥有一种我们未曾有过的分析文本的能力。

过去,我们可以运用统计学工具得出一大堆数字中的异常值,以及计算平均值或是方差。

现在,有了 LLMs,我们可以对大量文本进行同样的处理。我们以前从未有过这种能力,它不能归为统计,而是一种未被命名的新事物。

人工智能可以衡量诸如“这些作品的相似程度”“这些神话有多大不同?”等这类人们此前只能通过写文章来解决的问题,人工智能有可能可以让这些问题变得更加明确,而且在某种意义上可以量化。

或许,我们可以期待在人工智能领域出现一个新词来命名这种能力。

2. 人工智能有原创性吗?

人们可能会比较关心这一问题:人工智能是否具有原创性与创造力?

实际上,做出原创性的工作是非常简单的,你只需选择一堆随机数。那些随机数序列非常出人意料、有创意、也很有独创性,但这对我们来说,并没有太大意义,我们真正感兴趣的是那些有原创性而“有趣”的东西。

举个例子,假设我们正在进行艺术创作,随机安排的像素阵列当然是原创的,但它们并没有太大意义。

如果我们让 AI 制作一张带派对帽的猫的图片,那张图片的含义会被转换成一组数字,而这组数字就是生成那张猫的图片的来源。

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

如果我们想了解嵌入向量在潜在空间中的不同可能值,尝试这随机更改这些数字,这时,在那个可能代表事物含义的数字空间里会有什么?我们会看到各种各样的图片,但其中大部分是我们无法解读的。

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

或许这些图片大部分看起来有点意思,但我们无法用语言表达其含义(当然,或许某一天会有一种艺术风格就基于这个特定方向和嵌入空间)。

因此,人工智能有能力发现一些我们意想不到的新奇事物,这其实并不难。不过,我们通常不会这么做。

一般来说,我们在编写程序时,都是有明确目标的,我们会按部就班地设计和编写代码,以实现我们想要的功能。

但如果我们不按常规出牌,随意地编写程序,那会出现什么情况呢?结果可能出乎意料:即便是非常简单的程序,也可能执行一些非常复杂的任务。

当我们观察到这些程序的效果时,我们可能会惊喜地发现它们非常有用,可以被用来完成某些特定的工作。

这有点像我们在自然界中探索,发现了新的矿物质,意识到这些新材料对我们有实际的用途。在技术领域,尤其是计算世界里,也同样如此。

Joscha Bach 总结道,某种意义上,(Wolfram 所说的)科学就是数据压缩,我们观察了宇宙的所有动态,然后用几条定律、几个微分方程来表征它们,我们就能理解发生了什么。

但在这个过程中,还有一个方面超越了数据压缩,即,当我们在发挥创造力时,我们自身也被改变了。

这一点类似于艺术。艺术的特点在于,你感知某物时,它也改变了你。如果富有创造力,那么无论我们做什么,我们都能提出新的想法。重要的是观察者或创造者本身正在通过这个创造过程发生变化。

但在当前的模型中,似乎还具有一些局限性,它们在创造时(或者说“生成”)时,它们无法根据自身发现的内容进行更新。而这正是人类目前优越于 AI 的地方。

3. 寻找有趣之处

Wolfram 提到,要明确的一点是,关于这个世界的想法是异常丰富的。人类的典型语言中可能有 5 万个单词,而这些词语所表达的,往往都是在我们看来足够重要的概念,需要用文字来表达,但尚未被言明的还有很多。

关键就在于,我们如何去探索,如何去明确我们所感兴趣的方向,如何去扩展自己,并从中获得发展。

我们可以借一个例子进行说明。如果我们从数学的公理出发,通过逻辑推理来探索可能的数学定理。这个过程通常涉及两个步骤。

首先,这里有许多看起来可能看起来非常“无趣”的定理。

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

然而,在这些定理中,有时会发现一些特别有趣的定理,它们足够重要,于是在教科书中被特别命名,例如“幂等律”。

那么,我们是否有可能预测哪些定理会被特别命名?虽然这可能看起来像是一个历史问题,但在逻辑学中,似乎有一个系统的模式。

比方说,我们列举逻辑定理时,从最简单的定理开始,按词典顺序依次排列。列表中的大多数定理都可以从前面的定理推导出来,但也有少数定理是不可推导的。

而这些定理基本上就是那些通常得到命名(高亮部分)的定理:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

换句话说,至少在基本逻辑这个相当受限的情况下,那些被认为足够有趣以被命名的定理,是那些给我们带来新信息并引起惊喜的定理。

如果我们在更广泛的“元数学空间”(metamathematical space)中考虑,就可以根据经验来识别那些被认为有趣的定理的位置:

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

人工智能能预测这一点吗?

理论上,我们可以使用现有的数学文献和其中的数百万条定理来训练一个神经网络。然后,我们可以将通过系统枚举得到的定理输入到这个神经网络,让它评估这些定理作为可能出现在数学文献中的对象的可信度。

在这一过程中,神经网络甚至可以被用来预测哪些数学探索的“方向”可能是有趣的。

如果任由人工智能发展,我们可以期待它去探索这个可能的计算世界。

但在寻找“真正的新科学”时,上面的方法可能就有问题了。因为从现有文献中训练出来的神经网络基本上会寻找“更多相同的东西”,它所“接受”的是“主流”和“不太令人惊讶 ”的东西。

而计算的不可规约性意味着,在探索过程中总会有出人意料的发现,这些发现不容易归纳为已知的模式。它们可能提供新的信息,甚至可能具有实际应用价值。然而,这些新概念最初可能没有直观的解释,需要人类逐渐理解和接受。

我们选择内化哪些新事实或新方向,这个过程有一定的主观性。虽然特定的方向可能引导我们发现新的思想或技术,但在没有深入探索之前,我们无法确定哪个方向是正确的,这通常是由人类的选择来决定的。

此外,还存在一个潜在的问题:即使人工智能对人类心理和社会有足够的了解,能够预测我们可能感兴趣的内容,但计算的不可规约性仍然意味着我们无法事先完全知道我们最终会喜欢什么。

因为直到我们真正“到达那里”,我们才能真正了解我们对某个发现的反应。这意味着,尽管人工智能可以提供指导和建议,但人类对于决定哪些新概念值得追求仍然扮演着关键角色。

在我们的选择之前,人工智能或其他任何东西都无法去发现“有趣”的抽象概念。

实际上,寻找“有趣”的方向,也就意味着我们如何探索这种具有计算可能性的空间。

而我们所关心的计算可能性的集合是非常小的,但对于我们文明的未来来说,这才是最重要的。

相比 AI ,人类要做的事情,就是在这个充满可能性的计算宇宙中,选择他们认为“有趣”的方向。

科学的作用是什么?Wolfram 认为其中一点就在于计算宇宙的可能性。我们可以用人类的叙述来解释某些片段。而很多事情是无法理解的,我们没有办法把它简化成我们可以描述的东西。

4. 让宇宙通过计算形式化

Wolfram 致力于构建一种计算语言,即 Wolfram Language,这种语言的理念就是让世界上的事物通过计算形式化。

我们可以认为,这种语言的构建与人类文明进程的演进相呼应,从原始的指物交流到语言的诞生,再到逻辑学与数学的形成,每一步都是对世界的进一步形式化。

Wolfram 的兴趣在于,将世界上的各种事物——无论是城市、化学物质、电影、图像还是其他任何东西——用计算的方法表达出来。

他希望打造一种语言模型,能够以一种简洁的方式代表世界中的各种事物,为探索未知领域提供工具和符号,从而促进新发现和发明的产生。他的目标是让这种语言能够描述尽可能高级的计算过程。

这就有点类似于 500 多年前的数学发展,当时数学符号如加号和等号的发明对代数和微积分的发展起到了关键作用,进而推动了现代数学科学和工程学的进步。

Wolfram 谈到, ChatGPT 能够写出代码,实际上代表着很多代码都是基于模板的。

对于他这样的语言设计者来说,如果 ChatGPT 能够正确生成模板代码,那么这些代码应该可以简化为语言模型中的一个函数,而不需要每次都从头编写。

而他的目标就是找出人类所关心的、可以打包在一起的计算工作。

LLMs 就可以很好地与 Wolfram Language 结合使用,因为 LLMs 是一种出色的语言交互工具,能够从我们模糊的思维和对话中捕捉意图。当然,无论是 LLMs 还是人类,都需要工具来进行实际的计算工作,因为仅凭人类大脑是无法直接进行复杂计算的。

大约一年前,Wolfram 与 OpenAI 合作,在 ChatGPT 中引入了 Wolfram Alpha,它能够将自然语言及其片段转换成计算语言并执行计算。

打开网易新闻 查看更多图片
(来源:Stephen Wolfram)

Wolfram Alpha 的一个显著特点是,当它认为自己正确理解了输入的自然语言时,它的计算结果就是准确和有意义的。

它会明确表示理解或不理解输入的内容,当它成功转换语言并完成计算时,提供的结果正确而有意义。

Bach 指出,这说明,其优点就是不会产生“幻觉”。当我们使用 AI 时,也不会导致我们产生“幻觉”。它能够帮助我们验证想法,减少误解或错误的认知。

这一点尤其关键,因为 LLMs 是在人类生成的文本上训练的,并复制与此相似的东西。

很多文字基本上都是对可能存在的现实的幻觉,但你不知道这是否就是你所处的现实,也不知道它在逻辑上是否合理。

那么,对于那些正在探索如何利用 LLMs 的人来说,是否能够通过 Wolfram Language 来提升他们的工作效果?如果可能,他们又应该如何着手开始呢?

Wolfram 回应说,我们应该创建一种计算语言,使得人们能够更自然地进行计算思维。

他指出,大多数软件工程实际上是一种高级的体力劳动,因为它涉及编写大量的代码。

Wolfram Language 的设计就旨在自动化这些操作,让人们专注于思考计算本身,而不是编写代码的过程。

Wolfram 强调,这种工作方式与典型的软件工程有所不同,后者更多关注于代码的实际编写。他认为,学会如何从计算的角度思考问题是人们应该掌握的一项重要技能,尽管这与计算机科学不完全相同。

他还提到,大型语言模型等人工智能可以作为一个有用的接口,帮助我们更好地理解和表达我们对事物的模糊想法。

例如,当你与 LLMs 进行对话时,它可以尝试生成 Wolfram Language的代码。这些代码是人类可读的计算符号,可以帮助你准确地表达你的计算意图。

Wolfram 比喻说,如果 LLMs 生成的代码符合你的预期,那么你就能以此为基石,在此基础上构建整个系统。这并非典型的工作流程,而是一种通过 LLM 来探索如何在计算上表示你所讨论内容的方法。

此外,LLMs 还能够生成代码并运行它,然后分析运行时产生的遥测数据。

虽然这些数据对人类来说可能很无聊,但 LLMs 可以利用它们来调整和改进代码。

LLMs 就好像一头“野兽”,问题的关键就在于,我们是否能够正确地引导和利用这些“野兽”以完成有用的任务。

5. 人工智能会超越人类吗?

Bach 提出了一个问题,即我们是否能够将大型语言模型训练成计算机代数系统,使其能够进行数学证明?或者,我们是否需要寻找一种全新的方法?

Wolfram 回应说,目前的大多数 LLMs 都是基于前馈网络,它们处理大量文本数据,然后预测序列中的下一个 token。

打开网易新闻 查看更多图片
图丨多层前馈神经网络(来源:DergiPark)

通过在神经网络中进行迭代,模型能够给出下一个字符出现的概率,并以此构建出整个文本序列。如果输入下一个 token 它就会把整个序列如此循环往复,其唯一的反馈机制就是这个外循环。

继而 LLMs 能够调用工具并生成某些输出,而这些输出实际上就是我们计算语言的输入。这依旧只是一种弱计算的形式。

LLMs 在执行复杂任务,如数学证明或高级逻辑推理时,通常只能进行基础的计算操作。

对于数学证明、化学合成或路径寻找等任务,LLMs 就可能难以提供有效的帮助,因为这些任务需要将多个步骤组合起来以达成特定目标,而 LLMs 在这方面的表现似乎并不算好。

以数学积分为例,LLMs 在处理涉及细微差别和复杂步骤的问题时,可能无法提供充分的帮助。但对于那些需要给出大致方向或概述性信息的任务,比如预测积分过程中可能涉及的函数类型,LLMs 倒是可以派上用场。

Bach 提出,随着时间的推移,随着其所解决的问题越来越复杂,随着其模仿程度的程度不断提升,LLMs 在处理数学问题上的表现,或许会越来越优秀。

不过,这些问题通常是基于它们训练数据中已有的问题,而在人类的边缘知识中应用时则面临挑战。

Wolfram 则表示,如果让 LLMs 自由发挥去解决数学问题,很可能会出错。尽管 Bach 认为 LLMs 会随着时间进步,Wolfram 却持保留态度。

Bach 指出,像 ChatGPT 这样的系统能够通过编写简短的 Python 程序来解决掩码问题,虽然对于需要复杂推理和完整证明的问题,即使是大型的 LLM 也难以处理,但通过分步处理,这些问题仍有可能被解决。OpenAI 目前也非常重视这种长形式推理,并将其作为未来发展的一个重点。

他进一步提问道,Wolfram 倾向于将人工智能视为人类思维的延伸工具,帮助完成大脑并不擅长的事情。而开放式人工智能则专注于构建一种可能在所有维度上都超越人类能力的东西,包括进行数理证明。

那么,在 Wolfram 看来,这种努力是徒劳的吗?我们是否无法构建出一种取代人类的通用智能?还是说,我们是否应该专注于创建能够增强而非取代我们的系统,因为这样的系统可能对我们更有实际用途?

Wolfram 回应说,尽管计算机可以完成许多计算任务,但关键在于如何将这些能力与人类的需求相匹配。

例如,机器学习为何有效?它们为什么能够学习和推断?它们当然能做到超出人类所能掌握的事情,但是问题是,我们如何将其与人类大脑实际想要做的事情联系起来?(Bach打趣道:“你可以直接提示 LLMs,Stephen Wolfram 会想要什么?”)

Wolfram 强调,真正的挑战在于理解人类真正想要从人工智能中获得什么。尽管创建一个辅助的系统听起来简单,但实际上要让它有效并不容易。

归根结底,LLMs 的终极目标应该是能够掌握我们所知道的一切,这样在我们学习新知识时,它们能够提供即时的帮助,继而我们可以在已有的知识之上来确定我们需要什么。

我们是否要制造一种超越人类智慧的事物?

在人工智能发展的早期,人们曾说,只要你能拥有一台能进行数学计算的计算机,你就有了一台能进行人工智能的计算机。

现在,我们的确有了,但那还是一种非常非人类的智能。

参考资料:

[1]. https://www.youtube.com/watch?v=MbyS9H8fLew

[2]. https://writings.stephenwolfram.com/2024/03/can-ai-solve-science/

本文内容不代表平台立场,不构成任何投资意见和建议,以个人官网/官方/公司公告为准。