打开网易新闻 查看更多图片

许多业内人士认为,超人计算机智能的发展是必然的。

奇点的概念——机器变得比人类更聪明的那一刻——已经被讨论和争论了几十年。但是,随着机器学习算法的发展催生了轻松通过图灵测试的软件,这个问题变得更加紧迫。那么,我们离通用人工智能 (AGI) 还有多远,有哪些风险?

现代人工智能 (AI) 基于大型语言模型 (LLM)。基于文本的 AI 模型并不真正考虑答案或进行研究——它们使用概率和统计数据。使用训练数据,他们计算哪个单词(有时是哪个字母)最有可能跟在前一个单词之后。这会产生非常合理的结果,以及人类永远不会给出的错误和危险,有时甚至是滑稽的答案。毕竟,正如我们已经说过的,机器不会思考。

这些模型专门用于需要特定训练数据的特定任务,但业内有一种观点认为 AGI 指日可待。这些算法将执行不是一项任务,而是多项任务,并且能够与人类同等地完成这些任务。尽管人工意识还有很长的路要走,但 AGI 的发展被视为它的垫脚石。在某些行业,据称这只有几年的时间。

“到 2029-2030 年,一台计算机的计算能力很可能与人脑大致相等。如果再增加 10-15 年,单台计算机的计算能力已经等于整个人类社会的计算能力,“SingularityNET 创始人 Ben Goertzel 说,该网络旨在创建”去中心化、民主、包容和有用的人工智能“,在 2024 年有益的 AGI 峰会上发表讲话。

打开网易新闻 查看更多图片

许多业内人士预计,在机器中达到人类智能水平需要几年时间。

这个信念紧接着有两个问题。第一个问题是:这种评估的正确性如何?现代人工智能的批评者认为,声称通用人工智能迫在眉睫的说法只是一种炒作当前 AI 模型的炒作方式,并在不可避免的崩溃之前进一步膨胀人工智能公司的泡沫。最近,诺贝尔奖得主、“AI 创始人”Geoffrey Hinton 认为,距离通用人工智能只有不到 20 年的时间了。相比之下,在 2018 年与 Hinton 和 Yann LeCun 分享图灵奖的 Yoshua Bengio 认为,我们不知道需要多长时间才能达到这一目标。

第二个问题是关于危险的。Hinton 去年离开了谷歌,因为担心人工智能可能带来危险。此外,调查发现,三分之一的人工智能研究人员认为人工智能会导致灾难性的后果。尽管如此,我们不应该假设一个不可避免的终结者式的未来,杀手机器会摧毁人。危险可能要平淡得多。

AI 模型已经面临指控,称它们接受了被盗艺术品的训练。今年早些时候,OpenAI 恳求英国议会允许使用受版权保护的作品(免费),因为如果无法访问它们,就不可能教授 LLM(和赚钱)。此外,还存在环境风险。现代人工智能与惊人的大量用水量和“令人震惊的”碳足迹有关。在气候快速变化的世界中,更强大的 AI 将需要更多的资源。

打开网易新闻 查看更多图片

另一个威胁是使用但更重要的是滥用 AI 的能力来制造虚假材料以传播虚假信息。为宣传(或其他恶意)目的创建虚假图像从未如此简单。虽然现在有方法可以识别生成的假图像,但它会变得越来越难。

有关人工智能的规则和法规尚未普及,因此在今天关注非常重要。然而,有研究声称我们不应该太担心。因为在线出现的糟糕 AI 结果越多,它们就越会被用来训练新模型,最终会产生更糟糕的材料,依此类推。直到 AI 不再有用。

也许我们距离创造真正的人工智能还有很长的路要走。但是,我们没有多久可以制造出人为的愚蠢了。