一位知名人工智能研究人员警告说,停止全球先进人工智能系统的发展,严厉惩罚违反禁令的人,是拯救人类免于灭绝的唯一途径。

机器智能研究所(MIRI)的联合创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)周三为《时代》杂志撰写了一篇评论文章,解释了他为什么没有签署呼吁“所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少六个月,”OpenAI本月早些时候发布的多模态大型语言模型。

Yudkowsky认为这封由Elon Musk和苹果公司的Steve Wozniak等人签名的信“要求太少,解决不了”人工智能的快速和不受控制的发展所带来的问题。

“建造一个超人类智能人工智能最有可能的结果是,在任何类似于当前情况的情况下,地球上的每个人都会死,”尤德科夫斯基写道。

打开网易新闻 查看更多图片

在遭遇一个“不关心我们,也不关心一般有知觉的生命”需要“精确、准备和新的科学见解”他认为,这是人类目前所缺乏的,在可预见的未来也不太可能获得。

“一个足够智能的人工智能不会长期局限于计算机,”尤德科夫斯基警告说。他解释说,通过电子邮件将DNA串发送到实验室来生产蛋白质已经成为可能,这一事实可能会让人工智能“构建人工生命形式或直接引导至后生物分子制造”去外面的世界。

根据研究人员的说法,必须立即在全球范围内无限期暂停新的主要人工智能训练。“不能有例外,包括政府或军队,”他强调。

Yudkowsky坚持认为,应该签署国际协议,对任何人在训练这种系统时可以使用的计算能力设置上限。

“如果情报显示,协议之外的一个国家正在建设GPU(图形处理单元)集群,那么不要害怕国家之间的冲突,而要担心禁令被违反;愿意通过空袭摧毁一个失控的数据中心,”他写道。

来自人工智能的威胁如此之大,应该做出“在国际外交中,防止人工智能灭绝被认为是优先于防止全面核交流的优先事项,”他补充道。