中国日报网3月29日电 据路透社当地时间29日报道,埃隆·马斯克(Elon Musk)和一群人工智能专家和行业高管在公开信中呼吁暂停开发比OpenAI新推出的GPT-4更强大的系统,暂停6个月,并指出对社会和人类存在潜在风险。

打开网易新闻 查看更多图片

这封公开信由非营利组织未来生命研究所(FLI)公布,有包括马斯克在内的1000多人签署,呼吁暂停高级人工智能的开发,直到独立专家开发、实施和审计这类设计的共享安全协议。信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”

这封信详细描述了具有人类竞争力的人工智能系统以经济和政治干扰的形式对社会和文明的潜在风险,并呼吁开发者与决策者在治理和监管机构方面进行合作。

联合签署人包括Stability AI首席执行官埃马德·莫斯塔克(Emad Mostaque),谷歌母公司 Alphabet旗下DeepMind的研究人员,以及人工智能重量级人物图灵奖得主约书亚·本希奥(Yoshua Bengio)和美国加州大学伯克利分校(UC Berkeley)计算机科学教授(Stuart Russell)。

根据欧盟的透明登记制度,FLI主要由马斯克基金会、总部位于伦敦的有效利他主义组织Founders Pledge和硅谷社区基金会资助。

27日,欧洲刑警组织(Europol)也加入了对ChatGPT等先进人工智能的道德和法律担忧的行列,警告该系统可能被滥用于网络钓鱼、虚假信息和网络犯罪。

与此同时,英国政府公布了围绕人工智能建立“适应性强”监管框架的提案。该国政府最新发布的一份政策文件中概述了其做法,将把管理人工智能(AI)的责任分配给人权、健康与安全以及竞争方面的监管机构,而不是创建一个专门针对这项技术的新机构。

FLI的发言人告诉路透社,OpenAI首席执行官山姆·阿尔特曼(Sam Altman)还没有签署这封信。OpenAI没有立即回复记者的置评请求。

在这封信上签了名的纽约大学教授加里·马库斯(Gary Marcus)说:“这封信并不完美,但其精神是正确的:我们需要慢下来,直到我们更好地理解其后果。”“它们会造成严重伤害……大玩家们对他们正在做的事情越来越遮遮掩掩,这使得社会很难抵御任何可能发生的伤害。”

(编译:胡晓珊 编辑:韩鹤)

来源:中国日报网