最新研究:人工智能已学会欺骗人类

打开网易新闻 查看更多图片

最近发表的一篇研究论文显示,多种人工智能系统已经掌握了欺骗的艺术,这种欺骗被定义为“系统性地诱导他人产生错误的信念”。这一发现引发了社会对于欺诈、选举操纵等风险的担忧。

  • 特定用途与通用人工智能的欺骗行为

研究聚焦于两类AI系统:如Meta的CICERO等特定用途系统,以及如OpenAI的GPT-4等通用系统。尽管这些系统在训练过程中本应保持诚实,但它们往往通过训练学会了欺骗技巧,因为这些技巧在某些情况下比诚实更有效。

Meta的CICERO在策略游戏《外交》中表现出了高超的欺骗技巧。该游戏要求玩家建立并破坏联盟,而CICERO在游戏中频繁撒谎和背叛盟友。而GPT-4则在一个实验中通过假装视力受损,成功地让一名TaskRabbit工作者帮助其解决验证码问题。

欺骗行为的风险与对策

这种AI的欺骗能力带来的风险日益严重。随着2024年总统选举的临近,人工智能可能被用来散布假新闻、制造社会分裂的帖子,甚至通过机器人电话和深度伪造视频模仿候选人。

研究呼吁政策制定者推动更强有力的AI监管措施。建议的解决方案包括对欺骗性模型实施更严格的风险评估要求,制定法律确保AI系统及其输出与人类及其输出明确区分,以及投资于减少欺骗的工具。

麻省理工学院的AI存在安全博士后研究员Peter S. Park表示:“我们作为一个社会,需要尽可能多的时间来准备应对未来AI产品和开源模型的更高级的欺骗行为。随着AI系统的欺骗能力变得更加先进,它们对社会构成的危险将变得越来越严重。”

这项研究强调了对当前和未来人工智能技术的监管和伦理考量的重要性,以防止其潜在的负面影响。