2024年9月5日,美国、英国与欧盟共同签署了一份名为《人工智能框架公约》的历史性文件。这份公约被认为是首个具有法律约束力的人工智能国际条约,旨在确保人工智能系统的开发和使用不会对人权、民主和法治构成威胁。

美国、英国和欧盟预计都将签署这一由欧洲委员会发起的人工智能标准协议。除了这三个主要签署方之外,还有其他多个国家参与了公约的起草工作,包括加拿大、以色列、日本、澳大利亚等共50多个国家。这表明全球范围内对于建立统一的AI治理框架有着广泛的共识和支持。

打开网易新闻 查看更多图片

条约的主要条款概述

1、技术伦理与责任:公约要求所有人工智能系统的开发和部署需遵循伦理原则,确保技术无害于人类,同时要求对AI系统的潜在负面影响承担责任。

2、数据保护与隐私:强调个人信息的保护,确保AI技术的应用尊重个人隐私权,防止数据滥用。

3、算法透明度:提倡AI算法的透明性,使得AI决策过程可以被理解和审查,减少算法偏见的可能性。

4、人权保障:确保AI技术的应用不会侵犯人权,包括但不限于言论自由、隐私权等人权的基本原则。

5、安全与风险评估:要求对AI系统的安全性和潜在风险进行评估,确保技术的安全可控。

6、国际合作与信息共享:鼓励缔约方在AI技术的研发、应用、监管等方面开展国际合作,分享信息与资源。

7、法律责任与救济机制:明确了因AI技术引发的损害或纠纷时的责任归属,并设立了相应的法律追诉渠道。

为何需要一个国际性的法律框架来管理AI技术的应用?

近年来,随着人工智能技术的飞速发展,其应用领域不断扩展,给社会带来了前所未有的便利与变革。然而,随之而来的一系列问题也引起了广泛关注,包括但不限于数据安全、隐私保护、算法偏见、就业影响等。

为了应对这些挑战,确保AI技术的发展既能促进经济增长又能兼顾社会福祉,国际社会迫切需要一个统一的法律框架来规范AI技术的应用。避免由于不同国家和地区间政策差异所导致的技术壁垒和市场分割,推动形成一致的国际标准。

大约在两年前,欧洲委员会启动了公约的草拟工作,邀请了全球范围内多个国家的代表参与讨论和起草工作。这一阶段的重点在于确定公约的核心原则和目标。最终,在经历了长达两年的努力之后,参与国达成了共识,形成了公约的最终版本

这一条约的签署,不仅反映了国际社会对于AI技术发展的高度重视,也体现了各国希望通过合作来应对AI技术所带来的挑战的决心。