文 / 刘晓春 王洁 石嘉浩

2023年,随着生成式人工智能、通用基础模型的快速发展,各国纷纷加快了对人工智能规制路径的探索。对比美、欧、中2023年在人工智能治理方面的进展,可以发现,谋求发展与安全、促进与规制的平衡是一致性治理目标,国家与公共安全、数据安全和个人信息保护、知识产权规则发展等是共同的关注点,但在具体治理路径上则各具特点。

一、美国的人工智能治理

美国是人工智能的优势产业国,且对新技术业态一贯秉持鼓励态度,其人工智能治理呈现如下特点。

第一,政府主要发挥引导作用,通过市场行业自律等方式实现多方协同共治。2023年7月21日、9月12日,拜登政府先后召集了15家人工智能技术的头部公司——Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI、Adobe、IBM等共同做出自愿性承诺,旨在使人工智能系统和产品更安全、更可信。2023年,美国参众两院共召开了超过30场人工智能相关听证会,联邦贸易委员会、商务部、管理和预算办公室、国防部等各部门及其下辖机构围绕人工智能也发布了各种研判和报告,《人工智能风险管理框架》(AI RMF 1.0)《生成式人工智能和数据隐私:初探》报告、《两党人工智能立法框架》《关于推进联邦机构使用人工智能的治理、创新和风险管理》政策草案等相继问世,但目前仍以原则性要求内容为主,尚无具体的义务性内容。

第二,以《关于安全、可靠和值得信赖的人工智能》为里程碑,全方位构筑了美国人工智能治理的未来蓝图。该行政令意在根据风险等级和影响领域,综合利用“标准+测试”“最佳实践”等治理手段,确立人工智能安全的新标准,保护隐私,促进公平和公民权利保护(包括隐私和消费者、工人、学生等的权益保障,防止歧视等),促进创新和竞争,推动美国在全球的领导地位,确保政府负责任且有效地使用人工智能等。同时,该行政令强调通过“以技制技”的手段来提升人工智能的安全性。要求高级AI系统的开发者必须与美国政府共享红队安全测试(即测试安全漏洞的系统对抗攻击)的结果等关键信息,利用强披露制度倒逼企业提高防御能力。

另外,行政令还要求美国商务部制定内容认证和水印指南,明确标注AI生成内容。提出在已有的“AI网络挑战”(AI Cyber Challenge)治理活动基础上建立网络安全计划,通过开发AI工具查找、修复关键软件中漏洞,以提升网络系统鲁棒性(Robust的音译,是指在异常和危险情况下系统生存的能力)及抗风险能力。关注人工智能对军事、情报和国家安全的影响。要求国家安全委员会和白宫办公厅联合制定国家安全备忘录,指导人工智能和安全方面的进一步行动。

第三,司法领域的两大焦点分别为模型训练、输出是否侵权和人工智能生成物是否可受知识产权保护。自类型多样的生成式人工智能产品和服务涌现以来,美国已经产生多起围绕上述两大焦点的案件。其中引发最大关注的即去年12月28日《纽约时报》向OpenAI和微软发起的侵权指控,同时要求销毁所有包含纽约时报作品的GPT或其他大语言模型和训练集和数十亿美元索赔。相关案件可以看出,版权方在证明侵权事实方面的证据日益详实充分,但模型训练和输出具体侵犯何种权利以及是否可能被认定为合理使用,仍存在较大争论空间。早在2023年4月,纽约时报就曾与微软和OpenAI接触,表达了对其知识产权使用的担忧,并探索友好的解决方案,但并未达成任何解决方案。而在同年7月13日美联社已经与OpenAI达成合作,将部分新闻报道授权给OpenAI。可见,侵权纷争的背后归根结底还是利益的分配问题。

在人工智能生成物是否受版权保护方面,美国版权局和法院目前的立场较为一致。2023年3月16日,美国版权局发布了“包含AI生成元素的作品”的《版权注册指南》,对含AI生成元素作品相关的版权登记问题提供指引。该《指南》首先明确:受版权保护作品的作者必须是人类,缺乏人类作者身份的作品将不会被准予注册。同时指出,美国版权局对含AI生成元素的生成物的可版权性的判断标准是“作品中的传统作者要素,如文学、艺术、音乐表达或内容的选择、编排等要素,是否为人类所完成”。如果这些要素是由机器生成,则该作品会被认为缺乏人类创作,进而无法得到版权局的注册。但与此同时,人类作者也可以对AI生成的内容进行创造性的选择、编排或修改,使得选择或编排后的作品整体上构成作者原创作品,此时该作品中由人类创作的部分仍然可以得到版权保护。

打开网易新闻 查看更多图片

二、欧盟的人工智能治理

作为数字战略的一部分,欧盟一直在积极推进人工智能的发展和监管,欧盟人工智能治理呈现如下特点。

第一,全球第一部综合性人工智能法案即将生效,影响力及示范效应待观察。自2021年4月起,欧盟便致力于推动《人工智能法案》的立法进程。尽管基于风险的分类监管方法是法案始终坚持的治理思路,但关于AI的定义以及与传统软件的区分、禁止AI系统的范围、高风险AI系统的范围和义务、面部识别技术的使用禁止或豁免等仍是多次谈判讨论的焦点。特别是2023年生成式人工智能的涌现,要求欧盟立法者必须考虑如何对通用AI模型、生成式人工智能进行精准定义和监管,直到2023年12月8日的临时协议各方才就通用AI模型的分层监管和对应义务达成一致。《人工智能法案》旨在对AI系统及模型在欧盟的部署、使用、提供服务设定统一的法律框架,旨在对风险进行事前防范。然而,当前人工智能技术正快速迭代发展,欧盟的监管政策是否可以实现监管和创新的平衡,是否可以赶上技术的发展速度以及应对由此不断衍生的新问题,仍存在较大不确定性。欧盟在人工智能领域所引领的立法潮流是否会和数据隐私个人信息领域的《通用数据保护条例》一样在全球范围内产生“布鲁塞尔影响力”,值得持续关注。

第二,当前聚焦个人信息隐私保护等重点领域,利用已有监管工具展开治理。无论是欧盟层面还是成员国层面,监管重点均是从《通用数据保护条例》出发,密切关注人工智能在数据隐私和个人信息保护、算法方面的合规性,开展了一系列针对性的调查行动。欧洲数据保护委员会设立特别小组,负责研究人工智能聊天机器人是否符合欧盟《通用数据保护条例》(GDPR)。该特别小组最初关注ChatGPT,后也将Bard纳入工作范围。该特别小组旨在协调不同数据保护机构(DPA)可能对ChatGPT和Bard采取的行动,以协调执法。

2023年3月,意大利个人数据保护局宣布禁用ChatGPT,并限制其开发者OpenAI处理意大利用户信息,同年4月,德国、法国、爱尔兰和西班牙也考虑禁用ChatGPT,但并未实际实施。后虽在OpenAI更新相关隐私政策后,意大利恢复了对ChatGPT的访问,但ChatGPT仍然受到欧洲各国的持续监管。此外,各国还针对模型数据集、算法、透明度等发布了多项行动指引手册、报告,要求防范错误信息、假新闻、泄露隐私和侵犯版权的风险,对人工智能的透明度作出解释和要求等。

第三,法国、德国、丹麦等纷纷出台政策鼓励扶持人工智能产业发展,谋求竞争优势。出于发展本国人工智能技术和产业的考虑,欧盟多国纷纷加大人工智能领域投资,发布人工智能战略规划。而且,欧盟层面也面临部分成员国人工智能产业发展的强烈诉求。2023年11月,在欧盟人工智能法案谈判的最后阶段,法国、德国和意大利就如何监管通用人工智能基础模型达成共识,支持通用人工智能基础模型“通过行为准则进行强制性自我监管”,以期对本国正处于发展之中的人工智能公司(如法国Mistral,德国Aleph Alpha)予以保护。

三、中国的人工智能治理

2023年是中国的“大模型元年”,人工智能行业整体呈现出“百模大战”的竞争态势,是数字经济的重点发展产业之一。中国在人工智能治理方面呈现如下特点。

第一,治理目标上,“发展与安全”并重,“促进与规制”并行。一方面重点关注算力、芯片、数据的供给和大模型发展,推动人工智能基础设施建设和公共训练数据资源平台建设,促进算力资源协同共享,提升算力资源利用效能,对生成式人工智能实行包容审慎监管,注重我国人工智能的发展与创新。另一方面重点关注人工智能的训练安全和内容安全,强调人工智能在训练过程中的个人信息与数据处理的合规性以及人工智能生成内容的合法性、准确性和可靠性,强调人工智能符合科技伦理要求,并落实人工智能相关主体责任,促进人工智能良性健康发展。2023年8月15日,《生成式人工智能服务管理暂行办法》开始施行。该办法坚持发展和安全并重、促进创新和依法治理相结合的原则,在采取有效措施鼓励生成式人工智能创新发展的同时,也提出了对生成式人工智能服务实行包容审慎和分类分级监管的思路和要求,从训练治理、内容安全、安全评估、算法备案和责任承担等方面对生成式人工智能进行规范。

第二,治理形式上,以部门规章、地方性文件和推荐性标准为主,实现精准化治理。2023年1月10日,《互联网信息服务深度合成管理规定》施行,从训练治理、安全评估、内容安全和责任承担对利用深度学习、虚拟现实等生成合成类算法提供的互联网信息服务进行规制,并重申了算法相关的管理制度、技术保障以及信息内容安全等要求;2023年3月,中国信通院发布《生成式人工智能技术及产品评估方法》,系国内首个生成式人工智能标准,内容涉及技术能力标准和产品能力标准两个部分;北京、上海、深圳等地发布《北京市促进通用人工智能创新发展的若干措施》等推动人工智能发展相关政策性文件,广东、辽宁、浙江等地发布《加强科技伦理治理的实施方案》等加强科技伦理治理文件。目前,人工智能正处于快速发展时期,制定一部专门性人工智能法对所有类型的人工智能进行系统性、全面性规制的时机尚不成熟。通过针对性的部门规章、文件、标准等形式应对当前阶段面临的风险是更为灵活和有效的治理形式,也可以更好地调动行业协会、企业主体等多方的参与,共同探索最佳治理方案和实践。

第三,治理重点上,关注个人信息、数据与算法安全、人格权益和知识产权保护、生成内容标注等多重维度。因生成式人工智能具有巨量参数、海量数据、超大规模等核心特征,且难以精准把控生成内容的质量,因此数据质量、数据安全、相关主体的权益保护以及生成内容的标注即成为治理的重点。

第四,司法层面注重推动人工智能技术的创新发展和应用。2023年12月,北京互联网法院审理的人工智能生成图片第一案判决生效。该案中,原告通过设计图片中人物的呈现方式、选择提示词、安排提示词顺序、设置参数、选定图片等行为,对人工智能生成图片进行了智力投入。从涉案图片本身来看,体现出了与在先作品存在可以识别的差异性。从涉案图片生成过程来看,原告通过设置参数、不断增加调整修正提示词,最终获得图片,体现出人类的审美选择和个性判断,涉案图片具有独创性。法院认为该案判决体现出“一个传承”和“两点考量”。“一个传承”即本案裁判是对此前北京互联网法院“菲林律所诉百度公司著作权案”的继承和发扬。本案继续坚持著作权法只保护“自然人的创作”的观点,而人工智能模型不具备自由意志,不是法律上的主体,不能成为我国著作权法上的“作者”。与前案不同的是,除了涉案人工智能模型具有更高“智能”外,本案中原告的智力投入也较多,因此,具备进一步探索适用著作权法予以保护的基础。同时,该案中,法院还进一步考量:(1)当传统理论遇到全新应用场景时,是否要进行调适和发展的问题。认为只有秉持面向未来的司法理念才能更好地鼓励新技术应用、推进新业态发展;(2)独创性的认定规则方面,司法希望通过认可人工智能生成图片的“作品”属性和使用者的“创作者”身份,来鼓励使用者利用AI工具进行创作的热情,从而实现著作权法“激励作品创作”的内在目标。

四、总结

美国人工智能的治理中,政府主要发挥引导作用,更多是通过市场行业自律等方式实现多方协同共治,政策法律内容均以原则性要求为主。2023年的重要事件是拜登政府签署了《关于安全、可靠和值得信赖的人工智能》的行政令,该行政令全方位构筑了美国人工智能治理的未来蓝图,授权商务部下属的国家标准与技术研究所、能源部、国土安全部等机构制定指导方针、行业标准和最佳实践。模型训练和输出在美国已经遭遇了多起侵权指控,是否可以以合理使用为由获得豁免,尚无定论。版权局和法院在多起案例中坚持人工智能生成内容不受版权法保护的立场。

欧盟当前的监管重点是从GDPR出发,聚焦人工智能在数据隐私和个人信息保护、算法方面的合规性展开一系列调查行动,但尚无具体处罚。同时,其《人工智能法案》已达成协议,并于2024年2月2日公布了最新文本,将在2026年全面生效。《人工智能法案》采取风险分级的思路,旨在对AI系统及模型在欧盟的部署、使用、提供服务设定统一的法律框架。然而,这种统一性的立法模式是否可以赶上技术的发展速度以及应对由此不断衍生的新问题,需要持续关注。

中国在强调科技伦理指导的同时,对人工智能的治理呈现精准灵活的特点,聚焦生成式人工智能和深度合成的风险防控。2023年5月31日发布的《国务院2023年度立法工作计划》中提及预备提请全国人大常委会审议人工智能法草案,但未能进入2023年9月7日发布的十四届全国人大常委会未来5年的立法规划,说明我国的人工智能立法尚出于审慎评估推进阶段。在人工智能生成物的版权保护方面,已生效的司法案例从推动人工智能技术的创新发展和应用出发,认可其个案中可受著作权法保护。

2023年3月以来,一系列人工智能大模型的发布加剧了全球对人工智能的风险认知,全球人工智能治理呈现出风险全球化、治理分散化、国际组织协调不足等特点。总体而言,具有实质意义的全球人工智能治理框架尚未搭建。未来,人工智能的治理将呈现如下趋势。

“软法”与“硬法”的协同及向高风险领域“硬法”的逐步过渡。由于人工智能技术和应用的复杂性、高频创新性特征,使得自愿适用的框架、指引、标准、原则成为当前主流的治理形式,但随着对风险研判和治理重点的明晰,统一立法模式或可缓行,未来在共识性的高风险领域加快出台强制性规范可能将逐步成为趋势。

分级分类精准监管逐步成为共识。当前,无论是不具有强制力的治理原则或框架,还是具有强制约束力的法律规范,分级分类思路的引入有助于在精准性防控风险的同时为产业发展留出空间,在高风险领域,考虑将风险识别与治理嵌入人工智能的全生命周期。

各国在加强国际合作的同时,也在积极抢占制定人工智能治理规则的话语权。当前,人工智能的国际竞争已经从技术领域延伸至规则制定方面。2023年,中国发布了《全球人工智能治理倡议》。七国集团(G7)宣布同意遵守《国际人工智能指导原则》和《先进人工智能系统开发组织国际行为准则》。10月,联合国高级别人工智能咨询机构成立,并于12月发布《以人为本的人工智能治理》的临时报告,向公众征求意见。11月1日,全球首届AI安全峰会上,包括中国、美国、欧盟在内的28个国家签署了《布莱切利人工智能安全宣言》。这其中既体现了国际社会对人工智能安全发展的共同关切,背后也暗藏着大国在治理话语权方面的竞争。

(作者依次为中国社会科学院大学互联网法治研究中心执行主任、互联网公司法务、中国社会科学院大学互联网法治研究中心研究助理)