作者 | 赵宇健

文章来源:《法治时代》微信公众

打开网易新闻 查看更多图片

以ChatGPT为代表的生成式人工智能横空出世,被视为通用人工智能的起点和强人工智能的拐点。生成式人工智能具有强人工智能的良好互动性、高度通用性与智能生成性等优点,正在加速生成式人工智能技术与人类社会形成更加刚性、高频、泛在与深刻的联结。但由于生成式人工智能深度学习、迭代学习、算法“黑箱”等技术的不可释性和人工智能自身的法律主体定位不确定性,传统侵权责任评价体系难以适用于生成式人工智能领域。

鉴于生成式人工智能侵权风险的复杂性,本文在坚持生成式人工智能法律客体地位的前提下,拟探讨生成式人工智能的侵权责任标准,并在责任分担机制设立方面,创新提出三层“准责任财产”风险赔偿机制,以社会化方式所得资金填补事故损害,以期为生成式人工智能侵权责任分担机制的构建贡献绵薄之力。

一、研究背景

“人工智能”最早诞生于1956年达特茅斯会议,提出者约翰·麦卡锡(John McCarthy)在会议中说服与会者接受了“人工智能”一词作为该研究领域名称,并确立了人工智能领域的发展目标。此后,人工智能的发展历经了两次繁荣期和低谷期,并在信息化时代的助推下,迎来了复苏期和爆发期。

随着大数据技术的飞速发展,人工智能网络神经研究路径获得极大发展。著名聊天机器人“爱丽丝”的出现,代表着机器拥有了自己的自然语言样本。2012年以来,神经网络深度学习和自然语言处理技术应用发展迅猛。尤其近几年,以自然语言处理工具ChatGPT为代表的生成式人工智能迅速崛起。2022年11月底,OpenAI公司开发的ChatGPT模型横空出世。2023年3月,OpenAI公司再次推出最新版本GPT-4。相较于ChatGPT,GPT-4不仅能生成更加准确和流畅的文本,进行高质量的翻译,处理多语言文本,还增加了图片、音频、视频生成能力,能通过深度学习理解上下文语言逻辑并进行聊天互动,甚至能完成撰写邮件、翻译、写代码等任务。

目前,市场上已涌现出一批生成式人工智能应用服务,例如Meta的大语言模型LLaMA、微软的New Bing与Copilot、百度的文心一言、阿里巴巴的通义千问、360的360智脑、科大讯飞的星火等。哥伦比亚的一位法官已经把其与ChatGPT的对话引用到判决书之中,用以论证治疗自闭症的相关费用属于保险公司应赔付的医疗费用。

在工业4.0时代发展进程中,人工智能依托大数据、算法、算力三大基础要素,通过深度学习、语音识别、语言处理、机器视觉、知识图谱、人机交互、生物识别等尖端技术,已经在金融、交通运输、医疗、教育等领域取得广泛应用,极大提高公共服务精准化水平,全面提升人民生活品质。

但是,人工智能的社会影响是多元化的。它既能够产生推动经济增长,满足人类对美好生活的需要,服务社会公共利益的正面效应,也可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等负面效应,从而引发诸多社会安全风险、法治风险和科技伦理风险。2023年2月23日,华东政法大学政治学研究院和人工智能与大数据指数研究院在上海正式发布《人工智能通用大模型(ChatGPT)的进展、风险与应对》,该研究报告深入评估了通用大模型的发展和应用场景扩散给人类社会带来的治理风险和挑战。该报告指出,大模型在技术方面,存在鲁棒性不足、可解释性低、算法偏见等风险;在社会方面,可能加剧数字鸿沟、侵犯个人隐私、诱发网络犯罪、冲击教育体系;在经济方面,将加速寡头垄断、推动产业结构重塑、替代传统就业、推动世界分工的重组;在政治方面,将给政治决策、舆论引导、监管机制与国际关系带来新的冲击。

生成式人工智能致害风险前所未有的不确定性和不可逆转性,引起了世界各国法学专家、学者对人工智能致害风险问题的高度关注和理论探讨。

二、生成式人工智能侵权责任认定的困境

(一)生成式人工智能的技术风险是侵权责任难认定的核心要素

生成式人工智能技术风险主要表现为数据不可靠、算法不可释和自主意识不可控。我们应当充分了解生成式人工智能的技术风险,并在遵循该技术风险的基础上探究和创新侵权责任承担机制。

1.数据不可靠。数据不可靠主要指生成式人工智能预先适用瑕疵数据风险、生成虚假内容风险和数据安全风险。

生成式人工智能的模型在训练和学习过程中需要预先适用既有文本和数据,但既有文本和数据本身存在数据安全风险,包括数据固有瑕疵(数据的固有偏差与错误源于社会的结构性歧视)、数据处理瑕疵(数据残缺、有误差、重复)、数据标注瑕疵(被标签的对象体现了标注者对客观世界的感知)。鉴于生成式人工智能是机器学习且学习的数据量巨大,人工介入、标注和监督无法掌控全部数据和信息,任何人都无法完全保证预先适用的每一项数据完全合规。

另外,恶意活动、滥用人工智能技术也会导致数据安全风险,如个人数据过度采集、数据滥用、数据窃取等。我国在2019年发生了“人脸识别第一案”,杭州市富阳区人民法院以人脸信息属于高度敏感个人隐私为由,判决动物园删除郭某办理年卡时提交的面部特征信息。

2.算法不可靠。算法不可靠主要指生成式人工智能训练数据瑕疵导致的算法鲁棒性不足、算法不公平和算法“黑箱”。

深度学习算法是最为典型的人工智能技术中的算法类型,但现有深度学习算法的有效性依赖于高质量的训练数据集,一旦训练数据集出现投毒数据、伪装数据、类别不均衡、外部环境干扰等问题时,算法的有效性即无法得到保证,此即深度学习算法的鲁棒性不足。

2023世界人工智能大会(视觉中国供图)

另外,人工智能算法蕴含着偏见、歧视等风险,包括算法设计理念瑕疵(算法控制者故意偏离或违背现行法律、社会规范约束设计算法)、算法模型设计瑕疵(算法适恰性要求设计者优先考虑获利与算法益处)、算法安全保障瑕疵(算法决策系统泄露当事人隐私与个人信息)等问题,这些问题会传导并生成带有偏见、歧视、侵权等人类无法感知的有害结果。

算法“黑箱”可以泛指由输入到输出,却不了解其内部运行机制的一切系统。本文所探讨的算法“黑箱”主要指即便是部署该算法的专业技术人员也无法对生成过程和结果解释清楚的“技术黑箱”,也可以说是具有不可释性的完全“黑箱”。

3.自主意识不可控。生成式人工智能算法已经具备一定的自主性,可以不受预设程序的指导和约束,自主作出推演和决策的特性。算法的深度学习使算法不完全受算法部署者的控制。深度学习状态下的人工智能算法已经开始超出人力控制的范围,可以自主设计进化规则,这种设计进化规则的效率可能威胁人类安全。

(二)生成式人工智能尚无法定主体地位

研究生成式人工智能法律主体地位是解决人工智能侵权责任问题的前提基础。当前,关于是否赋予生成式人工智能法律主体资格的立法与理论主张,大体上可以分为三类观点,即肯定说、否定说以及在一定条件下赋予人工智能以法律主体资格。具体的观点和论证也不尽相同,可谓“百花齐放,百家争鸣”。我国法律规定的民事主体包括自然人、法人以及非法人组织,并未对人工智能作出规定。鉴于人工智能是具有一定自主性的智能机器,有学者将法律责任分为侧重人之属性的责任和侧重物之属性的责任两种形态,以确定人工智能侵权责任的主体。但是,无论哪种责任形态,都无法避免算法“黑箱”对责任主体认定的阻碍。

当下主流观点为,生成式人工智能尚不具备赋予其法律主体地位的条件,生成式人工智能应当属于为人类赋能的一种服务客体。

(三)传统侵权责任制度无法适用于生成式人工智能领域

1.责任主体不确定。生成式人工智能的技术风险使得有害侵权结果无法归结到服务提供者、技术开发者或服务用户等某一环节的具体责任人。原因在于:(1)生成式人工智能的训练数据来源广、体量大,服务提供者难以完全确保数据的真实性、准确性、客观性;(2)生成式人工智能训练数据和算法模型难以经过细致的人工评估、审核和监督,算法“黑箱”的不可释性使技术开发者无法保证人工智能在迭代学习中做到完全合乎道德和法规条款;(3)服务用户在与生成式人工智能互动时,应当输入怎样的内容避免人工智能输出具有偏见、歧视和违法等有害的信息,没有明确标准和规范。

2.侵权行为和因果关系难分辨。在民法领域,侵权责任的归责原则分为过错归责原则和无过错归责原则两种。一方面,从利益权衡角度来看,适用无过错归责原则对于人工智能服务提供者来说需要付出更多的注意义务和更高的成本,但有利于受害者得到足够的利益补偿;而适用过错归责原则,更有利于减轻服务提供者在技术研发过程中的心理负担,促进人工智能技术发展。另一方面,从法律强制性角度来看,适用无过错归责原则具有法律强制性,由于法律没有特别规定,各利益相关主体侵权责任的判定只能采取过错归责原则。

但事实上,生成式人工智能技术适用过错归责原则也存在巨大障碍,不仅受害者举证困难,而且技术风险与侵权成本之间也存在高度不对称的情况。究其原因,生成式人工智能深度学习模型可以自动运行,不需要依赖人类参与。深度学习模型依托于上千万人造神经元组成的深度神经网络,上千万神经元交互联系、通力合作,共同对最终的输出所依赖的外部信息进行决定,进而作出最终输出。即便是算法设计者也无从知晓其最终会输出何种结果,无法判断输入信息与生成内容的因果关系和逻辑原理。

生成式人工智能的算法“黑箱”特征,使得传统侵权责任构成要件的底层逻辑发生了根本变化,危害结果发生过程实现了从人力决策到算法决策的角色转换。而算法的不可释性,正是生成式人工智能侵权行为和损害结果之间因果关系断链的根源。

三、生成式人工智能责任分担机制新路径探究

针对生成式人工智能技术引发的特殊风险,各国均在尝试通过事前预防的方式进行治理,包括行政许可、检测、评估、备案或审计等措施,目的都是预防并控制生成式人工智能的损害风险。但是,由于算法“黑箱”特质和智能系统输出结果的不可预见性,各项监管措施并不能完全避免损害发生,也不能解决当下事后救济途径失范的弊端。那么,如何完善事后救济途径以弥补这些损害,便成为一个需要解决的法律问题。

笔者认为,可以从两方面探索责任分担机制新路径。一方面,明晰生成式人工智能的责任标准,以“一般理性人标准”审查各方主体的过错程度,担负相应责任。另一方面,可以参照《中华人民共和国核安全法》和国外核损害赔偿制度,以保险、基金等方式分散风险。当下,人工智能侵权涉及各利害攸关者,需要通过多元视角、聚焦多方主体,构建责任保险、责任基金、国家补偿等多元责任承担路径。

打开网易新闻 查看更多图片

人工智能产业园展厅(视觉中国供图)

(一)明晰生成式人工智能的侵权责任标准

我国目前倡导“包容审慎的监管理念”,强调风险问责、社会治理与技术创新之间的平衡。应当减少过度的事前干涉,通过规范服务提供者、设计者和用户行为,引导服务提供者、设计者和用户向生成式人工智能注入正确的价值观和伦理规范,以提供和设计安全可信生成式人工智能为导向,支持人工智能算法、框架等技术的自主创新、推广和应用合作。

应当将“一般理性人标准”作为生成式人工智能侵权责任标准的规范理念,引导服务提供者、设计者和用户作为一般理性人尽可能在收集和使用既有文本和数据排除不法、不健康、涉黄、涉暴的明显危害信息,避免造成绝对的侵害结果。

而对于算法“黑箱”生成的偏见、虚假数据,不需要服务提供者、设计者和用户对具体的时间、地点和情况有明确预见,但需要对可能产生错误的数据整体具有预见可能性,并采取一般理性人会采取的避免措施,比如事实抽查、提示用户等来要求排除错误或风险结果的输出。

(二)设立三层“准责任财产”风险赔偿机制

当通过“一般理性人标准”也无法确定生成式人工智能的责任承担主体时,可以考虑启动三层“准责任财产”风险赔偿机制,以社会化方式所得资金填补损害。建立服务提供者为人工智能投保强制险与任意险赔偿机制、设立生成式人工智能社会救济组织互助基金赔偿机制、设立国家财政补贴或拨款赔偿机制,形成三层次进阶的风险分担和损害赔偿机制。

第一层是建立服务提供者为人工智能投保强制险与任意险赔偿机制。强制险是服务提供者依法必须为生成式人工智能投保,为其对受害人造成的人身伤亡或财产损失在一定额度内予以赔偿的强制性责任保险。任意险是服务提供者自愿为生成人工智能投保,针对特定损害时的责任保险,主要是商业险。

第二层是设立生成式人工智能社会救济组织互助基金赔偿机制。由各人工智能产业链企业、服务用户、受害团体联合建立社会救济组织互助基金。鉴于生成式人工智能致害风险的严重性及受害者的普遍性,须平衡各方利益,最大限度实现社会公平正义。当生成式人工智能强制保险不足以赔偿所受损害时,有必要启动生成式人工智能社会救济组织互助基金。该组织的资金来源主要有:一是服务提供者按照收益的一定比例缴纳救助基金。二是生成式人工智能用户或受害团体强制险的保费收入。除此之外,需要建构系统完善的社会救助基金管理机制,明确职责范围、申请流程和审批程序等。

第三层是设立国家财政补贴或拨款赔偿机制。在前两层赔偿超出服务提供者、设计者责任赔偿和社会救济组织互助基金赔偿上限的情况下,国务院采取必要措施,从国家巨灾准备基金中提取限额资金,作为对生成式人工智能事故赔偿提供的财政补偿。为推动产业发展,平衡多方利益,财政补贴或拨款的来源可考虑从与人工智能相关的行业税收、保险税收中拿出一定比例的资金,以补贴方式纳入救助基金,或者在政府预算中编制相应科目每年拨付一定款项作为救助基金。

需要说明的是,多层次风险分散制度的核心是各层次均须设立赔偿限额,并保证在事故赔偿过程中具有资金支持。但是,只要事故赔偿进入第二层次和第三层次,就需要政府监管机构介入评估生成式人工智能损害风险和赔偿额度,并报上一级级政府机构批准。

在当前的法律背景下,生成式人工智能致人损害的侵权责任承担问题尚存在许多不确定性。在法律适用上,侵权责任分担机制仍然具有较大的探讨空间。我们应当加强对生成式人工智能侵权责任分担机制路径的探索和创新,为生成式人工智能侵权责任立法作出更多有益尝试。

本文刊载于《法治时代》杂志2024年第2期

2024年2月15日出版

欢迎点“”和“在看”,与朋友共享精彩内容