打开网易新闻 查看更多图片

大外交青年智库

Glory Diplomacy

让中国外交青年智慧被全球看见

为中国青年智库代言

01

今日语录

(2024年5月20日)

一切的力量来自我们内心中的梦想,不要怕那些梦想看似不可实现。怀疑或者嘲笑就像风,当你自己站稳脚跟,就没有什么风会将你吹离方向,让你偏离轨道。

——〔美〕戴尔·卡耐基著《羊皮卷》

02

人工智能全球治理机制复合体构建探析

作者/桂畅旎

中国信息安全测评中心高级工程师

《战略决策研究》2024年第3期

一、引论

人工智能作为当前全球最具突破性的技术之一,被世界各国决策者视为重要的战略资源,进而通过积极的政策扶持,推进人工智能赋能发展,以增强国家竞争力。然而,人工智能安全风险引发广泛担忧,从散布虚假信息到助推认知战,从加剧社会失业到干扰社会秩序,从赋能军事化运用到导致自主武器失控问题等,呈现出各类风险相互交织的复杂局面。区别于一般新兴技术,人工智能具有涌现性、应用广泛性、军民两用性、影响外溢性等特点,这些特点使得人工智能成为国际治理的重要议题。

目前国际上普遍认为人工智能全球治理始于2016年。自此以后,众多国际组织开始认真对待人工智能相关政策议题,包括联合国、世界经济论坛和亚太经合组织等,均将人工智能治理列入政治议程,并从最早的部长级逐步提升到当前的国家领导人级别讨论的议题。受人工智能技术本身安全特性、各国人工智能治理战略考量以及传统技术治理惯性等影响,人工智能全球治理机制复杂性(Regime Complexity)的特点凸显,不同倡议之间相互作用、相互影响进而展现出机制复合体(Regime Complex)的特征。

当前人工智能全球治理步入十字路口。建构有效的人工智能全球治理体系不仅需要捋清人工智能的基本安全风险及特征,还需要回应人工智能治理面临的挑战。本文从风险分析出发,回应当前治理困境,并引入机制复合体理论构建人工智能全球治理体系,以期为该领域提供一个新的分析视角。

二、概念界定与研究现状

(一)概念界定

人工智能全球治理与人工智能全球治理机制复合体是本文主要概念。人工智能全球治理是全球治理在人工智能议题上的应用和延伸,涉及各方为应对人工智能安全风险而共同制定的一系列行为预期的规范、规则、标准、程序和执行机制。人工智能全球治理的基本目标在于确保人工智能生态系统的透明度、问责制、可解释性、包容性等,最大限度减少人工智能的风险和潜在不利影响。为达成这一目标,各国政府、技术社群、私营企业、国际组织等主体基于治理惯性、占有资源等要素,构建了一个集倡议、原则、法律、条约等多方面因素于一体的人工智能全球治理复杂系统,进而形成机制复合体。人工智能全球治理机制复合体是各种机制之间的松散耦合组成的机制复合体,根据不同的议题构建包括标准、规范、规则、条约、法律等不同层次的治理机制。

(二)研究现状

学术界高度关注人工智能全球治理进程,已有研究主要包括以下方面:

一是探讨人工智能全球治理机制。治理机制是为应对风险而采取的制度安排。在人工智能全球治理机制的选择上,耶鲁大学政治学教授艾伦·达福(Allan Dafoe)提出了共同监管、强制自我监管和元监管共同存在的混合治理模式。哈佛大学伯克曼·克莱因互联网与社会中心的执行主任乌尔斯·加塞(Urs Gasser)等提出了适应性治理,认为人工智能治理需要从“命令和控制”措施转向更灵活的方法,要求对法规和政策进行迭代调整和改进。瑞典乌默奥大学教授弗吉尼亚·迪格南(Virginia Dignum)借鉴了“负责任研究与创新”(Responsible Research and Innovation,RRI)的方法,要求基于人类基本原则和价值观开发智能系统。基于人工智能技术的复杂性,有学者提出分层治理的模式。乌尔斯·加塞等从互联网治理结构的发展和演变经验中提出了人工智能治理的层次模型,即技术层、伦理层以及社会与法律层。技术层主要是对算法和数据的治理,具体手段包括数据治理、算法问责以及标准;伦理层主要基于道德的治理,手段包括标准和原则;社会和法律层主要是利用规范、监管和立法等手段进行治理。还有一些学者从互联网治理、太空、航空安全、军控等领域的经验中汲取教训,为人工智能治理提供启示。

二是关注人工智能全球治理困境及应对举措。随着人工智能治理的发展,不少学者关注到人工智能治理面临的挑战。鲁传颖等认为大国之间的竞争导致三重困境,分别是:人工智能技术本身的安全复杂性导致国家间信任不足,阻碍了全球范围内形成成熟有效的人工智能治理模式;霸权国的针对性竞争战略阻碍了人工智能全球治理的操作空间;人工智能全球性治理机制的缺失削弱了安全困境缓解的可能性。鲁传颖等进而提出多方参与性、时间敏感性和反馈迭代性为核心特征的敏捷治理模式以破解人工智能治理难题。薛澜认为人工智能治理面临五项挑战,分别是:技术发展与治理体系步调不一致、企业与政府信息不对称、滥用与风险规制成本不对称、全球治理重叠和矛盾、地缘政治风险,因此提出加强安全和技术,引进敏捷治理,鼓励企业自我规制,加强国际治理,解决地缘政治问题等五方面举措。

三是引入机制复合体理论分析人工智能全球治理态势。“机制复合体”作为当前全球治理的重要机制,已运用于应对气候变化、医疗健康、知识产权和网络空间等全球议题。该理念最早由卡尔·罗斯特兰(Kal Raustiala)和戴维·维克多(David Victor)在2004年提出,意即治理某一特定问题领域的一系列部分重叠且非等级制的制度组合。凯伦·奥尔特(Karen J. Alter)和索菲·梅尼尔(Sophie Meunier)则认为是“不按等级排列的,存在嵌套、部分重叠和平行的国际制度”。罗伯特·基欧汉(Robert Keohane)将机制复合体描述为“一体化”和“碎片化”的中间状态,认为其成因主要有利益分配、不确定性和制度联系。随着人工智能国际制度的发展,有学者将机制复合体运用于人工智能全球治理方面的研究。牛津大学皮特·西洪(Peter Cihon)认为人工智能全球治理可以被视为一种机制复合体,并从政治权力、效率支持和参与、中央集权制度的缓慢与脆弱、广度与深度的困境、选择法院、政策协调六个因素进行对照考虑。斯德哥尔摩大学霍纳斯·塔尔贝格(Jonas Tallberg)认为目前人工智能全球治理的结构符合对机制复合体的描述,通过这一理论视角来看待人工智能治理,可以揭示人工智能治理的宏观属性,并可以开辟新的研究途径。剑桥大学国王学院特约研究员马蒂亚斯·马斯(Matthijs Maas)将人工智能全球治理视为机制复合体理论的“天然候选者”,认为利用该理论可超越技术本身,将制度在“碎片化”机制中以富有成效和非冲突的方式与其他机构或制度联系起来。

上述文献对人工智能国际治理进行了丰富的研究,为理解当前治理的复杂现实奠定了坚实的基础。既有研究也肯定了机制复合体理论与人工智能全球治理的契合度,但对于如何利用机制复合体建构人工智能全球治理体系的路径却少有着墨,这也是本文尝试回答的核心问题。

三、人工智能安全风险

在风险是塑造安全的起点,人工智能治理离不开对风险的识别。人工智能的包容度与统摄力使其具备主导技术发展和推动社会形态转变的基本潜质,同时也因其通用性、赋能性和自适用性等特点,使其与其他技术风险存在显著区别(见表1)。一是技术不可控性强。人工智能的自适应性以及自我迭代性强,能够在短时间内积聚变化,再加上人工智能的“黑箱”性质,其不稳定性完全超出人类的控制。二是治理资源非国家垄断。科技企业是人工智能技术资源的主要保有者,同时也是安全解决方案的主要提供者,国家不再垄断人工智能治理资源,不得不依赖企业的专业以及信息。三是安全威胁影响泛化。人工智能引发的风险已不限于特定领域、特定范围,而是威胁全人类生存。不再是单个国家思考如何应对另外一个国家的安全威胁问题,而是国家群体思考如何合力应对共同的安全威胁问题。本文主要从内生安全、应用安全、国家安全和地缘政治安全四个层面来分析人工智能安全风险。

(一)人工智能内生安全(AI Safety)

人工智能治理具有典型的技术治理特征,即关注系统的自身安全。大多数技术治理议题是通过制定标准、规范的方式来应对技术缺陷问题,通常情况下并不需要政治介入,也不会成为国际治理议题。但由于人工智能自身安全特性以及潜在的外溢性风险,使得其内生安全问题不仅受到各国政府高度关注,而且成为人工智能治理领域国际对话与交流的核心议题。

打开网易新闻 查看更多图片

人工智能内生安全源于其框架、组件、数据、算法、模型等存在的脆弱性。框架、组件缺乏透明性;数据的丢失和变形、噪声数据的输入;算法的偏见和歧视;模型易被窃取和被植入后门等都属于人工智能的内生安全问题。人工智能内生安全风险主要源于:一,人工智能技术自身的脆弱性。这可追溯到人工智能在设计之初普遍未考虑相关的安全威胁,导致人工智能算法的判断结果可能会产生与人类目标不完全一致的结果。例如,自动驾驶汽车带来的撞车事故,主要原因是系统误解了之前在测试过程中未经历过的独特环境条件。二,人工智能的自主性和独立逻辑将会产生一定程度的不可预测性。在最新一轮由大数据分析推动的人工智能发展浪潮中,人工智能依赖于机器学习算法可以从大量数据中学习,并在没有人类指导的情况下做出决策,这与早期依赖预编程规则来执行重复任务的算法不同,但也容易造成系统尚未训练处理的意外情况,即系统在相同输入的前提下也可能会表现出截然不同的行为。人机交互中的不确定性会导致人工智能系统出现对用户构成安全隐患的意外行为。

人工智能固有的不透明性和不可预测性给治理带来了技术挑战。一方面,复杂算法的不透明性限制了人工智能系统的可解释性,使得治理主体难以在具体政策中制定具体的治理目标。另一方面,人工智能决策的不可预测性使得人类难以对其进行控制,这也就意味着治理主体难以对软件缺陷进行问责。

(二)人工智能应用安全(AI Security)

人工智能技术自身的不可控性以及不透明性难以解决,在应用过程中呈现出泛化和滥用的趋势,随之产生人工智能的应用安全问题。人工智能作为基础平台性技术,犹如“电力”一样,赋能于社会各个方面,但其内生安全问题也随之被放大。具有恶意使用目的的客体针对人工智能基础环节,开展违背设计者初衷的行为与活动,引发数据安全问题以及网络攻击和算法操纵等安全威胁。基于人工智能的网络攻击最为突出的案例就是对抗样本攻击,其实质是利用算法的缺陷进行攻击。

不同于常规军民两用技术的高度复杂性和资本密集性,人工智能作为一项通用型技术,其低成本以及易传播的特点使其成为全新的力量投射手段,这也导致其安全风险泛在化更为凸显。从应用主体方面来看,人工智能技术对于应用者的门槛在不断降低,主体更为多元,应用领域更广泛,潜在的安全风险也就更为突出。从应用领域来看,人工智能的广泛应用衍生出技术滥用、数据安全、网络安全、隐私保护等安全挑战。例如,人工智能在采集、使用和分析海量数据过程中,容易发生隐私泄露、数据篡改等风险;人工智能运用到无人驾驶、医疗诊断等领域,可能引发权责边界模糊等问题;此外人工智能系统的自治性质也可能引发人类自主性和决策控制的丧失问题。

人工智能应用风险并非单一、直线的,而是交织交融的,这也使得人工智能治理不仅是技术问题,还涉及到政治和社会经济问题。这不仅需要从技术层面解决滥用问题,还需从社会治理和伦理规范层面进行引导。

(三)人工智能国家安全风险

人工智能作为一项强赋能型技术,同样应用于国家安全领域。特别是在新一轮发展浪潮下,人工智能与国家安全的嵌入程度更为深入,因而产生一系列国家安全风险。2017年7月,哈佛大学肯尼迪学院贝尔福科学与国际事务中心发布《人工智能与国家安全》报告,认为未来人工智能有可能成为与核武器、飞机、计算机、生物技术不相上下的变革性国家安全技术。人工智能国家安全风险主要体现在传统与非传统国家安全领域的智能化过程中。在军事层面,人工智能可用于构建新型军事打击力量,整合到指挥和控制,监视、情报和侦察,后勤和培训等模块,产生智能自主武器,这不仅可能颠覆传统战场态势,而且当与核武器结合,甚至可能对人类生存构成威胁。在社会层面,人工智能通过机器学习算法、聊天机器人和无人驾驶汽车实现数据分析、服务、制造和驾驶等领域的常规任务自动化,带来大面积的失业。人工智能革命还使复杂的恶意软件的出现与开发成为可能,增加了对民用和国防基础设施的网络攻击的威胁。

但正如亨利·基辛格博士(Henry Kissinger)所说,“与核武器领域不同的是,对人工智能的使用并不存在被广泛认同的禁令,也没有明确的威慑(或升级程度)概念”。人工智能获取门槛低,难以控制其应用范围,覆盖低政治领域到高政治领域,且还处于更新迭代过程中,其发展甚至对人类生存提出了挑战。2023年5月,数百名科学家和行业领袖发表了一份声明,宣称“减轻人工智能造成的灭绝风险应该与流行病和核战争等其他社会风险一起成为全球优先事项。”人工智能生态系统的跨境性质使得纯粹的国家监管制度效率低下且成本高昂。

(四)人工智能地缘政治风险

人工智能的内生安全、应用安全以及国家安全风险具有较强的外溢性,导致地缘政治、战略考虑主导了各国政府对人工智能的监管或立法措施,进而引发地缘政治风险。当前世界主要大国普遍将人工智能资源视作战略性资源以及赋能国家实力的重要工具进行优先治理,在资源争夺上呈现出零和性、对抗性的特征。例如,美国为维持人工智能的技术优势,加大对人工智能基础资源的限制。一是强化算力控制,包括升级人工智能芯片出口禁令,全面禁止向中国销售英伟达、AMD及其他公司的先进人工智能芯片和半导体设备;二是针对核心算法进行保护,将核心算法和模型纳入《美国知识产权法》的保护范围,限制外国人使用美国的基础设施即服务(IaaS)开发大模型,实施算法阻断和模型垄断;三是限制重要数据流向,拜登签署了旨在“阻止外国实体获取大量美国人个人数据”的行政令,限制对手国家获取美国人和美国政府的敏感数据。地缘政治因素正逐渐侵蚀本应属于技术领域的人工智能发展与合作。

人工智能与传统国家安全领域的结合所带来的外部性越来越明显,特别是人工智能军备竞赛正在兴起。包括美国及其盟友在内的国家均在积极开发自主武器,广泛联合微软、谷歌等私营企业研发国防领域的人工智能技术,无人武器的智能化程度正在不断提升。被誉为人工智能之父的杰弗里·辛顿(Geoffrey Hinton)认为,“人类未来需要担心的不是机器的智能化提升,而是杀手机器人”。这也导致一些国家为了维持领先优势可能会容忍安全缺陷和治理投机,加剧既有的甚至产生新的冲突形势。此外,人工智能在赋能各国社会发展上极不平衡。发达国家往往拥有较强的技术实力和企业资源,为人工智能的发展做好了充足的准备;但广大发展中国家则缺乏相应的发展资源,其劳动力资源在这场以技术为核心的竞赛中不再占优势,造成发达国家与发展中国家的差距进一步拉大,新的“南北问题”显现。

四、人工智能安全风险

人工智能全球治理需要回应人工智能安全风险带来的挑战。尽管当前针对人工智能安全风险的全球治理议程不断出现,但既有治理格局无法有效应对人工智能安全威胁的激增。佐治亚理工学院丹尼尔·希夫(Daniel Schiff)等在分析超过80篇来自政府和非政府组织制定的人工智能文件的基础上,提出人工智能伦理、政策和治理相关文件的成功与否主要取决于五个因素:与特定法律和政策的结合度,内容描述的具体化程度,对外共享及曝光度,执行过程的强制性程度,以及有效监督和快速迭代及持续更新,侧面揭示了当前人工智能全球治理手段和路径与治理目标、预期之间存在较大差距。

(一)当前治理规则未能反映人工智能安全风险特点

据不完全统计,全球活跃的人工智能安全治理倡议已高达50多项(见表2),治理主体涉及多边、多方甚至个体,治理议题囊括意识形态塑造、军事化管控、社会治理等多个方面,治理成果既有松散的磋商机制,也有超国家性质的立法,是目前全球参与主体最为广泛、涉及议题最为多样的治理领域之一。然而,现有的人工智能治理规则未能充分反映人工智能安全风险的特点,造成治理效果不佳、规则冲突等困境。

打开网易新闻 查看更多图片

其一,治理规则笼统模糊与治理精细化要求的差距越来越凸显。人工智能全球治理规则过于笼统,专门性创新型倡议不足。一方面,人工智能技术发展已经超出治理部门的专业知识范围,导致政府传统监管资源不足,缺乏专业的技术与知识储备以管理人工智能带来的风险。另一方面,各国政府不愿过多让渡国家主权,对于建立专门的人工智能治理组织持谨慎态度。尽管存在人工智能全球伙伴关系(GPAI)、人工智能国防合作伙伴关系等专门规制,但是各国仍更倾向于在既有的、经过验证的治理框架基础上嵌入人工智能倡议。例如,七国集团、二十国集团、欧盟委员会、经合组织都是在既有机制上讨论人工智能议题。上述因素导致目前政府组织规制人工智能多是基于原则性的约束,主要围绕提升人工智能“可解释性”“公平性”“可问责”“透明度”等基本面展开,缺乏针对人工智能技术监管的特异性。

其二,治理规则碎片化与治理专业性要求的分野越来越明显。从技术监管的生命周期来看,目前对于人工智能的安全治理仍然处于初期。基于不同治理经验和治理资源,国际组织、政府部门、私营部门、学术界和公民社会关注的议题以及路径偏好各异,导致议题之间出现了嵌套、重叠和平行的碎片化局面。虽然有学者认为碎片化的局面中可能存在自组织的趋势,并且不一定导致所谓的“选择法院”(Forum Shopping,是英美法术语,指当事人利用国际民事管辖权的积极冲突,从众多有管辖权的法院中选择一个最能满足自己诉讼请求的法院去起诉的行为)的困境,但是制度间的原则、规范和规则冲突,以及重叠的规定容易造成“条约拥堵”的情况,不仅增加合规成本,也极大削减了人工智能全球治理整体机制的权威性和有效性。

其三,国际机制的非约束性难以满足治理效用要求。当前人工智能全球治理制度多是不具有强制性的行为规范或政策建议,这难以约束政府和非政府行为体的活动。例如,联合国教科文组织(UNESCO)于2021年11月发布的《人工智能伦理建议》参与国家多达193个,但由于协议不具有约束力,只有不到四分之一的签署国与该机构合作实施了细化原则的政策工具。再如,由亚马逊、苹果、谷歌、Facebook、IBM和微软在2016年建立的人工智能合作伙伴关系组织(PAI)呈现出“高开低走”趋势,已有不少的成员和非政府组织退出,其主要原因是该组织未能发挥应有的效力。当国际规则无法充分发挥治理功能,国家只能绕过全球性规则而进行小范围的合作,所表现出来的恰恰是全球治理规则的低效度和不充分性。

其四,人工智能技术迭代与治理滞后之间的矛盾难以弥合。人工智能技术发展迅速,迭代升级快,其扩散速度已经超出了此前的任何一项划时代技术,人工智能技术的大规模实际应用只用了1年,相比之下,互联网普及用了7年,电力普及则用了20年,体现了人工智能技术超强的扩散速度。现有全球治理规则主要依赖于法规、标准等静态的治理规则,依靠冗长的谈判和协商,很难跟上人工智能技术快速迭代发展而带来的安全风险,这也导致技术发展与政策响应的时间差越来越大。“新技术所固有的扩散天性迄今为止使通过谈判做出限制的一切努力付诸东流,甚至连概念也未能形成”。

(二)当前治理格局未能反映人工智能行为体力量格局变化

一方面,区别于其他前沿颠覆性技术,人工智能技术发展的核心驱动力量主要来自于全球性科技企业。少数企业控制着人工智能的系统资源,包括物理资源(如大型图形处理单元集群)、认知资源(接触尖端研究小组的机会)和信息资源(访问数据集的机会)。在此基础上,企业成为应对人工智能安全风险的主力,通过联合非政府组织、学术团体等“自下而上”推动形成认知共同体。例如,人工智能合作伙伴关系组织(PAI)通过诸如《安全关键型人工智能》白皮书等出版物,为创建可信赖的人工智能系统提供了全面的框架。企业的最佳实践能够快速跟进技术发展的步伐,相比于政策法规能够及时进行修订和调整,对于促进人工智能治理中的道德、非歧视做法具有重要作用。但是这类自下而上的塑造力量并未在人工智能全球治理体系中找到合适位置,掌握核心治理资源的政府与掌握技术与信息的企业和行业团体之间协调程度有限。无论是在政府内部还是在各种区域和国际论坛上,政企合作仍处于初级阶段,企业的治理实践未充分融入到政府间倡议中去。如何平衡好政府和企业的力量是构建人工智能治理体系需要回答的关键问题。

另一方面,虽然发达国家与发展中国家在人工智能资源占有和基础能力上差距显著,但是人工智能安全风险却在无差别影响着广大发展中国家,但“基于实力安排座位”的传统国家治理机制严重影响人工智能全球治理的公正性。目前人工智能的开发和应用仍然集中在欧洲、北美以及日本和韩国等发达经济体,非洲、拉丁美洲和亚洲大部分地区发展中国家在全球治理机构中的代表性不足,相关政策和活动也比较少。以人工智能伦理规制为例,目前美国以21部排名第一,欧盟(19部)紧随其后,英国(13部)和日本(4部)位居三、四。发展中国家在人工智能全球治理中缺位主要是由于缺乏治理资源和话语权,这反过来也会导致人工智能全球治理的议题主要反映发达国家的关切,发展中国家关注的发展议题、赋能议题由于代表性不足而难以在重要倡议中得到体现。

(三)当前治理理念未能反映人工智能技术发展规律

某种程度上来说,人工智能是一种超出现有监管或法律治理机制范围的新技术。但是,当前主导的治理理念仍然是基于西方惯有路径,这与人工智能技术发展的规律和趋势存在不适配。

传统安全至上的治理理念与人工智能技术发展规律不适配。人工智能往往被政治主体特别是霸权国视为“独占性”资源,以巩固自身的非对称优势。这种逻辑下,霸权国更倾向于遵循抑制技术扩散的传统政治逻辑,这违背了人工智能内生的外向扩散和升级演化的逻辑。例如,美国在人工智能资源管制上的对华打压引发了科技企业的不满和担忧,认为这样会阻碍技术的自然发展和创新。这也反映出传统的技术管控思维难以适应当前的技术发展,进而迟滞技术发展和社会进步就在所难免。

“少边主义”治理路径与人工智能技术开放性的内生驱动力之间的矛盾越来越凸显。美国正试图在全球范围内构建人工智能治理小多边机制,将自身倡导的价值理念融入到北约、经合组织、七国集团、人工智能全球伙伴关系(GPAI)以及美日韩、澳英美等多边机制中,试图构筑以美国为中心的人工智能治理的“少边主义”。然而人工智能技术的供应链和其所依赖的基础设施的价值链具有跨国跨界因素,人工智能应用产生的跨境外部性需要国际合作,人工智能开发需要通过跨国进程完成因而也需要跨境监管,排他性和竞争性的议题联盟可能成为合作的障碍。

西方价值观主导下的治理原则与人工智能发展的包容性特征不适配。目前世界主要大国竞相影响人工智能价值观对齐问题,意图以自身的意识形态训练人工智能。美欧等国均积极将自身价值理念嵌入人工智能治理规则里,例如在“以人为本”基本原则上,主要是以西方狭义的人权观念进行阐述,严重限制了人工智能技术的包容性特征。如何在底层价值观超越狭隘的西方语境,纳入更多的发展中国家的关切和诉求,建立更广泛、更公平、更聚焦于发展以及更具包容性的基本原则,将是考验人工智能是否能成为一项赋能全人类的变革性技术的基本考量。

五、以“机制复合体”理念构建人工智能全球治理体系

目前围绕人工智能的全球地缘政治竞争愈演愈烈,短时间内难以形成一个单一、一致和制度性的人工智能治理框架,全球人工智能治理处于且可能长期处于复杂的混乱状态。将机制复合体理论引入人工智能全球治理的分析视野,不仅从理论上有利于将行为体之间的互动和既有治理机制结合起来,从动、静两个维度对人工智能全球治理做出整体性分析,同时对于缝合碎片化的治理层级,应对人工智能全球治理困境具有重要作用。

(一)机制复合体基本特征及与人工智能全球治理的适配性

机制复合体主要有五个特征:一是主体多元性,包括国际组织、国家、社会组织、私营企业等主体,涉及国家间、公私间以及私人制度等形式。二是治理机制灵活,松散的连接机制能够容纳多种制度尝试,机制之间可能产生系统效应的相互作用,具有较强的灵活性。三是治理具有层次性。机制复合体是一个由若干机构和倡议组成的多边机制综合体,每个机构和倡议都涉及不同的成员集团,因此可基于对象进行分层治理。四是手段多样性。机制复合体理念能够将原则、政策、规范和法律结合起来,形成工具集,包括自上而下的国际法律规范以及自下而上的实践驱动影响。五是治理进程的持续性。机制复合体针对治理对象全生命周期进行治理,包括在部署前进行充分测试,部署后持续监控,不断评估技术发展的能力及其后果。

机制复合体的基本特征使其能够更好地“实质契合”人工智能的风险特点和突破全球治理困境。

一是从理论框架来看,机制复合体的多中心、多模块的框架与人工智能全球治理特点适配性高。其一,机制复合体的多中心特性符合当前人工智能全球治理以联合国、经合组织、七国集团为主的多中心态势;其二,机制复合体的层次化特征能够解释当前人工智能全球治理中横向互动、纵向重叠的结构;其三,机制复合体存在的冲突互动或跨制度溢出等现象,与人工智能能力及用例的相互交织具有适配性。

二是从功能角度来看,机制复合体的有机协作可有效改善人工智能全球治理困境。其一,可有效改善碎片化问题。机制复合体中多元行为体根据自身的优势进行分工与协作,不断增强与其他制度的关系互动和协调整合程度,能够减少制度间“低效的重叠和不一致性”。其二,可提高治理效力。机制复合体的制度多样性有助于政策制定者将人工智能风险分解为可治理的具体模块,促使不同机构在不同的领域追求合作目标,以提升效力。其三,机制复合体能够充分结合软法和硬法实现综合治理。一方面,通过硬法确立精确的法律义务,提高违约成本,增强遵从性;另一方面,利用灵活的软法进行补充,鼓励集体学习,加强深入合作。

三是从现有治理态势来看,人工智能机制发展趋势符合机制复合体的基本特征。其一,议题之间的互嵌融合趋势。目前,人工智能国际倡议之间的“联动”正在增多。如,七国集团广岛进程的核心条款均是沿袭经合组织的基本原则;欧美贸易技术理事会的“可信赖人工智能和风险管理联合路线图”则以欧盟《人工智能法案》为基础;美英《大西洋宣言》提出建立隐私保护技术的合作机制(PETs)等举措与七国集团如出一辙,表明各类倡议在沟通交流中出现趋同。其二,治理主体呈现出组合体趋势。在人工智能治理领域,政府、私营部门和学术组织的互动和融合不断增强,呈现出国家行为体和非国家行为体的组合体趋势。人工智能全球伙伴关系(GPAI)、经合组织的人工智能政策观察站(OECD.AI),世界政府峰会(WGS)主办的人工智能全球治理圆桌会议(GGAR),以及联合国科教文卫组织关于人工智能的工作流程均是公私合作的典型。

(二)人工智能全球治理机制复合体的主要路径

人工智能全球治理机制复合体是当前人工智能全球治理机制有机互动、相互融合的结果,其主要路径体现在动态治理、协同治理以及责任治理三方面(如图1)。

1、基于分层,实施模块化的动态治理

人工智能全球治理机制复合体主要针对人工智能安全风险特点实行分层、模块化的动态治理。

打开网易新闻 查看更多图片

一是基于人工智能安全风险的类别进行分层治理。与其他技术风险相比,人工智能安全风险决定了复合体需囊括微观的技术治理与宏观的政策治理,并进行分层治理:技术层治理主要是规制人工智能生态系统的基础即算法和数据,治理主体主要是掌握核心和底层技术的企业,往往依赖于制造商和软件设计师严格的产品责任制,通过实施“设计安全”原则,压实对制造缺陷和设计缺陷的责任。伦理层治理主要关注在技术层之上适用于所有类型的人工智能应用程序和系统的道德问题。一方面基于企业的自律要求,例如,谷歌、IBM、微软等企业提出的自愿性标准、指导方针和行为准则;另一方面需要中立性的国际组织基于事实准则进行非意识形态的治理,例如,电气和电子工程师协会(IEEE)建立的《人工智能设计的伦理准则》,提出了人权、福祉、问责、透明、慎用五大总体原则。社会和法律层面主要是国家以及国际组织等主体树立基本原则,分配监管人工智能责任的过程。在此过程中,国家以及国际组织主要通过硬法确立基本原则和精确的法律义务,同时通过各专家团体“涓滴”到技术层,影响具体操作。

二是基于人工智能安全风险的迭代升级进行动态治理。有效的人工智能机制复合体需要针对人工智能安全风险全生命周期进行监督。在理念选择上,可引入敏捷治理模式以形成快速适应情景变化的动态治理范式,有效弥合人工智能快速变迁与政府监管相对滞后之间的矛盾。在实际操作中,构建事前预防与事后应对相结合的适应性治理机制,即在部署前需进行充分测试,引入测评、核查等政策手段,例如,美国国土安全部发布的《2024年人工智能路线图》就明确规定为人工智能系统建立严格的开发、测试和评估实践的标准;及时跟踪技术和应用的发展事态,尽早分析并识别各种安全风险的严重程度,进而动态调整和快速响应。此外,还需要针对治理政策的有效性进行定期评估和实时调整,以最大限度适应人工智能技术的发展速度。

三是基于人工智能的基础性问题进行模块化治理。机制复合体是由不同目标任务组成的,实质是将人工智能整体挑战分解为可治理的具体模块。例如,在提高人工智能赋能的广泛性和公平性中增强发展中国家的话语权,在规范军事人工智能使用中界定责任和责任措施等。此外,机制复合体可以根据问题的性质、相关行为体的利益和能力以及地缘政治考虑来调整组成人员,在某些全球议题上需要依赖联合国及其机构等具有普遍成员资格的政府机构广泛参与;部分特定问题的解决则需要限定主体范围;还有一些问题则需要科技公司、公民社会与政府共同解决。

2、基于中心,依赖多主体的协同治理

人工智能全球治理机制复合体可整合和引导碎片化的治理,将原则、政策、规范和法律结合起来,既包括“自上而下”的科层化模式,也涉及“自下而上”的治理嵌构模式,形成有效互动。

首先,联合国应在机制复合体中扮演重要的协调角色。目前学界意识到机制复合体并不是“等级缺失(Lack of Hierarchy)”,而是具有一定等级结构的非正式等级机制,即机制复合体内部仍然存在核心机制和边缘机制的区分。基于既有的机制成效以及合法性,联合国在人工智能全球治理中应协调跨领域的合作,充当“伞”的角色来提供基础框架。在联合国已有工作基础上,可设立评估、透明中心作为机制复合体的核心机制。评估中心主要是分享与人工智能相关的最新科技突破,为政策制定者和公众提供一个共同的理解基线,增强对人工智能的总体认识,以建立主要国家间的共识;透明中心主要是设立国际信息交换中心,鼓励人工智能行为体承诺对人工智能系统进行透明和负责任的信息披露,包括要求各国报告其国内人工智能法规,私营企业提供有关先进民用人工智能研发的最新信息。

其次,人工智能全球治理机制复合体是一个多维度的治理体系,它不是通过任何单一国家集团的紧密协调行动而出现的,而是通过不同行为体的累积努力来构建的,旨在解决复杂的全球性挑战的不同方面。一方面,增强广大发展中国家在人工智能全球治理中的参与度和话语权,推动形成普遍参与的国际机制和具有广泛共识的治理框架,弥合智能鸿沟,推进人工智能全球治理的包容性发展;另一方面,充分发挥私营部门和民间社会组织在议程设定、谈判、实施、监测、执行或评估相关标准和法规的过程中的作用,利用较为灵活的自律监管,改变规则普遍落后于技术创新的状态。

3、基于信任,构建大国协调的责任治理

人工智能地缘政治风险阻碍了国际合作,但同时又需要在国际层面进行统筹调配,包括处理概念界定不一、资源管控安全化、伦理价值判断不同、国际标准博弈、南北鸿沟等问题,在此过程中大国作用尤为重要。减少大国之间的误判和对峙是构建人工智能全球治理机制复合体的关键。

首先,建立科学的认识和共同的认知。定义人工智能已经成为有效监管的前提。如果不能准确界定适当的范围,决策者就无法知道人工智能的风险边界,进而引发一系列不确定的后果。因此,一个有效的人工智能治理体系需要包含能够提高对不同应用背景下风险集体理解的机制。这就需要各行为体加强政策沟通、知识共享、技术合作、风险管理和人员交流等,以解决人工智能关键术语、分类方法和标准不一的问题。可借鉴军备控制中的信任措施,加强沟通与协调,共享测试和评估标准,建立共通的衡量人工智能可信度的指标和方法、风险管理方法和相关工具的共享知识库,共享最佳实践,形成共同的战略概念话语。

其次,制定互操作性的标准和协调性法规。标准是实现人工智能底层技术互操作性的关键,推动使用兼容的标准和定义是解决当前人工智能治理碎片化的关键。一方面,可继续推动包括国际电工委员会(IEC)等组织在推进各国人工智能设计过程中的一致性;另一方面,可在国际上建立一个专门的人工智能标准组织,联合来自公共部门、行业和学术组织的不同利益相关者群体,大力促进特定领域人工智能标准的国际对话,加大基础标准制定的协商和对话,促进标准之间的互操作性。

第三,提供公共产品实现人工智能赋能的平等性和广泛性。人工智能机制复合体应确保尽可能多的国家和公民都能从人工智能中受益。这就需要在人工智能发展方面处于领先地位的国家积极提供公共产品,向低收入和中等收入国家分配关键的人工智能投入,如算力支持、构建新模型所需的硬件和软件、数据和人员培训等。

第四,加强信息共享和危机管控。大国之间需要达成广泛的共识以共同阻止人工智能的恶意使用,减少人工智能军备竞赛等。由于当前军事人工智能的国际谈判陷入僵局,难以就集体安全措施达成广泛的多边协议,对此,主要大国可以从范围较窄、不太正式的信任措施和行为准则开始,促进信息共享,并尝试建立联合预警机制等。

第三种是干预型的战略部署,这种类型的战略部署在常规武器时代并不能介入进攻/防御的二分格局,然而在人工智能的加持下,干预的技术手段日益多元、干预的门槛持续降低、干预的成效进一步凸显,使之也成为了一种不容忽视的类型。干预型的战略部署通过人工智能技术,不仅能够在进攻和防御之间找到一条新的路径,还能够在更广泛的领域内发挥作用,如心理战、信息战以及经济战等。这种部署方式利用人工智能系统的数据分析、模式识别和自动决策能力,对敌方的社会、经济、政治和军事系统进行精准的干预和影响。这种方式在俄乌冲突中被以美国为首的西方国家充分利用。在俄乌冲突中,美国和西欧国家通过与乌克兰的情报共享、决策辅助和对俄罗斯的经济制裁和科技脱钩等综合性、跨领域的手段,将原本由俄罗斯占据优势的天平回拨向乌克兰一方,向世界展示了干预型战略部署的重要作用。这种部署方式的发展,标志着现代战争形态向更加复杂和多元的方向演进,同时也对国家的安全政策和军事战略提出了新的挑战和要求。

国家想要更加灵活有效地配置这三种部署方式,就必须与另外一个能在部署环节发挥作用的主体——新式商业主体进行有效配合,以消解系统中的负反馈效应。商业主体能在这一领域中产生负反馈效应的原因有两点:一方面,商业主体有着不完全依赖于国家战略的独立目标,如特定的价值观和对商业利益的考量等。美国乔治城大学安全与新兴技术中心(CSET)曾发布报告分析,在俄乌冲突中追随美国政府进行战略部署的亚马逊、苹果、微软等企业可能会由于与中国市场的深度耦合而并不会完全服从于美国对中国的战略决策。这说明了商业主体在部署环节中决策的独立性与反馈的显著性。另一方面,国际规则的不明确性为这些商业主体参与军事部署环节提供了更多的操作空间,在俄乌、巴以冲突中微软、太空探索公司等商业主体的行为都没有得到相关的赋权或者约束。这使得企业能够轻易且独立地按照自身的价值判断和利益考量干预国家的战略决策。这种行为很可能会反馈到国家的战略部署中,从而增加国家之间战略稳定关系中的不确定性。

为深入探究商业主体在人工智能军事应用领域中的角色及其产生的具体影响,以下将继续通过分析美国、俄罗斯、以色列和法国的具体案例,揭示在不同国家中,商业主体参与的“结构”和“进程”是如何影响国家人工智能军事领域部署的“效果”的。通过对这些案例的考察,我们可以进一步了解商业主体如何在现实中发挥作用,同时进一步把握这些关键国家人工智能军事化的特征和方略。

六、结语

基于人工智能内生技术安全风险、衍生应用安全风险,以及国家安全风险和地缘政治风险,形成了多样化的治理路径和制度,并呈现出重叠、冲突等机制复杂性的特征。当前国际上主导的治理机制、格局以及理念不能有效应对人工智能安全威胁的激增,集中体现在治理机制未能反映人工智能安全风险特点,治理格局未能反映人工智能行为体力量变化以及互动关系,治理理念未能反映人工智能技术发展趋势。

机制复合体作为当前全球治理的重要路径,与人工智能全球治理体系较为契合。从理论框架来看,机制复合体的多中心、多模块框架与人工智能全球治理碎片化特点适配性高;从功能角度来看,机制复合体的有机协作可有效应对人工智能全球治理困境;从现有治理态势来看,人工智能机制发展趋势体现了机制复合体的特征。人工智能全球治理机制复合体需要针对人工智能安全风险特点实行基于分层、模块化的动态治理;基于中心,建立多维度的协同治理体系;促进大国之间的信任,构建大国协调的责任治理。

03

广而告之

(2024年5月20日)

大外交青年智库(GDYT)作为“全球大外交青年智库开创者及代言人”,立志“为中国青年提供向中央及地方政府部门建言献策的渠道和平台”,致力于“让壹亿中国大外交新青年的智慧和方案被全球看见”,“做好中国的智库外交、青年外交等民间外交工作”。“大外交”最早从2014年建设国际政治外交外事青年人才群,到2016年开始建设全国国际问题研究青年学者群,2018年开创付费社群模式,至今已建设成中国国际问题智库里具规模、具影响、垂直细分专业化程度非常高的人才社群矩阵(30个)。

“智库报告及思想共享群”系大外交智库(GDYT)创建,日更,为进一步给中国政府、企业、高校、媒体以及各类组织及个人等提供有价值的研究报告、分析报告、国别简报、每日信报、编译评议报告、时政分析报告、行业报告、产业报告、智库报告、政府报告、商业报告、经济报告、市场报告、品牌报告以及其他相关报告而组建的报告发布高端功能付费社群(¥1999/人/年)。

联系人:王盖盖 大外交智库(GDYT)创始人兼理事长

微信号:GDYT-2017

请备注:“报告群-实名制姓名-单位部门身份/高校院系所专业-最高学历”(否则不予通过,谢谢您的配合)

04

平台记事

(2024年5月20日)

2024年4月15日,大外交青年智库(GDYT)官方知乎账号“大外交智库 GDYT”创作等级正式升为Lv9,内容优质分高达近20万分。

05

(2024年5月20日)

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

大外交青年智库(简称“大外交智库”)(Glory Diplomacy Youth Think-tank,Glory Diplomacy或GDYT)是一家创办于2017年的以外交安全为主的综合性战略研究机构、社会/青年智库,总部在中国深圳,是深圳首家非官方外交安全智库、中国首家青年智库,创始人是王盖盖。GDYT一直坚持“只有修炼好内功,才能放心去实战”的发展理念,从2017年创始初期稳扎稳打,于2018年成立青年原创评论组(于2022年改组为《智本青析》编辑部)并创办《智本青析》电子刊至今;2019年在海南开设分支机构即海南大外交学会,同年成立青年发展研究中心,该中心在2019年创办“大外交青年发展与实践启航项目”研修班至今,在2021年创办“世界青年菁英坊《早点知道》讲座项目”至今;2020年成立应试就业研究中心并创办《真题解析》付费专栏;同年7月,成立外交外事涉外安全决策咨询公司,集中研究国家安全与国际安全、海外利益分析与保护、青年外交与青年发展、区域国别与国际组织、跨国公司与全球治理等事务;2021年成立外文编译评议组并创办《大译编参》电子刊至今(该编辑部于2022年创办《每日信报》微电子日刊),同年成立区域国别研究中心(该中心于2022年创办《新国别简报》栏目);2022年成立世界外交数据中心、全球治理研究中心(该中心于2022年创办《鸿士论天下》栏目)、国家安全研究中心、党的理论创新研究中心,并合并所有专访项目(青坊谈、最有影响力人物访谈、21世纪中国外交天团、学人专访等)整合为《与名人对话》栏目,组建“青年智库特种部队”全职高精尖部门和全球范围内的“大中华菁英圈”,开启“Smallibrary·小书屋”全球青年阅读挑战计划(该计划于2022年创办《智库书屋》栏目),运营新知太学(网络)书院(该书院于2022年创办《线上共读》栏目);2023年,成立全球创业研究中心、全球湾区研究中心、跨国公司研究中心、海外利益研究中心、数字经济研究中心、海洋治理研究中心、基式外交研究中心,在香港开设分支机构“香港大外交学会(GDYT HK)”,创办“华湾国际创业发展新菁英汇”国际人才交流平台等。GDYT从2021年以来,多次举办全国(含全球)青年国际问题学术研讨、政策分析与思想交流等活动,如“国际问题研究型青年智库发展模式探索论坛”、“新型国际问题青年智库建设与发展论坛”、“国际关系青年辩论赛”、“国际关系青年辩论赛最佳辩手论坛”、“世界青年菁英坊《早点知道》系列讲座”、“国际问题/区域国别学术研讨会(GDYT·ISAS)”系列活动、“《与名人对话》系列采访活动”、“《鸿士论天下》系列讲座活动”、“新时代中国国际战略高端论坛与菁英论坛”、“华湾国际创业发展新菁英汇”系列活动、“GDYT与国际知名学者对话”等等。自创办以来,GDYT一直致力于“让壹亿中国大外交青年智慧与方案被全球看见”,聚集全球各地有志青年为实现个人、企业、社会、国家和世界和平发展而奋斗,至2021年底,已发展成集专家顾问、研究员(含高级)、特约研究员(含高级)、助理研究员、编译评议员、时政评论员、实习生、志愿者等全方位国际人才体系(200人)的样本标杆青年智库,聚焦中国与全球大外交领域青年的原创方案、发展计划和外交延伸等助力与服务,在“对照全球外交发展、对接世界高端智库、对比新型平台建设”的三原则指导下,为中国的外交与安全发展贡献青年力量和方案,为政府、企业、智库、高校、非政府组织以及个人都有提供过咨询服务,被海内外青年誉为现代智囊的“青年精英大脑集散地”,是全球新型外交青年智库的开创者和代言人!

打开网易新闻 查看更多图片

大外交青年智库

Glory Diplomacy

让中国外交青年智慧被全球看见

为中国青年智库代言