西南财经大学 法学院 张欣

人工智能技术的应用和发展速度远远超过了法律法规的制定和调整速度。这给对人工智能的监管带来了很大的挑战,导致一系列法律漏洞和风险,比较突出的有四个方面:首先,由于人工智能技术需要大量的数据来进行训练和学习,数据的收集和使用往往涉及到用户的隐私和个人信息。目前,大多数国家和地区的数据保护法律法规都不算完善,无法有效保护用户的隐私和数据安全。其次,人工智能算法可能存在歧视性,如何确保算法的公平性也是备受关注的监管问题。例如,在招聘、贷款,甚至司法判决等领域,人工智能系统可能会基于种族、性别或其他特征做出不公平的决策。最后,当人工智能系统出现错误或造成损害时,究竟谁应该承担责任也是监管难点。

从全球范围来看,应对措施及发展方向主要包括以下三个方面。第一,各国政府和国际组织需要加强对人工智能技术的法律法规制定和更新。这包括对上述数据保护、隐私保护、算法公平性、责任界定等方面的法律法规进行调整和完善。例如,欧盟AI法案针对通用型人工智能模型的提供者引入了具体要求,并对由于其特别高影响力而存在系统风险的此类模型的提供者提出进一步要求。美国的行政命令则要求潜在的双用途基础模型的开发者以及潜在的大规模计算集群的获取者、开发者或持有者向联邦政府提供特定的报告和信息,重点关注生物武器获取和非国家行为者使用、发现软件漏洞以及软件用于影响事件的结果。

第二,建立健全的监管框架和技术评估机制。其中,监管框架应该明确人工智能技术的发展方向、应用范围和监管责任,同时确保监管机构的权力和职责明确。例如,我国的国家互联网信息办公室负责监督和管理互联网和信息技术领域的法律法规,包括人工智能技术的发展和应用;国家市场监督管理总局负责监督和调查人工智能技术的不当竞争行为和市场垄断行为。欧洲委员会设立了欧洲人工智能委员会,负责监督和协调欧盟成员国在人工智能领域的政策和法律法规,欧洲数据保护委员会则负责保护个人数据在人工智能应用中的隐私和安全。英国信息专员办公室负责保护个人数据在人工智能应用中的隐私和安全,监督和调查与数据保护相关的违规行为。此外,英国数据伦理委员会负责制定和推动人工智能技术的伦理准则和指南,保障公众利益和社会责任。这些机构在各自的职责范围内,致力于促进人工智能技术的健康发展和社会稳定,应对新的挑战和问题,保障公众利益和数据安全。

技术评估机制则应该建立在科学、专业和独立的基础上,通过对人工智能技术的风险评估和安全审查,及时发现和解决潜在的安全隐患和法律风险。评估机制应包括以下几个方面。1)技术审查和安全评估:主要通过对人工智能技术的技术设计、算法原理和实现方法进行审查和分析,评估其在安全性和可靠性方面的表现。这包括对人工智能算法的稳定性、鲁棒性和防御性等方面的评估,以确保其在实际应用中的安全性。2)数据隐私和安全评估:主要关注人工智能技术对个人数据和隐私的影响,评估其数据收集、处理和存储过程中的安全性和合规性。这包括对人工智能系统的数据使用政策、数据加密技术和数据访问控制等方面的评估,以保护用户的隐私和数据安全。3)伦理审查和社会影响评估:主要关注人工智能技术对社会的影响和伦理问题,评估其在道德、社会公正和人权等方面的表现。这包括对人工智能算法的歧视性、公平性和透明性等方面的评估,以确保其在社会中的合法合理和公正公平。4)监管合规性评估:主要关注人工智能技术在法律法规和监管政策方面的合规性,评估其在数据保护、知识产权、消费者权益和竞争法律等方面的遵守情况。这包括对人工智能系统的法律风险和合规性进行评估,以确保其在法律框架内合法运营。5)独立第三方审查:由独立的第三方机构或专家组织进行审查和评估,以确保评估过程的客观和公正。这些独立审查机构可以提供专业的技术和伦理评估服务,为政府、企业和社会组织提供决策支持和建议。

第三,各国政府和国际组织加强合作,共同制定人工智能技术的国际标准和规范。这包括对数据流动、隐私保护、算法公平性等方面的国际合作和协商,以促进人工智能技术的全球发展和应用,共同应对人工智能技术的全球挑战和问题。

第四,充分考虑公众的利益和意见,加强公众参与和社会监督。各国政府和相关机构需要建立公开透明的决策机制,积极听取公众意见,保障公众的知情权和参与权。同时,也需要加强对人工智能技术的普及和教育,提高公众对人工智能技术的认识和理解,从而增强公众对人工智能技术的信任和支持。

人工智能技术的发展给社会带来了巨大的变革和机遇的同时,但也带来了一系列的法律法规监管挑战。只有在法律法规的有效监管下,人工智能技术才能更好地造福人类。在未来的发展中,各国政府和国际组织应该加强合作,共同推动人工智能技术的全球发展和应用,为构建人类命运共同体做出积极贡献。