打开网易新闻 查看更多图片

2024年10月,美国安全与新兴技术中心发布人工智能风险研判报告《通过聊天窗口进入现实世界,为智能体做好准备》(Through the Chat Window and Into the Real World:Preparing for AI Agents)。大批初创公司和大型科技公司正在部署构建和销售智能体,这将给社会和经济带来翻天覆地的变化。此前,美国安全与新兴技术中心举办了一场研讨会,探讨了构建智能体的最新进展,以及如果这项技术继续发展,可能产生何种政策影响。本报告总结了研讨会的关键主题和结论,探讨了智能体的定义,分析了其所带来的机遇与挑战,并提出三类应对举措。

一、智能体的定义

基于过往研究,本报告认为具有更高能动性的人工智能系统应具备四类特征。一是目标复杂性,即更具能动性的系统追求复杂、长期的目标,甚至同时追求多种不同的目标,能动性较低的系统则执行个别的、更明确定义的任务。二是环境复杂性,更具能动性的系统能够在更开放且复杂的环境中有效运作,在这种环境中,智能体可以变换更多状态,采取更多行动,能动性较低的系统只能在较简单和可预测的环境中有效运作。三是独立规划和适应,更具能动性的系统能够自行生成实现预定目标的计划或路径,并根据需要适应变化的情况。能动性较低的系统则遵循预先指定的逐步指令。四是直接行动,无论是在现实环境还是虚拟环境中,能动性高的系统可以直接在其环境中采取行动。能动性较低的系统则为人类用户提供信息或建议,需由人类用户来指导其行动。

二、智能体的现状

关于智能体的新一轮热潮始于2023年。随着大语言模型快速发展,例如AutoGPT和BabyAGI等开源项目,探索了如何在大语言模型周围构建软件包装器,将其从一个聊天机器人转变为智能体。这种智能体与聊天机器人不同,不仅仅是与用户对话并建议采取哪些步骤来实现目标,还可以直接被赋予一个目标,例如,“为一个新的创业想法创建一个推介文稿并将其发送给五位相关投资者”,然后生成并执行计划来实现该目标,包括采取诸如浏览互联网或运行代码等行动。智能体会按要求执行,直到实现目标或陷入困境。这些早期的基于大语言模型的智能体由于错误率高无法投入实际应用,但它们作为概念验证展示了一个重要观点:生成文本和采取行动之间的差距可能比以前想象的要小得多。

这种基于大语言模型的智能体的基本架构包括所谓的“支架”软件,包含一个大语言模型或多模态模型。这个支架通常是一款简单的软件,充当模型与外部世界之间的接口,自动生成提示以供模型使用,例如,操作网页浏览器或运行代码的指令,可以将模型输出转换为可以与外部系统交互的格式。通过这种方式,支架使大语言模型能够与各种在线工具和服务进行互动。截至2024年年中,许多大型人工智能公司明确致力于将其聊天机器人转变为智能体。在2024年5月的开发者大会上,微软公司承诺推出“作为独立智能体执行任务,具有更多自主性和更少人类干预”的人工智能工具,而谷歌公司则展示了一个将要推出的可以跨多个应用并自主执行任务的智能体。初创公司如Adept、MultiOn和Lindy也筹集了数亿美元资金,承诺构建能够灵活执行复杂任务的智能体。然而,目前这些智能体的功能非常有限,如果智能体在每一步都有失败或卡住的可能,那么执行任务所需的步骤越多,智能体成功的可能性就越低。如果每一步都有较高的失败概率,智能体在当前或许不会特别有用,且在没有进一步进展的情况下,被广泛采用的可能性似乎不大。

此外,智能体的发展和普及还存在不确定性。一是智能体的复杂性和实用性会以多快的速度提升?许多研究人员、企业高管和初创公司创始人都认为,当前智能体的不可靠性只是暂时现象。几种不同的潜在研究路径都可能显著提高智能体的能力。二是智能体是通用型还是针对特定用例设计的?鉴于当前智能体的性能局限,短期内开发在特定应用环境中使用的、既定目标较小的智能体可能更为可行。三是哪些用例最有可能率先取得成功?专家指出,在软件工程等领域,通常更容易训练和微调智能体行为,因为在这些领域构建反馈回路或验证周期相对容易。除了软件工程,专家还预期在其他纯软件领域(如网络安全),以及具有短期反馈周期的用例(如客户支持)中看到更高的采用率。其次,经济激励可能影响何种类型的智能体得到广泛应用。四是哪种商业模式和市场结构将占主导地位?一种可能性是,如果基于大语言模型的智能体变得普及,少数大语言模型公司将出售完全在内部开发的智能体的使用权限。另一种可能性是出现双层结构,一些公司开发先进的大语言模型,其他公司在此基础上构建智能体。还有一种可能的结构是,如果当前前沿的大语言模型公司无法在开源选项面前保持竞争优势,那么个人和公司可能会使用免费的智能体。如果未来的智能体进展并不基于大语言模型,那么会出现其他可能性。

三、机遇、风险及其他影响

正如智能体与其他类型的人工智能系统之间没有清晰、明确的界限一样,智能体带来的好处和风险在许多情况下也是其他人工智能问题的延续。智能体的发展带来的机会多种多样,从提高企业运营效率到赋能个人用户。除了人工智能已有的挑战外,智能体的特征,例如在没有人类干预的情况下行动的能力,以及与用户建立个人关系的潜力,有可能会存在新的潜在危害,如意外事故,技术滥用,责任分配问题,数据治理和隐私问题,人类的技能退化、技术依赖和脆弱性问题,智能体非法自动合谋,以及对社会劳动力的影响等。

四、防护与干预措施

智能体的兴起给政策制定者和监管者带来了许多问题,加上关于智能体是否、如何以及何时普及的不确定性,使这些问题变得更加复杂。技术、法律和其他防护措施将在管理这些问题中起到关键作用。

(一)评估智能体及其影响

鉴于智能体的复杂性和使用率增长的不确定性,专家表示有兴趣改进评估智能体性能的方法。如果能够测量和监控智能体在不同环境中的表现,将使跟踪和预测智能体的进展变得更加容易,从而为智能体的潜在影响做好准备。另外,另一种直接评估智能体的方式是收集生态系统级别的数据以了解智能体的影响。这类似于对环境污染进行生态监测,以防制造商忽视测量和管理其工厂排放化学物质。除此之外,基准测试,即通常用于评估和比较不同人工智能模型性能的测试,可以作为跟踪智能体进展的重要工具。

(二)技术防护措施

研究人员可以考虑在三个层次上实施技术防护措施:模型层、系统层和生态系统层。模型层主要与基于大语言模型的智能体相关,包含底层的统计模型,这些模型可以被视为智能体的“引擎”。系统层包括模型以及围绕模型构建的支架和其他组件,支持其与用户和外部工具交互,规定它可以采取哪些行动、不能采取哪些行动,并记录其交互。生态系统层是智能体与之互动的更广泛的空间,如社交媒体平台等。

(三)法律防护措施

即使没有新立法或新法规,现有法律的广泛领域也可能与管理智能体的影响相关。首先,许多现行法律已经可以适用于智能体。例如,美国联邦贸易委员会表示,“在民权、公平竞争、消费者保护等现有法律下,没有人工智能豁免”。同样,在医疗和金融等高度监管的行业中部署的智能体也将受到这些行业现有法规的约束。在其他法律领域,代理法、公司法、合同法、刑法、侵权法、财产法和保险法等法律条款,也将在涉及智能体系统的案例中发挥重要作用。不过,即使某个法律明确对应一个问题,但某些应用细节仍然需要解决。在这些现有法律框架的背景下,专家讨论了与智能体相关的因素,包括:心理状态和法律人格。总体而言,为有效监管智能体一方面应创造性地应用现有的法律原则,另一方面应发展新的法律概念。

五、结论

关于未来几年智能体的前景,虽然许多问题的答案仍不明确,但专家们得出了几点主要结论。一是智能体引发了极大的关注并吸引了大量投资。初创公司和大型科技公司都在努力将大语言模型的进展转化为更具能动性的系统,这些系统能够灵活自主地执行用户的目标,超越目前主要作为聊天机器人的用途。二是智能体定义存在争议。没有明确的界限可以区分哪些人工智能系统是智能体,哪些不是,但简单来说,能动性更强的系统能够在更开放的环境中自主采取直接行动,追求更复杂的目标。三是现有基于大语言模型的智能体功能有限,且常常出错。四是如果高度复杂的智能体广泛应用,可能会加剧现有问题并带来新问题。五是智能体的发展轨迹难以评估,很难确定智能体是否会迅速在复杂性和广泛部署方面取得进展,或是在未来几年依然主要停留在研究领域。六是许多潜在的技术防护措施已经存在,但它们的实施有时需要在相互矛盾的目标之间进行权衡,这包括在可见性与隐私、安全性与性能、信任与实用性之间进行权衡。七是智能体的法律地位及现有法律的适用性正在发生变化,并引发了严重的法律问题,我们可能需要创造性地应用现有概念并更新现有法律。

免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er