西班牙拉科鲁尼亚举行第三届军事领域人工智能峰会,2月4日到5日,最终只有35个国家签字,85个到场国家中有一多半没有签字,两个大国也没有签字。会议的主题为“负责任地使用人工智能”,试图为军事AI制定一些基本的国际规则,即人类对AI武器系统负责,指挥控制链要明确,防止未来战场被算法所操控。但是宣言没有法律效力,签字才算是把话说成了,低签署率也更加凸显出现实中的犹豫。
军事AI已经在军队中进行测试,在战场上也已经使用了无人系统、自主识别、集群协同等。一旦失控,就是一点微小的伤害,而把“开火权”交给黑匣子,这就牵涉到责任和伦理方面的问题。会场内拒绝签署的原因主要是因为缺乏信任,不相信对方会把军事力量交由国际规则来约束,不相信大国会在关键时刻依照协议行事。更现实的是囚徒困境,大家都希望对方克制,但是没有人愿意第一个摊牌。供应链、稀土、半导体、数据与算法公平性都属于底层变量,可以转化成战术上的优势,担心立规矩会使自己慢半拍。
美国保持含糊其辞的态度:不明确反对,但是也不签署,原因是“进一步评估”。其在军事AI方面投入很大,军费中用于AI的资金超过四百亿美元,海军、空军、太空领域广泛测试自主作战系统。美国希望保持速度、自由度和不受限制的手,不愿意公开指挥链的设计,也不谈论黑箱治理、数据偏见责任机制,把军事AI当作竞赛,追求超越而不是公正。
签与不签并不是强弱的简单标志,主要看有没有用规则来解决问题的诚意和能力。大会制度性落地有限,但是双方态度很明确:一方亮原则、亮路径,另一方耍空间、使手腕。准备好把话说成事的人,就更容易引导出共识。组织者也承认成果更像是姿态,但是国际规则常常是从薄纸开始:先立词语,再画边界,再装进审计和问责,需要时间以及不断的对话来不断压缩不确定。
军事AI风险并不遥远,数据存在偏差,算法也会继承偏差;黑箱判断目标,士兵按确认键,各个步骤都有出错的风险。把开火权交给代码,这是目前的危险。规则不是束缚人的,而是保护人、担责和设限。以人为本听起来很温柔,但是实际上是有硬约束的。最要紧的是使技术遵守规则、让人掌握最后的刹车。不签并不等于不治理,签了也不代表一定能治理好,看态度、看能力、看政策连续性。
下一步关于军事AI的讨论会更加密切。有理论基础、能给出合作途径、能提出风险控制方案的人,就会成为边界框架的主导者。不是看谁喊得大声,而是看谁行动稳当、落子精准。棋局已经摆开了,不能着急也不能拖沓。这不是遥远的外交辞令,而是怎样给日益智能的技术装上安全带、谁来兜底并且能够兜得住的现实问题。
