美国悄然开启自主武器时代

达尔帕机器人
DARPA 地下挑战赛于 2021 年 9 月 21 日至 24 日在路易斯维尔巨型洞穴举行。DARPA(国防高级研究计划局)隶属于美国国防部,负责开发军用新技术。(DARPA/封面图片来自 REUTERS)

在数十个国家和诺贝尔和平奖获得者的支持下,活动人士和运动团体长期以来一直在寻求一项禁止致命自主武器系统的全球条约。当底层技术尚未得到证实并且世界不再那么充满敌意时,这个目标似乎是可能的。现在情况已不再是这样了。现在的政策对话必须集中于设计管理这些系统的机制,而不是阻止它们的发展。

视觉识别工具、机器学习和机器人技术的巨大进步使得计算机能够更轻松地在复杂的环境中导航。乌克兰战争为国防科技公司带来了战斗数据财富和投资意外之财。世界范围内冲突的激增表明,国际社会支离破碎,越来越无力或不愿意执行人道法。与此同时,美国加快了部署智能武器的时间表。

2023 年 8 月下旬,美国国防部副部长凯瑟琳·希克斯在华盛顿特区举行的以技术为重点的国防工业会议上发表了主题演讲。她的演讲有一个舒缓的标题——“创新的紧迫性”。但其中的计划无异于对当代战争的重新发明。用希克斯的话说,目标是“在未来 18 到 24 个月内,在多个领域部署数千个可消耗的自主系统。”

希克斯认为美国军队必须适应以对抗中国人民解放军(PLA)的全球野心,因此推出了“复制器”。该计划由美国国防部 (DoD) 发起,旨在简化美国军方对新兴技术(尤其是来自私营部门的技术)的采用。其目的是让华盛顿保持其向海外投射美国硬实力的能力,同时减少对当今常规武装部队昂贵、笨重的遗留部分的依赖。相反,国防部设想建立一支由人工智能 (AI) 提供支持的高度网络化、数据驱动的部队。人类士兵将在战场上与一波又一波较小的、互补的、低成本的智能武器系统配对,这些武器系统在被摧毁后可以迅速更换。

一周后,希克斯提出了这可能采取的一些形式:自动驾驶海军舰艇、无人驾驶飞机以及部署在陆地、海上、空中和太空的移动通用单元“吊舱”。重点是可磨损性——一种设计原则,通常被定义为优先考虑功能和可消耗性,而不是长期使用和耐用性。

美国海军开发人工智能军事应用的特遣部队已经在波斯湾拥有一支自主预警无人机机队。鉴于霍尔木兹海峡是全球能源供应的关键阻塞点,监测霍尔木兹海峡周围的航行自由具有重要的战略意义。然而,这些功能现在已经不仅仅是帮助领域认知了。2023 年 10 月 23 日,在接到岸上操作员的命令后,一艘美国海军无人艇首次在没有操作员任何战术指导的情况下,使用实弹火箭成功攻击了假敌方目标。

据报道,五角大楼有超过800 个正在进行中的军事人工智能项目。其中大部分与提高流程效率、威胁评估和战场决策有关。但该摘要仅仅是可以从公共来源和非机密记录中收集到的内容。与核武器不同,自主武器可以秘密开发和测试。乌克兰战争也清楚地说明了为什么质量在现代战争中仍然很重要,支持了无人机等可消耗智能武器系统的价值主张。

Hicks 发誓,Replicator 将符合美国对人工智能道德和自治系统的既定方针。这些都反映在五角大楼最新更新的武器系统自主政策和美国国务院关于负责任地军事使用人工智能的政治宣言中。截至 2023 年 11 月下旬,后者已得到 49 个国家的支持——基本上是美国的所有西方盟友。

但该倡议的主要动机似乎是为可能与威权中国的对抗做准备。北京还积极寻求自主武器技术,作为其明确的军民融合原则的一部分。国会美中经济与安全审查委员会 2023 年年度报告中的一章警告称,“投资和采购模式表明,解放军的目标是使用人工智能武器系统来对抗美国的特定优势并针对美国的弱点

致命自主武器在这里可以说是最大的中期风险:解放军和美国军队或华盛顿的盟友之一之间发生致命事故,涉及台湾周围或南中国海的这些武器,可能会引发一场全球性的破坏稳定的战争。没有人真正想要。例如,澳大利亚也在积极尝试开发和获取无人系统。印度和韩国也是如此。

如果没有正式的降级流程,由于装置故障或操作员错误而导致的涉及致命机器人的事件可能会迅速失控。中国和美国这两个拥有核武器的超级大国之间的军事升级可能会随之而来。

人们一致认为这些武器系统将大大加速战争。他们的快速打击能力将缩小适当权衡报复行动的窗口。

中国国家主席习近平和美国总统乔·拜登最近达成协议,启动双边会谈,评估人工智能系统用于军事用途的风险,这是一小步,但却是重要的一步。但更重要的是,两国领导人同意让两国军队恢复双边紧急热线。2022 年 8 月,时任众议院议长南希·佩洛西访问台湾,激怒了北京之后,中国放弃了这些直接联系。恢复使用——虽然不能保证持续——可以而且应该成为共同创建具体的、有序的降级过程的基础。

军事指挥官预先存在的出口匝道可能意味着缓解孤立事故周围的紧张局势或动员战争之间的区别。因为虽然致命自主武器的支持者表示,与活动人士设想的反乌托邦机器动力敢死队相比,它们的使用将“不那么引人注目”,并且更受合法性的约束,但人们一致认为,这些武器系统将大大加速战争。他们的快速打击能力将缩小适当权衡报复行动的窗口。因此,一个小事件更有可能演变成一场大火。

如果“人在环”模型(操作员必须主动批准使用武力)被降低优先级,转而支持“人在环”模型,这种动态将会变得更加复杂。也称为完全自主设计,如果需要,人类操作员可以监督和干预机器人的行动过程,但除此之外,这些单位被授予仅根据编程和算法决策来识别和摧毁目标的代理权。可以想象,美国政府可能会辩称,这些武器系统仍然符合其将人工智能的军事用途置于负责任的人类控制之下的定义。

2021 年联合国报告称,2020 年 3 月,土耳其一家武器制造商生产的全自动狩猎无人机在利比亚进行了全球首次试运行。然而,深度参与乌克兰战争的美国国防科技公司 Palantir -估计这种能力距离完全实现还需要几年的时间。正是这些人机交互模型引发了人们对自主武器出错的担忧。它们的未来使用也是联合国围绕制定人工智能军事用途国际法展开的旷日持久的辩论的核心,该法律现已延长至 2025 年底。一名俄罗斯外交官在联合国关于人工智能武器的辩论中发言2023 年 5 月的控制:“我们理解,对于许多代表团来说,首要任务是人的控制。对于俄罗斯联邦来说,优先事项有些不同。”

这场辩论可能最终迫使美国采用完全自主的武器模型。在亨利·基辛格去世前不久发表的一篇文章中,亨利·基辛格和合著者、政治学家格雷厄姆·艾利森写道:“历史上从来没有一个大国因为担心竞争对手可能采用新技术威胁其生存和安全而放弃开发这种技术。技术本身。”

由于自动化偏见的普遍存在,即使是人机交互系统也可能会加剧军事升级研究表明,人们倾向于遵循计算机生成的决定,而不是自己的证据和看法。因此,在大多数情况下,当发出即将到来的威胁信号时,自主武器系统很可能会获得人类使用武力的批准。

然后是对齐问题,即人工智能程序将实现其目标置于减轻附带损害之上。2023 年 5 月,一名美国空军上校表示,在最近的一次模拟测试中,一架自主无人机为躲避中止空袭的命令而杀死了其操作员,从而短暂引发了恐慌。空军很快否认了这一事件,而相关官员塔克·汉密尔顿上校则撤回了他的评论,称其为“思想实验”。但重点已经明确了。“我们从未进行过该实验,也不需要这样做才能意识到这是一个看似合理的结果,”汉密尔顿事后说道。

近年来,美国政府内外的战争游戏参与者试图预测中美在台湾问题上的冲突可能会是什么样子。一个反复出现的发现是,要挫败解放军的两栖攻击——在中国空中力量和从大陆发射的远程弹药的支持下——需要大量的自主防空和反舰系统驻军。

中国在该地区的军队已经在针对台湾和其他国家部署所谓的灰色地带战术,采取接近军事挑衅的行动。这些策略包括几乎每天都派战机进入台湾防空区。菲律宾于 2023 年 5 月更新了与美国的共同防御条约,该国也报告了多起中国海警船只撞击其渔船、用水炮向渔船喷射或用军用级激光瞄准船员的事件。在国际水域巡逻的加拿大和美国军舰曾面临海上恐吓和骚扰无法预测在现实世界中,武器系统——尤其是完全自主的武器系统——是否会将这种模棱两可的侵略解读为值得采取暴力回应。

国防专家、前五角大楼政策负责人米歇尔·弗卢努瓦强调对手可能“欺骗”自主武器系统的视觉识别工具,操纵它们攻击民用目标。可以想象,这种类型的假旗行动可以为北京提供掩护,声称动员解放军攻击台湾或附近的西方军队是出于防御目的。

武装冲突本质上是不可预测的。军事历史学家菲利普斯·佩森·奥布莱恩在回顾俄罗斯全面入侵乌克兰的第一年时 写道,世界上最大的教训是“战争很少是容易或直接的——这就是为什么发动战争对任何人来说几乎总是错误的决定”。国家。” 在自主武器成为固定武器之前,必须建立降级进程,以确保它们成长的烦恼不会将地球上两个敌对的超级大国拖入毁灭性的冲突。

本文/多媒体中表达的观点是作者的观点,并不一定反映 CIGI 或其董事会的观点。

关于作者

凯尔·希伯特 (Kyle Hiebert) 是一位研究员和分析师,曾驻扎在南非开普敦和约翰内斯堡,担任《非洲冲突监测》的副主编。

谷歌翻译The United States Quietly Kick-Starts the Autonomous Weapons Era

请您先登陆,再发跟帖!