OPENAI 本周悄悄地从其使用政策中删除了明确禁止将其技术用于军事目的的措辞,该政策旨在规定如何使用 ChatGPT 等强大且非常流行的工具。
截至 1 月 10 日,OpenAI 的“使用政策”页面其中包括禁止“具有高人身伤害风险的活动”,特别是“武器开发”和“军事和战争”。禁止军事应用的明确措辞似乎排除了国防部或任何其他国家军队的任何官方且极其有利可图的使用。新政策保留了不得“使用我们的服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但对“军事和战争”使用的全面禁令已经消失。
此次未经宣布的修订是政策页面重大重写的一部分,该公司表示,其目的是使文档“更清晰”和“更具可读性”,其中包括许多其他实质性的语言和格式更改。
OpenAI 发言人 Niko Felix 在给 The Intercept 的电子邮件中表示:“我们的目标是创建一套易于记忆和应用的通用原则,特别是我们的工具现在已被全球日常用户使用,他们现在也可以构建 GPT。” “像‘不伤害他人’这样的原则很广泛,但很容易掌握,并且在许多情况下都具有相关性。此外,我们还特别引用了武器和对他人造成的伤害作为明显的例子。”
菲利克斯拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途,他写道:“任何使用我们技术的行为,包括军队,‘[开发]或[使用]武器、[伤害]他人或[破坏]财产,或[从事]违反任何服务或系统安全的未经授权的活动,'是不允许的。”
网络安全公司 Trail of Bits 的工程总监、机器学习和自主系统安全专家 Heidy Khlaaf 表示:“OpenAI 非常清楚在军事应用中使用其技术和服务可能产生的风险和危害。” ,引用2022 年的一篇论文她与 OpenAI 研究人员合着,特别标记了军事用途的风险。克拉夫补充说,新政策似乎更强调合法性而不是安全性。她说:“这两项政策之间存在明显区别,前者明确规定禁止武器开发、军事和战争,而后者则强调灵活性和遵守法律。” “开发武器以及开展与军事和战争有关的活动在不同程度上是合法的。对人工智能安全的潜在影响是巨大的。鉴于大语言模型(LLM)中存在众所周知的偏见和幻觉,并且总体上缺乏准确性,它们在军事战争中的使用只会导致不精确和有偏见的行动,可能会加剧伤害和平民伤亡。”
该政策的现实后果尚不清楚。去年,The Intercept 报道称,面对五角大楼和美国情报界日益浓厚的兴趣, OpenAI不愿透露是否会执行自己明确的“军事和战争”禁令。
AI Now 董事总经理莎拉·迈尔斯·韦斯特 (Sarah Myers West) 表示:“鉴于人工智能系统在加沙针对平民,现在是做出从 OpenAI 的允许使用政策中删除‘军事和战争’一词的决定的重要时刻。”研究所和联邦贸易委员会前人工智能政策分析师。“政策中的语言仍然含糊不清,并引发了人们对 OpenAI 打算如何执行的疑问。”
尽管目前 OpenAI 提供的任何产品都无法用于直接杀人,无论是军事上还是其他方式——ChatGPT 无法操纵无人机或发射导弹——任何军队都在从事杀人业务,或者至少保持杀人能力。像 ChatGPT 这样的法学硕士可以增强许多与杀戮相关的任务,例如编写代码或处理采购命令。对 OpenAI 提供的由 ChatGPT 驱动的定制机器人的审查表明,美国军事人员已经 使用加快文书工作的技术。直接协助美国作战的国家地理空间情报局已公开猜测使用 ChatGPT 来协助其人类分析师。即使 OpenAI 工具被部分军队部署用于非直接暴力目的,它们仍然会帮助一个主要目的是杀伤力的机构。
应 The Intercept 要求审查政策变化的专家表示,OpenAI 似乎正在悄悄削弱其反对与军队开展业务的立场。“我可以想象,从‘军事和战争’到‘武器’的转变为 OpenAI 提供了支持作战基础设施的空间,只要该应用程序不直接涉及狭义的武器开发,”名誉教授 Lucy Suchman 说道。兰卡斯特大学科学技术人类学博士。“当然,我认为你可以为作战平台做出贡献,同时声称不参与武器的开发或使用,这种想法是不诚实的,将武器从社会技术系统中移除——包括指挥和控制基础设施——它是社会技术系统的一部分”。苏奇曼是 20 世纪 70 年代以来的人工智能学者,也是国际机器人武器控制委员会成员,他补充道:“新政策文件通过专门关注武器来回避军事承包和作战行动问题,这似乎是合理的。”
Suchman 和 Myers West 都指出了 OpenAI 与主要国防承包商微软的密切合作关系,微软迄今为止已向这家法学硕士制造商投资了 130 亿美元,并转售该公司的软件工具。
这些变化发生之际,世界各地的军队都渴望采用机器学习技术来获得优势。五角大楼仍在试探性地探索如何使用 ChatGPT 或其他大型语言模型,这是一种可以快速、灵巧地生成复杂文本输出的软件工具。法学硕士接受大量书籍、文章和其他网络数据的培训,以便模拟人类对用户提示的反应。尽管像 ChatGPT 这样的法学硕士的输出通常非常令人信服,但它们是针对连贯性而不是对现实的牢固把握而优化的,并且经常遭受所谓的幻觉,从而使准确性和事实性成为问题。尽管如此,法学硕士快速摄取文本并快速输出分析(或至少是分析的模拟)的能力使他们自然适合数据密集的国防部。
尽管美国军方领导层的一些人表达了担忧鉴于法学硕士倾向于插入明显的事实错误或其他扭曲,以及使用 ChatGPT 分析机密或其他敏感数据可能带来的安全风险,五角大楼仍然普遍渴望采用人工智能工具。国防部副部长凯瑟琳·希克斯 (Kathleen Hicks) 在 11 月的讲话中表示人工智能是“我和劳埃德·奥斯汀部长从第一天起就一直在推动的以作战人员为中心的全面创新方法的关键部分”,尽管她警告说,目前的大多数产品“在技术上还不够成熟,无法满足要求”遵守我们的人工智能道德原则。”
去年,五角大楼可信人工智能和自主事务首席主任金伯利·萨布隆 (Kimberly Sablon)表示在夏威夷举行的一次会议上,“在我们如何利用 [ChatGPT] 等大型语言模型来破坏整个部门的关键功能方面,有很多好处。”
(谷歌翻译:OPENAI QUIETLY DELETES BAN ON USING CHATGPT FOR “MILITARY AND WARFARE”)