为什么 Anthropic 成了最后一个被逼表态者

 

 

为什么 Anthropic 成了最后一个被逼表态者

 

前言:Anthropic 在美国 AI 体系中的位置

 

Anthropic 属于全球极少数“基础模型提供者”,与 OpenAIGoogle(DeepMind)、Meta 同处第一梯队。其 Claude 系列已进入美国政府与大型企业核心系统。公司背后有亚马逊与谷歌的重资产级投入,在算力、云资源与模型规模上具备完整工业能力,因此它并非边缘玩家,而是美国 AI 供应链中的关键节点。

 

正因为如此,这次被国防部长当面下达“最后期限”的不是一家初创公司,而是美国人工智能产业链中的关键枢纽。

 

近日,美国国防部长 Pete Hegseth 向 Anthropic 下达最后期限:必须在规定时间内开放其模型,供军方“不受限制使用”,否则将面临合同取消、供应链风险认定,甚至可能被动用《Defense Production Act》。

 

这不是普通的商业谈判。

 

这是国家动员逻辑。

 

而更值得注意的是:在所有头部 AI 公司中,Anthropic 成了最后一个被逼到台前公开表态的对象。

 

原因并不复杂。

 

因为它是唯一仍试图保留“伦理缓冲区”的大模型公司。

 

一、其他人早已完成制度对齐

 

在此之前,美国主要 AI 平台事实上已经完成了与国家体系的整合。

 

OpenAI 已深度参与军方云系统与情报分析框架;

Google(含 DeepMind)恢复并扩大了国防 AI 合作;

Meta 开放模型权重供军方模拟与研究使用。

 

这些公司或多或少仍谈“伦理”,但在制度层面已接受一个现实:

 

AI 不再只是商业产品,而是国家能力的一部分。

 

换句话说,它们已经“入列”。

 

二、Anthropic 为什么例外

 

Anthropic 的特殊之处,不在技术,而在立场。

 

其 CEO Dario Amodei 是极少数仍坚持设立明确红线的头部 AI 领导者。

 

公司内部政策清楚写明两点不可跨越:

 

不参与完全自主的军事目标锁定与杀伤决策;

不参与对美国公民的国内监控。

 

这意味着什么?

 

意味着 Anthropic 并未拒绝军用 AI 本身——它接受战场辅助、情报整理、作战规划、模拟推演等应用——但拒绝成为:

 

自动杀人引擎,

或国内监控中枢。

 

在当前环境下,这已经是极其克制、也极其孤立的立场。

 

三、为什么五角大楼必须逼它表态

 

从美国国防体系视角看,Anthropic 已经变成:

 

供应链中的“异常节点”。

 

这正是新闻中出现“designate supply chain risk”(指定为供应链风险)的原因。

 

现代国家对关键供应链里的异常节点,处理方式只有两种:

 

吸收。

排除。

 

不存在第三条路。

 

当港口、电网、芯片、云计算都已纳入国家安全框架时,大模型若仍保持“半独立状态”,就会被视为结构性风险。

 

因此,对 Anthropic 的施压,并不是针对某一家公司的偶发行为,而是补齐整条“AI 主权化链条”的最后一块拼图。

 

四、《国防生产法》的真正含义

 

这次威胁中最重的一句,是可能动用《国防生产法》。

 

这部法律原本用于:

 

二战军工动员;

冷战核体系;

疫情医疗物资;

芯片紧急生产。

 

现在第一次被明确指向:

 

大型语言模型。

 

其制度含义非常清晰:

 

即使企业不同意,国家也可以依法强制调度其产品与能力。

 

这已经不是合作,而是准征用。

 

这标志着 AI 正式进入:

 

国家武器体系预备役。

 

五、这不是针对 Anthropic,而是时代已经改变

 

所以,Anthropic 成为最后一个被逼表态者,并非因为它最危险,也不是因为它最重要。

 

而是因为:

 

它是唯一仍试图保留伦理边界的头部模型公司。

 

在大国竞争进入基础设施层级之后,这种“中间状态”不可接受。

 

要么进入国家体系,

要么被定义为风险源。

 

商业中立,在这个阶段已经失效。

 

六、AI 正在回归国家

 

这件事真正宣告的,不是某家公司命运,而是一个时代的结束:

 

AI 不再是创业赛道;

不再只是平台竞争;

不再由市场单独决定走向。

 

它正在被重构为主权工具。

 

就像港口回归国家,

能源回归国家,

芯片回归国家,

 

现在轮到:

 

人工智能。

 

Anthropic 的困境,只是这条制度回收线上的一个节点。

请您先登陆,再发跟帖!