为什么 Anthropic 成了最后一个被逼表态者
前言:Anthropic 在美国 AI 体系中的位置
Anthropic 属于全球极少数“基础模型提供者”,与 OpenAI、Google(DeepMind)、Meta 同处第一梯队。其 Claude 系列已进入美国政府与大型企业核心系统。公司背后有亚马逊与谷歌的重资产级投入,在算力、云资源与模型规模上具备完整工业能力,因此它并非边缘玩家,而是美国 AI 供应链中的关键节点。
正因为如此,这次被国防部长当面下达“最后期限”的不是一家初创公司,而是美国人工智能产业链中的关键枢纽。
近日,美国国防部长 Pete Hegseth 向 Anthropic 下达最后期限:必须在规定时间内开放其模型,供军方“不受限制使用”,否则将面临合同取消、供应链风险认定,甚至可能被动用《Defense Production Act》。
这不是普通的商业谈判。
这是国家动员逻辑。
而更值得注意的是:在所有头部 AI 公司中,Anthropic 成了最后一个被逼到台前公开表态的对象。
原因并不复杂。
因为它是唯一仍试图保留“伦理缓冲区”的大模型公司。
一、其他人早已完成制度对齐
在此之前,美国主要 AI 平台事实上已经完成了与国家体系的整合。
OpenAI 已深度参与军方云系统与情报分析框架;
Google(含 DeepMind)恢复并扩大了国防 AI 合作;
Meta 开放模型权重供军方模拟与研究使用。
这些公司或多或少仍谈“伦理”,但在制度层面已接受一个现实:
AI 不再只是商业产品,而是国家能力的一部分。
换句话说,它们已经“入列”。
二、Anthropic 为什么例外
Anthropic 的特殊之处,不在技术,而在立场。
其 CEO Dario Amodei 是极少数仍坚持设立明确红线的头部 AI 领导者。
公司内部政策清楚写明两点不可跨越:
不参与完全自主的军事目标锁定与杀伤决策;
不参与对美国公民的国内监控。
这意味着什么?
意味着 Anthropic 并未拒绝军用 AI 本身——它接受战场辅助、情报整理、作战规划、模拟推演等应用——但拒绝成为:
自动杀人引擎,
或国内监控中枢。
在当前环境下,这已经是极其克制、也极其孤立的立场。
三、为什么五角大楼必须逼它表态
从美国国防体系视角看,Anthropic 已经变成:
供应链中的“异常节点”。
这正是新闻中出现“designate supply chain risk”(指定为供应链风险)的原因。
现代国家对关键供应链里的异常节点,处理方式只有两种:
吸收。
排除。
不存在第三条路。
当港口、电网、芯片、云计算都已纳入国家安全框架时,大模型若仍保持“半独立状态”,就会被视为结构性风险。
因此,对 Anthropic 的施压,并不是针对某一家公司的偶发行为,而是补齐整条“AI 主权化链条”的最后一块拼图。
四、《国防生产法》的真正含义
这次威胁中最重的一句,是可能动用《国防生产法》。
这部法律原本用于:
二战军工动员;
冷战核体系;
疫情医疗物资;
芯片紧急生产。
现在第一次被明确指向:
大型语言模型。
其制度含义非常清晰:
即使企业不同意,国家也可以依法强制调度其产品与能力。
这已经不是合作,而是准征用。
这标志着 AI 正式进入:
国家武器体系预备役。
五、这不是针对 Anthropic,而是时代已经改变
所以,Anthropic 成为最后一个被逼表态者,并非因为它最危险,也不是因为它最重要。
而是因为:
它是唯一仍试图保留伦理边界的头部模型公司。
在大国竞争进入基础设施层级之后,这种“中间状态”不可接受。
要么进入国家体系,
要么被定义为风险源。
商业中立,在这个阶段已经失效。
六、AI 正在回归国家
这件事真正宣告的,不是某家公司命运,而是一个时代的结束:
AI 不再是创业赛道;
不再只是平台竞争;
不再由市场单独决定走向。
它正在被重构为主权工具。
就像港口回归国家,
能源回归国家,
芯片回归国家,
现在轮到:
人工智能。
Anthropic 的困境,只是这条制度回收线上的一个节点。