AI安全的红线在后退吗?AI伦理的自主约束时代已经落幕?

2026-02-28 09:13  头条

近期,以「AI安全卫士」自居的Anthropic,在五角大楼的强硬施压下,不仅放宽了Claude的军事应用限制,还彻底放弃了2023年立下的「安全不达标就暂停训练」核心承诺。这是否意味着,AI伦理的自主约束时代已经落幕?

五角大楼的AI军备焦虑:从依赖到施压

五角大楼对Anthropic的强硬,本质是AI军备竞赛下的焦虑。此前双方已签署2亿美元合同,Claude是美军机密网络中唯一授权运行的AI模型,还曾参与委内瑞拉「马杜罗突袭」行动,其性能优势是军方依赖的核心。

但新任国防部长皮特·海格塞斯的备忘录打破了平衡--要求所有军方使用的AI必须移除所有限制。这背后,是美军希望AI能完全服务于军事决策,而非被企业的伦理条款束缚。更关键的是,五角大楼早已备好备胎:几乎同一时间,xAI与军方达成协议,Grok将完全开放军事用途。

这种「打拉结合」的策略,暴露了美军在AI供应链上的布局逻辑:既依赖头部AI公司的技术能力,又通过引入竞争避免被单一厂商绑架。对于Anthropic来说,拒绝就意味着失去2亿美元合同,甚至被打上「供应链风险」标签,彻底退出军方市场。