Anthropic与五角大楼AI交锋:军事AI规则主导权之争

2 小时前 AI快讯 4

AI初创公司Anthropic与美国五角大楼近期围绕AI技术在自主武器及监控领域的应用爆发激烈交锋,这场冲突绝非单纯技术分歧,更触及国家安全利益、企业技术控制权的核心矛盾,引发各界对全球军事AI规则制定主导权的深度审视。

2月27日,美国科技媒体TechCrunch曝光的一组内部通信文件显示,Anthropic高层曾在闭门会议中明确拒绝五角大楼提出的、将其Claude大语言模型用于自主武器系统决策模块的合作请求,这一直接表态正式将双方持续数月的分歧摆上台面。

Anthropic的强硬立场并非突发,作为以“AI安全”为核心差异化标签的初创公司,其独创的宪法AI框架始终将避免AI用于致命性暴力场景作为不可逾越的红线。而五角大楼则将AI视为未来军事优势的关键,正加速推动AI在自主无人战机、自主决策导弹系统、跨域大规模监控等领域的落地,试图通过技术升级重塑美军作战形态。

双方分歧的核心还不止于伦理边界——五角大楼要求Anthropic开放部分模型核心权重的访问权限,用于军事场景的定制化训练,这被Anthropic解读为对企业技术控制权的直接侵蚀。公司CEO Dario Amodei公开表示:“一旦核心技术被纳入军事体系,企业将失去对其应用场景的最终话语权,这完全违背我们创立时的安全承诺。”

在全球AI军备竞赛升温的背景下,头部AI公司正面临前所未有的两难困境:一方面,军事订单带来的巨额资金与资源支持对快速迭代技术极具吸引力;另一方面,坚持安全伦理则可能失去政府合作机会,甚至面临政策层面的限制。

Anthropic的选择凸显了AI初创公司与传统科技巨头的差异——后者如谷歌虽也曾因“Project Maven”军事AI项目引发内部员工抗议,但最终仍保留了部分非致命性军事合作。而Anthropic凭借其独立的治理结构与对安全的极致强调,选择站在五角大楼的对立面,这一决策也在AI行业引发连锁反应,已有多家小型AI安全初创公司公开声援Anthropic的立场。

这场冲突的影响早已超出美国本土。当前联合国正就《特定常规武器公约》框架下的自主武器监管进行多轮谈判,美国的立场将直接影响全球规则的走向。如果Anthropic的抵制迫使五角大楼调整AI军事化策略,可能推动更多国家加入限制致命性自主武器的阵营,进而规范全球军事AI的发展轨迹。

反之,若五角大楼通过政策或资本手段迫使AI公司妥协,将可能加速全球军事AI的无监管发展,引发新一轮技术军备竞赛。不少AI伦理学者警告,缺乏明确规则的军事AI应用,可能带来不可预测的地缘政治风险与人道主义危机,甚至突破人类对战争的基本伦理认知。

目前双方仍处于僵持状态,Anthropic已暂停与五角大楼所有涉及军事应用的合作谈判,而五角大楼则暗示可能转向其他AI供应商。有知情人士透露,五角大楼正在接触Palantir等深耕国防科技的公司,试图快速填补技术缺口。

另一种可能是双方达成有限妥协:Anthropic同意将AI技术用于军事后勤优化、非致命性情报分析等低风险场景,同时保留对致命性应用的绝对否决权。这一方案既满足五角大楼的部分需求,也能让Anthropic维持其安全底线,但如何平衡技术控制权与国家安全利益,仍需双方进行艰难协商。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创