少找工具,多做创作

Anthropic起诉美国政府 五角大楼拉黑Claude引爆AI伦理博弈

当地时间2026年3月9日,人工智能初创公司Anthropic正式向加州联邦地区法院提起诉讼,反对特朗普政府将其旗下大语言模型Claude列入国防供应链黑名单。此前Claude曾是唯一获准接入五角大楼机密网络的AI模型,本次双方从深度合作转向对簿公堂,直接暴露了AI军事应用与伦理边界的核心矛盾,也引发全球AI行业对技术落地底线的广泛讨论。

在五角大楼的供应链管控体系中,“供应链风险”的标签过去只被贴给被美国视为对手的外国企业,从未有过本土科技公司被列入该清单的先例——直到Anthropic成了第一个吃螃蟹的对象。

就在起诉前一个月,Anthropic还是美国国防部联合全域指挥控制(JADC2)项目的核心合作方,其自研的Claude系列大模型是唯一通过五角大楼涉密安全评估、获准接入军方机密网络的通用大模型,甚至曾被用于协助推演特定区域高价值目标的打击方案,是美国军方AI落地的标杆性合作案例。

双方的蜜月期在2026年2月的合同续签谈判中彻底破裂。上周四美国国防部正式公示的供应链风险清单中,Anthropic赫然在列,这意味着所有承接美国国防项目的承包商,都必须出具未使用Claude相关技术的证明,否则将失去参与军方项目的资格。

根据Anthropic向法院提交的诉讼文件显示,双方的矛盾核心来自五角大楼对Claude的功能修改要求:军方希望Anthropic调整其宪法AI伦理框架,放宽对军事用途的限制,允许Claude接入实时战场数据,直接辅助火力分配、目标判定等作战决策,而这一要求直接越过了Anthropic成立之初设定的“不开发杀伤性武器相关技术”的核心红线。

值得注意的是,本次美国政府给Anthropic贴上的“供应链风险”标签,此前从未适用于美国本土企业,通常只用来制裁被美国认定存在安全威胁的境外实体。Anthropic在诉讼中表示,该认定没有任何事实依据,是对企业自主选择权的恶意侵犯。

本次诉讼并不是AI行业第一次与军事用途需求产生冲突,此前OpenAI、DeepMind等头部AI企业都曾因员工抗议,终止过部分与军方合作的武器相关研发项目,但Anthropic是首个选择以法律诉讼的方式公开对抗美国政府相关要求的主流AI厂商。

有行业分析师指出,本次诉讼的结果将直接影响美国AI行业的发展走向:如果Anthropic胜诉,将为所有AI企业争取到拒绝不合理军事用途要求的法律先例;如果败诉,未来美国AI厂商可能将被迫向军方开放核心技术能力,而这也会进一步加剧全球对AI技术军备化的担忧。

目前欧洲已经在《人工智能法案》中明确划定了自主杀伤性AI武器的禁令,而美国联邦层面至今尚未出台统一的AI军事应用监管规则,本次事件也被视为倒逼美国相关立法加速落地的关键节点。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创