登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

Anthropic被列风险实体 OpenAI接盘军方合作引争议

2026年3月,美国AI初创公司Anthropic因与美国国防部(DOD)的Claude大模型合作谈判破裂,被列入美国供应链风险实体名单,Anthropic已明确表示将提起司法上诉。竞争对手OpenAI迅速填补空白与美方达成合作,此举引发用户强烈反弹:官宣后ChatGPT卸载量激增295%,Claude登顶美国应用商店AI下载榜首位。

这场争端的核心从一开始就不是普通的商业谈判破裂,而是AI行业长期悬而未决的伦理边界冲突。Anthropic创立之初就以“负责任AI”为标签,明确将“禁止AI技术用于致命性军事用途”写入公司核心准则,本次谈判中,五角大楼提出修改合同条款,要求获得Claude大模型的更广泛使用权以适配各类国防项目,直接触碰了Anthropic的底线,导致谈判直接终止。

谈判破裂不到三天,美国国防部就将Anthropic正式列入供应链风险实体名单,这一激进操作也超出了硅谷行业的普遍预期。Anthropic官方随后发布声明,否认公司存在任何供应链风险,明确表示将通过司法渠道挑战这一不合理认定,目前相关诉讼程序已经启动。

在Anthropic出局后,OpenAI以超出行业预期的速度完成了接盘:谈判破裂不到48小时,OpenAI就官宣与美国国防部达成合作协议,拿下了原本拟给Anthropic的大模型合作项目。不过这一单迅速给OpenAI带来了始料未及的用户反噬——OpenAI此前也曾公开表态,坚持AI不用于致命性军事用途,此次态度急转弯直接点燃了用户情绪。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创