登录体验完整功能(收藏、点赞、评论等)

美司法部回击Anthropic诉讼:Claude AI无缘美军作战系统

2026年3月,美国司法部正式回应AI初创公司Anthropic提起的诉讼,明确称将其列为供应链风险、排除出政府供应商名单的行为符合法律规定,并未侵犯该公司第一修正案权利,预测相关诉讼最终将败诉。本次纠纷起源于Anthropic限制旗下大语言模型Claude AI被用于军事领域的条款设定。

作为OpenAI最核心的竞品之一,Anthropic长期将负责任AI研发作为核心竞争力。其2025年推出的Claude 3系列大模型的用户协议中,明确写入禁止将模型用于武器研发、作战指挥、杀伤性武器辅助设计等军事场景。

在2025年末与美国国防部的相关合同谈判中,Anthropic始终拒绝删除这一限制条款,直接触发了特朗普政府此前发布的联邦供应商合规条款。2026年2月,美国联邦采购服务局正式将Anthropic列入“供应链风险名单”,要求所有联邦部门暂停采购该公司服务。Anthropic随后以“政府侵犯企业言论自由权”为由提起诉讼,认为军方的限制行为违反美国宪法第一修正案。

在本次公开的法庭回应文件中,司法部明确驳斥了Anthropic的违宪指控,称将企业列入供应链风险名单是联邦采购体系的常规合规动作,并未干预企业的产品规则设定,只是带有使用限制的产品无法满足国防采购的基本要求。

司法部进一步指出,作战系统对可靠性的要求近乎严苛,如果AI厂商保留的限制条款在战时被触发导致系统失灵,将可能造成无法挽回的作战损失,因此Anthropic的产品本身就不符合国防采购的准入标准,相关诉讼没有法律依据,大概率会以败诉告终。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创