登录体验完整功能(收藏、点赞、评论等)

五角大楼启动程序 拟将AI企业Anthropic列为供应链风险

美国国防部(五角大楼)于2026年2月27日启动正式程序,拟将AI初创企业Anthropic列为供应链风险,并通过官方渠道发布强硬声明称“我们不需要、不想要,且不会再与其开展业务”。这一突发行动彻底斩断了Anthropic与美军方的合作可能,也为AI企业拓展国防领域业务敲响了合规警钟,引发全球科技圈广泛关注。

2026年2月27日,TechCrunch的独家报道打破AI领域的平静:美国国防部(五角大楼)已正式启动行政流程,将以“安全对齐”为核心卖点的AI初创Anthropic纳入供应链风险清单,相关负责人在公开平台发布的声明措辞之强硬,远超行业预期。

美军方的供应链风险认定绝非普通的合作终止,而是直接将企业纳入国防采购的“受限清单”范畴。根据美军方相关规定,一旦认定完成,Anthropic不仅当前所有在途军方合作项目会被立即叫停,未来至少3年内将彻底失去参与美军方及关联政府部门任何AI项目的资格。

作为OpenAI前核心团队创立的AI企业,Anthropic主打Claude系列大语言模型,以“可解释性”“安全对齐机制”为差异化竞争优势,此前曾多次透露正布局国防领域的AI解决方案,试图在军工AI赛道抢占份额。此次禁令无疑是对其业务布局的重大打击。

五角大楼声明中“不需要、不想要、不再合作”的三连否定,透露出对Anthropic的彻底排斥。行业分析人士推测,此次风险认定的核心矛盾大概率集中在合规层面——要么是Anthropic的训练数据来源存在透明度缺陷,违反美军方对AI系统数据溯源的严格要求;要么是模型部署过程中存在未披露的安全漏洞,无法满足军方对AI系统的安全标准。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创