登录体验完整功能(收藏、点赞、评论等)

Anthropic遭美战争部列为供应链风险,Claude伦理条款谈判陷僵局

2026年2月27日,美国战争部长Pete Hegseth通过X平台宣布,将AI初创公司Anthropic列为供应链风险。这一决定源于双方数月谈判的破裂——Anthropic要求为其大语言模型Claude增加两项合法使用例外条款,其中包括限制大规模国内监控场景的使用,但未能与美方达成共识。Anthropic当日发布官方声明回应,并向客户提出合规建议。

当地时间2月27日清晨,美国战争部长Pete Hegseth的X账号更新了一条简短却分量十足的动态:他正指示美国战争部将Anthropic正式纳入供应链风险清单。这条消息瞬间在全球AI行业引发震动——Anthropic凭借其自研的Claude系列大语言模型,早已跻身全球顶尖AI阵营,更是美国政府潜在的关键AI技术合作方之一。

据Anthropic发布的官方声明,此次冲突并非突发,而是双方持续近三个月谈判陷入死局的最终结果。谈判的分歧核心聚焦在Anthropic提出的两项Claude合法使用例外条款上。其中最受外界关注的一项,是明确禁止将Claude用于大规模国内监控场景——这与Anthropic创立之初便秉持的“AI伦理优先、守护用户隐私”核心承诺高度契合。但美国战争部显然无法接受这一限制,双方在多轮沟通后仍未能找到利益平衡点,最终导致谈判彻底破裂。

被美国战争部列为供应链风险,对Anthropic而言无疑是一次重大打击。这一定性意味着,美国政府及相关合作机构将被限制与Anthropic开展技术合作,甚至可能直接影响该公司与国防相关的商业订单。更值得全行业警惕的是,这一事件暴露了AI企业在与政府部门合作时的两难境地:一方面,政府订单是AI技术落地的关键场景,能为企业带来稳定的营收与技术验证机会;另一方面,坚守自身伦理准则可能与政府的安全需求产生直接冲突。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创