2026年2月27日,美国战争部长Pete Hegseth通过X平台宣布,将AI初创公司Anthropic列为供应链风险。这一决定源于双方数月谈判的破裂——Anthropic要求为其大语言模型Claude增加两项合法使用例外条款,其中包括限制大规模国内监控场景的使用,但未能与美方达成共识。Anthropic当日发布官方声明回应,并向客户提出合规建议。
当地时间2月27日清晨,美国战争部长Pete Hegseth的X账号更新了一条简短却分量十足的动态:他正指示美国战争部将Anthropic正式纳入供应链风险清单。这条消息瞬间在全球AI行业引发震动——Anthropic凭借其自研的Claude系列大语言模型,早已跻身全球顶尖AI阵营,更是美国政府潜在的关键AI技术合作方之一。
据Anthropic发布的官方声明,此次冲突并非突发,而是双方持续近三个月谈判陷入死局的最终结果。谈判的分歧核心聚焦在Anthropic提出的两项Claude合法使用例外条款上。其中最受外界关注的一项,是明确禁止将Claude用于大规模国内监控场景——这与Anthropic创立之初便秉持的“AI伦理优先、守护用户隐私”核心承诺高度契合。但美国战争部显然无法接受这一限制,双方在多轮沟通后仍未能找到利益平衡点,最终导致谈判彻底破裂。
被美国战争部列为供应链风险,对Anthropic而言无疑是一次重大打击。这一定性意味着,美国政府及相关合作机构将被限制与Anthropic开展技术合作,甚至可能直接影响该公司与国防相关的商业订单。更值得全行业警惕的是,这一事件暴露了AI企业在与政府部门合作时的两难境地:一方面,政府订单是AI技术落地的关键场景,能为企业带来稳定的营收与技术验证机会;另一方面,坚守自身伦理准则可能与政府的安全需求产生直接冲突。
在发布的声明中,Anthropic不仅详细说明了谈判的来龙去脉,还针对其全球客户群体提出了具体的应对建议。虽然声明未披露建议的具体内容,但结合事件背景,业内普遍推测这可能包括帮助客户评估现有合作中的合规风险,以及调整Claude在敏感场景下的部署策略,以规避潜在的政策风险。同时,Anthropic也重申了其坚守AI伦理底线的立场,表示不会为了商业利益放弃对用户隐私与权利的保护。
此次Anthropic与美国战争部的冲突,并非AI行业与政府监管博弈的个例。随着AI技术在国家安全、公共治理等领域的应用不断深入,政府监管需求与AI企业伦理准则之间的碰撞将愈发频繁。如何在满足公共安全需求的同时,保障AI技术的伦理底线,成为全球AI行业共同面临的长期课题。这也倒逼AI企业在技术研发之初,就将合规性与伦理设计纳入核心框架,以应对复杂多变的政策环境。