2026年2月27日,AI初创公司Anthropic公开拒绝美国国防部提出的“为所有合法目的无限制使用其AI技术”的要求,即便面临军方压力及“提供伦理委员会席位”等所谓实质性让步,该公司仍强硬表态威胁不会改变其立场,争议焦点直指AI技术军事应用的权限边界,Anthropic呼吁五角大楼重新审视相关条款并建立完善安全保障机制。
当五角大楼的服务条款摆在Anthropic团队面前时,“为所有合法目的无条件开放AI技术使用权”的表述立刻触发了这家公司的红线预警。作为以Constitutional AI伦理框架为核心竞争力的AI初创企业,Anthropic对AI技术的应用边界始终保持高度警惕,此次面对军方的强硬要求,他们没有选择妥协。
五角大楼的要求看似措辞中性——“为所有合法目的”开放AI技术权限,但在Anthropic看来,这一表述模糊了军事应用与民用场景的边界,本质是要求其AI技术被无限制用于包括作战决策在内的所有军方行动。五角大楼发言人甚至强硬表态,“不会让任何公司为我们的作战决策制定条款”,将争议推向AI技术权属与国家安全需求的对立面。
Anthropic的强硬态度并非一时冲动,而是源于其成立之初就确立的AI安全理念。该公司由OpenAI前核心成员创立,主打Claude系列大语言模型,始终将AI的伦理对齐放在技术研发的首位。面对五角大楼抛出的“提供伦理委员会席位”等让步条件,Anthropic明确表示,这些优待无法弥补“无限制使用权”带来的安全风险,“威胁不会改变我们的立场”的表态,更是彰显了其在伦理问题上的坚定。
此次事件不仅是两家机构的权限争议,更折射出全球AI领域的深层矛盾:当政府部门尤其是军方试图将AI技术纳入国家安全体系时,AI企业如何在商业合作、伦理底线与社会责任之间找到平衡。Anthropic呼吁五角大楼重新审视相关条款,本质是希望推动建立更具约束力的AI军事应用规范,避免技术被滥用的风险。这一呼吁也为其他AI企业提供了参考——在与政府合作时,不应放弃对技术应用边界的话语权。