美国AI初创巨头Anthropic近日明确拒绝五角大楼提出的“可为所有合法目的无限制使用其AI技术”的服务条款,双方就此陷入博弈。五角大楼称条款合理且不会让企业参与作战决策制定,还提及已作出实质性让步并提供伦理委员会席位;Anthropic则坚持需先完善AI安全保障机制再谈合作,这一事件凸显AI领域安全规范与军事应用需求的核心矛盾。
当地时间近日,美国AI初创巨头Anthropic的一份拒绝声明,将AI技术的安全边界与军事应用需求的矛盾推向台前——这家以开发安全大模型著称的企业,直接否决了五角大楼提出的服务条款核心要求:允许国防部为所有合法目的无限制使用其AI技术。
五角大楼方面迅速做出回应,称相关要求“完全合理”,并强调不会让AI企业参与作战决策条款的制定,同时透露已对Anthropic作出实质性让步,包括提供五角大楼内部伦理委员会的参与席位,试图打消企业对技术被滥用的顾虑。
但Anthropic并未松口,其核心坚持是“必须先完善AI安全保障机制”。在他们看来,当前AI技术的安全护栏仍存在漏洞,若同意无限制使用权,可能导致技术被应用于超出可控范围的场景,违背其创立时就确立的“安全优先”的发展原则。这种底线思维,成为双方无法达成共识的核心障碍。
作为全球头部AI初创企业,Anthropic此次拒绝五角大楼的合作要求,无疑向整个AI行业释放了一个明确信号:商业利益或军事需求,不能凌驾于AI安全与伦理规范之上。
此前已有多家AI企业在与军事机构合作时设立安全条款,但Anthropic的直接拒绝更具标志性——它代表着头部AI企业开始主动划定与军事应用的边界,而非被动接受条款约束。这种做法可能会成为行业榜样,推动更多AI企业在技术输出时,将安全评估放在首要位置。
目前双方的博弈仍处于僵持状态,但并非没有妥协空间。五角大楼若调整条款,明确AI技术的军事应用范围并增加安全约束,Anthropic在完善安全保障机制后,也可能重新评估合作可能性。
这一事件的更大意义,在于推动全球AI行业重新审视军事应用的伦理框架。随着大模型技术的普及,AI在军事领域的应用已成必然趋势,但如何在满足国防需求的同时,建立可落地的安全规范,将是未来AI行业与政府机构共同需要解决的核心问题。