当地时间3月1日,OpenAI就前一日与美国国防部达成的机密网络AI部署协议公开辩护,明确协议设置三条严格安全红线,禁止技术用于大规模国内监控、自主武器指挥及高风险自动化决策,并强调自身协议的安全防护更全面,且对安全体系拥有完全自主权。此前一日,特朗普政府下令停止与Anthropic合作,五角大楼将其列为供应链风险,事件引发AI行业广泛关注。
2月29日,美国总统唐纳德·特朗普签署行政命令,要求联邦政府立即终止与AI初创公司Anthropic的所有合作,五角大楼随即宣布将Anthropic纳入供应链风险清单。这一突发决定毫无预兆,瞬间在全球AI行业引发震动,不少从业者担忧这会重塑AI公司与政府合作的安全合规标准。
面对五角大楼的风险认定,Anthropic第一时间表态将通过法律途径提出异议。截至目前,五角大楼尚未披露具体的风险判定依据,但外界普遍猜测,此次事件或与Anthropic此前与政府合作中的安全防护条款存在漏洞有关。作为OpenAI的核心竞争对手,Anthropic凭借Claude系列大语言模型快速崛起,此次遭遇无疑会对其政府合作项目、商业信誉造成连锁冲击。
就在Anthropic陷入危机的次日,OpenAI迅速为自身与国防部的合作协议站台。据OpenAI披露,其与国防部的协议明确设置三条核心安全红线:禁止将AI技术用于大规模国内监控、禁止用于指挥自主武器系统、禁止用于高风险自动化决策。
OpenAI强调,这三条红线覆盖了AI军事应用中最具伦理争议的核心领域,相比Anthropic的合作条款,自身协议的安全防护措施更为全面。更关键的是,OpenAI对自身的安全审核体系拥有完全自主权,无需受制于外部机构干预,这意味着其可根据技术迭代随时调整安全标准,进一步压缩风险空间。
两大AI巨头的境遇反差,折射出全球AI行业在军事应用领域的深层伦理博弈。随着AI技术成熟度提升,美国国防部等军事机构对AI工具的需求日益迫切,但AI技术的不可控性始终是行业担忧的核心议题。
OpenAI设置的三条安全红线,试图在技术应用与伦理风险之间划出清晰边界,但也有业内人士指出,部分条款仍存在模糊地带——例如“高风险自动化决策”的定义未被明确,后续执行中可能存在弹性空间。而Anthropic的遭遇,则为所有涉足政府合作的AI公司敲响警钟:安全合规已成为进入公共服务、军事领域的首要门槛。