五角大楼升级AI监管博弈:限Anthropic周五松绑护栏,否则遭处罚

1 小时前 AI快讯 0

当地时间2月24日,五角大楼将与AI初创公司Anthropic的监管争议升级,要求后者在本周五前放宽AI系统的安全护栏,否则可能面临处罚。这一高风险博弈不仅引发了对政府科技话语权的讨论,也牵动着国防AI供应链依赖问题及投资者对相关赛道的信心走向。

国防AI供应链的平衡正在被一场高规格博弈打破——当地时间2月24日,五角大楼正式向AI初创公司Anthropic发出最后通牒,将双方围绕AI安全护栏的争议推向了临界点。不同于此前的协商沟通,此次五角大楼直接给出了明确的时限:本周五前必须调整AI系统的安全限制,否则将启动处罚程序。

这并非双方首次在AI安全问题上产生分歧。作为五角大楼国防AI项目的核心供应商之一,Anthropic的大模型技术被广泛应用于情报分析、战术决策辅助等军事场景。但Anthopic为AI系统设置的多层安全护栏——包括对敏感指令的过滤、基于“Constitutional AI”(即基于伦理准则训练的AI系统)的对齐机制等——在五角大楼看来,已成为限制AI在复杂军事任务中发挥效用的关键障碍。此次升级施压,五角大楼罕见动用了潜在处罚的威慑手段,凸显其在国防AI应用上的迫切需求。

面对五角大楼的强硬态度,Anthopic明确表示不会让步。这家以“Constitutional AI”伦理框架为核心竞争力的公司,始终将AI安全与人类价值对齐放在首位。在其公开立场中,放宽安全护栏可能导致AI系统被用于高风险军事行动,违背了公司创立之初的技术伦理承诺。此外,Anthopic背后的投资者阵营中,不乏对AI安全高度敏感的机构,这也成为其拒绝动摇的重要支撑。

这场博弈的影响早已超出两家机构的范畴。一方面,五角大楼的施压行为引发了关于政府科技话语权的讨论:当国防体系高度依赖商业AI供应商时,政府是否有权要求企业突破自身伦理框架?另一方面,国防科技领域的投资者也在密切关注事件走向:如果Anthopic最终因拒绝让步失去五角大楼订单或面临处罚,可能会引发市场对国防AI赛道稳定性的担忧,进而影响后续的资本流入。

目前,距离五角大楼给出的本周五时限已不足3天,双方仍未释放和解信号。这场AI监管博弈的最终结果,不仅将决定Anthropic在国防AI市场的命运,也将为全球范围内商业AI公司与政府国防需求的互动模式,树立一个关键的参考标杆。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创