当地时间2月24日,五角大楼将与AI初创公司Anthropic的监管争议升级,要求后者在本周五前放宽AI系统的安全护栏,否则可能面临处罚。这一高风险博弈不仅引发了对政府科技话语权的讨论,也牵动着国防AI供应链依赖问题及投资者对相关赛道的信心走向。 国防AI供应链的平衡正在被一场高规格博弈打破——当地时间2月24日,五角大楼正式向AI初创公司Anthropic发出最后通牒,将双方围绕AI安全护栏的争议推向了临界点。不同于此前的协商沟通,此次五角大楼直接给出了明确的时限:本周五前必须调整AI系统的安全限制,否则将启动处罚程序。 这并非双方首次在AI安全问题上产生分歧。作为五角大楼国防AI项目的核心供应商之一,Anthropic的大模型技术被广泛应用于情报分析、战术决策辅助等军事场景。但Anthopic为AI系统设置的多层安全护栏——包括对敏感指令的过滤、基于“Constitutional AI”(即基于伦理准则训练的AI系统)的对齐机制等——在五角大楼看来,已成为限制AI在复杂军事任务中发挥效用的关键障碍。此次升级施压,五角大楼罕见动用了潜在处罚的威慑手段,凸显其在国防AI应用上的迫切需求...