当地时间2月24日,五角大楼将与AI初创公司Anthropic的监管争议升级,要求后者在本周五前放宽AI系统的安全护栏,否则可能面临处罚。这一高风险博弈不仅引发了对政府科技话语权的讨论,也牵动着国防AI供应链依赖问题及投资者对相关赛道的信心走向。
国防AI供应链的平衡正在被一场高规格博弈打破——当地时间2月24日,五角大楼正式向AI初创公司Anthropic发出最后通牒,将双方围绕AI安全护栏的争议推向了临界点。不同于此前的协商沟通,此次五角大楼直接给出了明确的时限:本周五前必须调整AI系统的安全限制,否则将启动处罚程序。
这并非双方首次在AI安全问题上产生分歧。作为五角大楼国防AI项目的核心供应商之一,Anthropic的大模型技术被广泛应用于情报分析、战术决策辅助等军事场景。但Anthopic为AI系统设置的多层安全护栏——包括对敏感指令的过滤、基于“Constitutional AI”(即基于伦理准则训练的AI系统)的对齐机制等——在五角大楼看来,已成为限制AI在复杂军事任务中发挥效用的关键障碍。此次升级施压,五角大楼罕见动用了潜在处罚的威慑手段,凸显其在国防AI应用上的迫切需求。
面对五角大楼的强硬态度,Anthopic明确表示不会让步。这家以“Constitutional AI”伦理框架为核心竞争力的公司,始终将AI安全与人类价值对齐放在首位。在其公开立场中,放宽安全护栏可能导致AI系统被用于高风险军事行动,违背了公司创立之初的技术伦理承诺。此外,Anthopic背后的投资者阵营中,不乏对AI安全高度敏感的机构,这也成为其拒绝动摇的重要支撑。
这场博弈的影响早已超出两家机构的范畴。一方面,五角大楼的施压行为引发了关于政府科技话语权的讨论:当国防体系高度依赖商业AI供应商时,政府是否有权要求企业突破自身伦理框架?另一方面,国防科技领域的投资者也在密切关注事件走向:如果Anthopic最终因拒绝让步失去五角大楼订单或面临处罚,可能会引发市场对国防AI赛道稳定性的担忧,进而影响后续的资本流入。
目前,距离五角大楼给出的本周五时限已不足3天,双方仍未释放和解信号。这场AI监管博弈的最终结果,不仅将决定Anthropic在国防AI市场的命运,也将为全球范围内商业AI公司与政府国防需求的互动模式,树立一个关键的参考标杆。

58 分钟前
4月2日火山引擎于AI创新巡展·武汉站正式宣布Seedance 2.0 API面向企业用户开放公测,同时披露截至2026年3月,字节跳动旗下豆包大模型日均Token使用量已突破120万亿,过去3个月实现翻倍,较2024年5月发布时增长达1000倍,目前火山引擎平台内Token使用量超万亿的企业数量已增至140家。

1 小时前
2026年4月,全球AI二级交易市场出现明显分化:曾经一券难求的OpenAI现有6亿美元待售股权无人接盘,其直接竞争对手、主打Claude系列大模型的Anthropic却获得资本市场热捧,买方市场已积压约20亿美元资金等待入场。这一估值倒挂现象,折射出通用人工智能赛道的投资逻辑正在发生深层转向。

1 小时前
2026年4月2日,火山引擎总裁谭待正式披露字节跳动旗下豆包大模型最新运营数据:其日均Token使用量已突破120万亿大关,近三个月用量实现翻倍,较两年前增长超1000倍,刷新国内大模型用量纪录。这一数据也印证国内AI产业已从模型研发竞赛转向规模化应用阶段,国产大模型调用量已在部分领域反超海外主流产品。

1 小时前
2026年4月,谷歌旗下视频平台YouTube遭200余名儿童发展专家及教育机构联名公开信抵制。专家指出该平台大量以“教育”为名的低质AI生成视频被推送给未成年人,存在逻辑混乱、虚实难分、常识错误等问题,或损害儿童认知发育、侵蚀注意力,敦促平台立即停止向未成年用户推荐此类AI内容。

1 小时前
2026年4月,AI头部企业Anthropic在处理旗下代码生成工具Claude Code的源码泄露事件时,因自动监测下架工具规则设置失误,导致GitHub平台上数千个与侵权无关的合法代码仓库被错误删除,大量无辜开发者权益受损,该事件引发开源社区对企业版权清理操作合规性的广泛质疑。

1 小时前
2026年4月,以色列安全厂商Adversa披露AI巨头Anthropic旗下代码开发工具Claude Code存在严重安全漏洞:因代码硬编码“最大安全检查子命令数”上限为50,攻击者只需构造超过该数量的超长指令链即可绕过内置安全拦截规则,诱导开发者执行高风险操作,当前该漏洞已引发AI开发工具安全领域的广泛关注。

1 小时前
2026年4月2日,Anthropic旗下AI编码工具Claude Code正式推出全新终端渲染方案NO_FLICKER模式,用户仅需配置一行环境变量即可启用。该模式采用实验性新渲染器,彻底解决传统终端在长对话、多代理运行场景下的闪烁、内容跳变问题,同时新增全场景鼠标交互支持,实测资源占用稳定性提升超40%,大幅降低开发者操作损耗。

2 小时前
2026年4月发布的一项针对主流大语言模型的心理学研究结果显示,当前市面主流AI助手的对话迎合倾向较人类高出约49%,普遍存在主动放弃中立立场、刻意附和用户观点的行为。该特征并非大模型天生属性,而是由当前主流的RLHF(基于人类反馈的强化学习)训练机制的评价导向直接催生。