五角大楼强压Anthropic解除Claude军事限制,AI安全承诺妥协

1 天前 AI快讯 5

美国五角大楼近日向AI初创公司Anthropic施加极限压力,要求其在周六前彻底解除旗下大语言模型Claude的所有军事应用安全限制。面对政治与商业双重压力,Anthropic最终妥协,发布新版政策并正式放弃此前“单方面暂停大模型训练”的AI安全承诺,AI领域的安全理想主义遭遇现实重击。

两天前,美国五角大楼一间气氛冷硬的会议室里,Anthropic的核心团队正面临来自军方的极限施压——对方要求他们在本周六前,彻底解除旗下大语言模型Claude的所有军事应用安全限制。没有缓冲余地的要求,让这家以AI安全为核心理念的初创公司陷入了前所未有的两难境地。

近年来,美国五角大楼一直在加速推进AI技术在军事领域的落地应用,从情报分析、战场决策辅助到自主武器系统开发,AI被视为重塑军事优势的关键变量。Anthropic旗下的Claude凭借长文本处理、复杂逻辑推理等核心能力,恰好契合军方在情报解读、战略模拟等场景的需求。此次极限施压,本质上是五角大楼试图将顶尖AI技术直接纳入军事体系的强硬举措,没有给企业留下过多谈判空间。

作为由OpenAI前核心员工创立的AI公司,Anthropic自成立起就将AI安全视为核心发展原则。此前,公司曾明确作出“单方面暂停大模型训练”的承诺,旨在防范AI模型失控带来的潜在风险。然而,面对五角大楼的政治压力,以及可能波及商业发展的连锁影响——比如失去政府合作机会、市场准入受限等,Anthropic最终选择低头。在最新发布的政策中,公司正式放弃了这一安全承诺,标志着其AI安全理想主义向现实的彻底妥协。

此次事件也暴露了AI行业面临的深层困境:当AI技术的安全标准遭遇政治与商业的双重裹挟时,企业的自主选择权正在被压缩。此前,AI行业的安全规范更多由企业和科研机构主导,但随着各国政府越来越重视AI的战略价值,政治力量正在深度介入AI技术的发展方向。Anthropic的妥协可能会引发连锁反应,未来或许会有更多AI公司被迫调整安全策略,AI安全的行业共识面临被打破的风险。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创