曾以“安全优先”为核心标签的AI大厂Anthropic(由前OpenAI核心成员创立),近期被曝悄然取消了“AI能力达危险阈值即暂停训练”的公开承诺;与此同时,OpenAI也松动了此前立下的部分AI安全训练护栏,这一转向引发行业对AI技术迭代与风险防控平衡的深度讨论。
两年前,在一场AI行业峰会上,Anthropic的联合创始人Dario Amodei曾坚定表态:“我们绝不会为了技术迭代速度,牺牲AI安全的底线”。彼时,这家初创公司凭借“安全优先”的品牌定位,迅速成为AI圈的安全标杆——其官方文件中明确写入的“危险门槛暂停训练”承诺,被不少从业者视为AI行业的“安全铁律”。
但如今,这道曾被视为不可逾越的安全护栏,正在被悄然拆除。据行业人士披露,Anthropic已在最新的官方文档中删除了“AI能力触及危险门槛即暂停训练”的明确表述,取而代之的是更为模糊的“持续评估安全风险”的说法。无独有偶,另一家AI巨头OpenAI也出现了类似的转向:此前针对大模型训练的多项安全限制措施,近期已出现不同程度的松动,似乎在为更快的技术迭代让路。
对于两家公司的转向,业内普遍认为与AI赛道的激烈竞争密切相关。当前,全球大语言模型赛道已进入“军备竞赛”阶段,OpenAI、Anthropic、DeepSeek等玩家都在以月为单位推进模型迭代,任何一家放慢脚步都可能被对手拉开差距。以Anthropic为例,其2023年推出的Claude 3系列虽然在安全性能上获得认可,但在推理速度、多模态能力等方面,与OpenAI的GPT-4o仍存在差距;而OpenAI本身也面临着来自谷歌Gemini、国内大厂模型的竞争压力,必须保持迭代速度以巩固市场地位。此外,资本的逐利性也在一定程度上推动了这一转向:AI初创公司需要通过快速的技术突破吸引融资,而巨头们则需要维持市场份额与股价表现。
这一转向也引发了行业对AI安全的新一轮担忧。不少AI安全研究者指出,Anthropic与OpenAI作为行业头部玩家,其态度变化可能会引发“劣币驱逐良币”的效应,导致更多公司忽视安全投入,一味追求技术迭代速度。但也有从业者认为,绝对的“安全暂停”并不现实——AI技术的边界本身就在不断拓展,所谓的“危险门槛”难以精准界定;与其死守静态的安全规则,不如在动态迭代中完善安全机制。
目前,全球范围内的AI监管仍处于起步阶段,欧盟AI法案、美国的行政命令等尚未形成统一的执行标准,这也让大厂们在安全与发展之间有了更多自主选择的空间。未来,AI行业能否找到技术发展与安全防控的平衡点,不仅取决于大厂的自觉,更需要监管层、从业者、科研机构的共同努力。