登录体验完整功能(收藏、点赞、评论等)

安全标杆动摇?Anthropic、OpenAI松动AI训练安全承诺

曾以“安全优先”为核心标签的AI大厂Anthropic(由前OpenAI核心成员创立),近期被曝悄然取消了“AI能力达危险阈值即暂停训练”的公开承诺;与此同时,OpenAI也松动了此前立下的部分AI安全训练护栏,这一转向引发行业对AI技术迭代与风险防控平衡的深度讨论。

两年前,在一场AI行业峰会上,Anthropic的联合创始人Dario Amodei曾坚定表态:“我们绝不会为了技术迭代速度,牺牲AI安全的底线”。彼时,这家初创公司凭借“安全优先”的品牌定位,迅速成为AI圈的安全标杆——其官方文件中明确写入的“危险门槛暂停训练”承诺,被不少从业者视为AI行业的“安全铁律”。

但如今,这道曾被视为不可逾越的安全护栏,正在被悄然拆除。据行业人士披露,Anthropic已在最新的官方文档中删除了“AI能力触及危险门槛即暂停训练”的明确表述,取而代之的是更为模糊的“持续评估安全风险”的说法。无独有偶,另一家AI巨头OpenAI也出现了类似的转向:此前针对大模型训练的多项安全限制措施,近期已出现不同程度的松动,似乎在为更快的技术迭代让路。

对于两家公司的转向,业内普遍认为与AI赛道的激烈竞争密切相关。当前,全球大语言模型赛道已进入“军备竞赛”阶段,OpenAI、Anthropic、DeepSeek等玩家都在以月为单位推进模型迭代,任何一家放慢脚步都可能被对手拉开差距。以Anthropic为例,其2023年推出的Claude 3系列虽然在安全性能上获得认可,但在推理速度、多模态能力等方面,与OpenAI的GPT-4o仍存在差距;而OpenAI本身也面临着来自谷歌Gemini、国内大厂模型的竞争压力,必须保持迭代速度以巩固市场地位。此外,资本的逐利性也在一定程度上推动了这一转向:AI初创公司需要通过快速的技术突破吸引融资,而巨头们则需要维持市场份额与股价表现。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创