登录体验完整功能(收藏、点赞、评论等)

Anthropic舍弃标志性“安全护栏”承诺,AI行业现关键转向

AI初创公司Anthropic于2026年2月宣布大幅放宽核心安全政策,放弃2023年《负责任扩展政策》中“AI模型达危险阈值即推迟研发”的承诺,转而将商业竞争力置于优先位置。这一被视为行业分水岭的转变,折射出AI领域在与OpenAI等同行竞争、监管真空下的商业压力,也引发各界对AI安全与扩张平衡的深度担忧。

当外界还在回味Anthropic去年在全球AI安全峰会上以“人类福祉守护者”身份的重磅发言时,这家曾以安全为核心标签的AI初创公司,在2026年2月的一个普通周二,用一篇简短的博客文章,彻底推翻了自己坚守三年的标志性承诺。

成立之初,Anthropic就以“安全优先”为立身之本,其2023年发布的《负责任扩展政策》(RSP)更是行业内首个明确的“安全护栏”承诺——当AI模型的能力达到预设的危险阈值时,公司将主动推迟相关研发,确保技术始终服务于人类福祉。

但此次政策更新中,Anthropic明确调整了核心规则:只有当公司在AI领域拥有显著领先优势时,才会执行危险阈值下的研发推迟条款;若处于竞争劣势,将不再受此限制。这一表述意味着,曾经不可动摇的安全底线,如今让位于商业扩张的需求。

在博客文章的潜台词里,Anthropic毫不掩饰其面临的竞争压力。随着OpenAI、DeepSeek等同行不断推出更强大的大语言模型,市场份额的争夺日趋白热化,而此前过于严苛的安全政策,被认为是拖累其产品迭代与商业落地的关键因素。

Anthropic的转向被业内普遍视为AI行业发展的关键分水岭。作为曾经“安全派”的核心代表,它的立场转变,极可能引发连锁反应——原本对安全持谨慎态度的AI公司,或许会纷纷放宽内部安全标准,以在竞争中抢占先机。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创