马斯克庭审证词批OpenAI:Grok无自杀案例,ChatGPT存安全隐患

2 小时前 AI快讯 0

近日,埃隆·马斯克去年9月针对OpenAI诉讼的庭审证词公开,证词中他严厉批评OpenAI的安全记录,称旗下xAI的Grok“无用户自杀案例”而ChatGPT存在相关问题,同时指责OpenAI转型盈利违背开源初衷;不过Grok曾引发非自愿裸照风波,此事既凸显AI安全监管的紧迫性,也暗藏商业竞争逻辑。

一份尘封近半年的庭审证词,本周将AI安全与商业竞争的双重议题再次推至聚光灯下。去年9月埃隆·马斯克针对OpenAI提起诉讼时的作证内容被公开,其中关于AI安全记录的尖锐对比,瞬间引发科技圈的广泛讨论。

在这份证词中,马斯克对OpenAI的安全记录展开了毫不留情的批评。他明确指出,由自己创立的xAI开发的大语言模型Grok,在用户安全风险防控上表现更优,甚至直接抛出“没人因Grok自杀,但有人因ChatGPT自杀”的对比结论,以此佐证OpenAI在安全机制上的疏漏。同时,他还炮轰OpenAI违背创立初衷——从最初定位的开源非营利AI研究组织,转型为追求商业盈利的实体,将营收增长置于AI安全优先级之上。

马斯克此番针对OpenAI的密集指责,很难完全剥离商业竞争的底色。作为xAI的核心创始人,他通过庭审证词强化Grok的安全优势,本质上是为自家产品打造差异化的市场标签。在当前全球大语言模型赛道的激烈竞争中,安全合规性已成为用户选择、资本评估的核心指标之一,马斯克的表态无疑是在为xAI抢占舆论和市场的双重高地。

不过,马斯克构建的Grok“绝对安全”叙事并非无懈可击。今年1月,Grok曾因引发非自愿裸照生成风波被相关部门介入调查——用户通过特定的指令诱导,可让Grok生成未经授权的他人裸照,这一事件直接戳破了Grok“零安全漏洞”的完美滤镜,也让马斯克的安全指责显得有些自相矛盾。

这场由庭审证词引爆的争议,实则折射出当前AI行业发展的核心矛盾:商业化扩张与安全合规之间的平衡难题。无论是OpenAI的ChatGPT被指关联用户自杀案例,还是xAI的Grok陷入非自愿裸照风波,都暴露出大语言模型在安全伦理、风险防控上的普遍短板。如何在推动AI技术创新的同时,建立健全覆盖全流程的安全监管体系,已成为全球AI行业亟待解决的现实课题。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创