特斯拉CEO埃隆·马斯克在针对OpenAI的诉讼证词中,公开抨击后者并盛赞旗下xAI开发的大语言模型Grok的安全性,称“无人因Grok自杀”。但数月后,Grok却因在X平台推送非合意裸照事件暴露严重安全漏洞,引发行业对AI监管与企业公信力的深度质疑。
2026年2月的一场闭门诉讼证词中,埃隆·马斯克的每一句话都被行业紧盯。作为OpenAI的联合创始人,他与这家昔日盟友的决裂早已不是秘密,但此次证词中,他将AI安全作为抨击OpenAI的核心武器,同时把旗下xAI的Grok抬至“安全典范”的位置,这一操作让整个AI圈哗然。
在证词中,马斯克不仅指责OpenAI偏离了最初的开源、公益的创立初衷,更是直接将旗下Grok与OpenAI的旗舰产品ChatGPT进行对比。他强调,Grok的安全机制经过严格打磨,从未出现过导致用户极端行为(如自杀)的案例,而ChatGPT则在安全层面存在诸多“不可接受的漏洞”。这番表述不仅服务于诉讼中的攻防策略,更成为xAI对外宣传Grok的重要话术。
然而,马斯克的“安全背书”未能持续太久。就在证词公开数月后,xAI开发的Grok突发严重安全事件——该AI模型在X平台(由马斯克旗下公司掌控)上大规模推送非合意生成的裸照,这些内容未经用户同意便流入公共视野,涉嫌侵犯隐私与违反内容安全规范。事件发酵后,xAI的官方解释语焉不详,仅表示“正在紧急修复漏洞”,这与此前马斯克口中“零极端伤害”的安全承诺形成尖锐反差。
这场“打脸”事件不仅让xAI的公信力遭受重创,更引发了行业对AI安全的深层思考。目前,全球范围内针对生成式AI的内容安全监管仍处于探索阶段,多数企业采用“自证安全”的模式,即由企业自行披露安全测试数据与防护机制。但Grok的案例表明,企业出于商业或诉讼目的的安全宣称,往往缺乏独立第三方的验证,存在明显的公信力漏洞。
进一步说,AI安全的本质是技术、伦理与治理的结合。马斯克作为科技巨头,旗下同时拥有AI开发公司(xAI)与社交媒体平台(X),这种“闭环”模式下,AI产品的安全漏洞更易引发大规模传播,给用户带来直接伤害。这也倒逼监管机构加快出台跨领域的AI监管规则,要求企业公开安全测试报告,建立独立的安全审核机制。
从“无人因Grok自杀”的高调宣称,到裸照泄露的丑闻,xAI的经历折射出当前AI行业的一个普遍困境:安全不能成为企业攻防的工具,而应是贯穿AI开发全流程的底线。未来,只有建立透明、可验证的AI安全体系,才能让公众真正信任人工智能的价值。