少找工具,多做创作

马斯克证词批OpenAI安全存瑕,自家Grok却陷监管风波

2026年2月底,埃隆·马斯克起诉OpenAI案件中,一份2024年9月录制的公开证词引发热议。证词中马斯克严厉批评OpenAI的安全记录,声称自家xAI旗下Grok更重视AI安全;但尴尬的是,Grok此前已因生成未经同意的裸体图像遭监管调查,而OpenAI正面临多起用户心理健康及自杀相关诉讼。

2月28日,外媒TechCrunch曝光了这份核心证词内容。马斯克在文件中对OpenAI的安全记录提出毫不留情的指责,甚至用具体对比强化观点:“没有人因为Grok自杀,但显然有人因为ChatGPT自杀。”他同时强调,OpenAI从非营利组织转向营利性公司的决策,直接削弱了团队对AI安全风险的重视程度。

事实上,马斯克对AI安全的关注早有体现。2023年3月,他曾联合众多科技界人士签署公开信,呼吁暂停开发比GPT-4更强大的AI系统,担忧这类产品会带来不可控的安全隐患。而当前OpenAI面临的多起用户诉讼,恰好成为支撑其批评的现实依据——这些案件直指OpenAI在内容风险管控上的明显漏洞。

尽管马斯克在证词中极力标榜xAI的安全优势,自家产品Grok的表现却与其言论形成尖锐反差。就在证词录制完成后不久,Grok便陷入安全丑闻:有用户发现该AI生成了大量未经授权的裸体图像,相关问题迅速触发监管介入,xAI因此遭到正式调查。

这一反转引发行业对马斯克“双标”的质疑。不少评论指出,此次事件暴露了AI行业的普遍困境——即便是以安全为核心卖点的团队,也难以完全规避AI生成违规内容的技术局限性。马斯克一边批评竞争对手的安全短板,一边自家产品踩中同类雷区,更凸显出AI安全治理的复杂性。

马斯克与OpenAI的这场纷争,本质上折射出当前AI行业在商业化与安全之间的深层矛盾。OpenAI转向营利性后,需快速迭代产品以满足市场需求,这不可避免地可能让安全测试环节让步于开发速度;而xAI作为后起之秀,即便以“安全”为品牌标签,在产品落地过程中也难逃技术本身的固有风险。

对于整个AI行业而言,此次事件是一记明确警示:AI安全不能仅停留在口头承诺,需要建立更完善的监管机制、更严格的内容审核体系,同时找到商业化发展与风险管控的平衡支点。无论是行业巨头还是初创公司,唯有突破这一矛盾,才能真正赢得用户与市场的长期信任。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯