近日在针对OpenAI的庭审中,埃隆·马斯克公开指责其旗下ChatGPT存在严重安全漏洞,甚至关联自杀事件,同时强调自身创办的xAI及其产品Grok在安全设计上更为严谨。此次庭审围绕2023年3月由马斯克牵头、超1100名AI专家签署的“暂停GPT-4级以上AI开发6个月”公开信展开,引发行业对AI安全与商业化平衡的深度反思。
法庭上,马斯克的语气带着毫不掩饰的尖锐——当被问及对OpenAI当前发展路径的评价时,他直接抛出“ChatGPT已造成自杀风险”的指控,而这一言论瞬间将AI安全的现实危害推到了公众视野的最前沿。
这场庭审的核心线索,指向2023年3月那封震动全球AI圈的公开信。作为发起人和签署人之一,马斯克当时联合超1100名AI专家、行业从业者,呼吁全球各大AI实验室暂停开发比GPT-4更强大的AI系统至少六个月,理由是“缺乏充分监管与安全设计的AI可能失控”。
如今,这封公开信成为庭审中的关键证据,马斯克借此指责OpenAI不仅没有践行公开信中的安全承诺,反而从最初的非营利研究机构彻底转向盈利导向企业,将商业化优先级置于AI安全之上。
在庭审证词中,马斯克的指控直指ChatGPT的安全漏洞。他明确表示:“没有人因为Grok而自杀,但显然有人因为ChatGPT而自杀。”这一表述虽然未公开具体案例细节,但直接将ChatGPT的安全问题与极端负面后果绑定,引发舆论哗然。
马斯克进一步指出,OpenAI在模型训练过程中,对用户的心理引导风险评估不足,尤其是针对易受影响的群体,ChatGPT的回复可能存在误导性或刺激性内容,最终导致不可挽回的伤害。
在批判OpenAI的同时,马斯克不忘强调自身创办的xAI在安全层面的差异化路线。他表示,xAI旗下的Grok模型从设计之初就将安全伦理放在核心位置,通过多轮风险模拟、用户心理防护机制等技术手段,尽可能降低AI内容对用户的负面影响。
不同于OpenAI的商业化扩张路径,xAI目前的核心目标被定义为“开发安全且有益的通用人工智能”,这一定位恰好与马斯克在2023年公开信中倡导的理念相呼应,也成为他反驳OpenAI“偏离初衷”的重要论据。
马斯克的庭审发言不仅是对OpenAI的个体指控,更暴露了当前AI行业普遍面临的两难困境——如何在商业化提速与安全合规之间找到平衡点。近年来,随着大语言模型的商业化应用加速,OpenAI、谷歌等头部企业都在追求产品迭代速度与市场占有率,而安全伦理的建设往往滞后于技术发展。
此次事件也让更多人意识到,AI安全不能仅靠企业自律,需要建立跨行业、跨国家的监管框架,同时推动AI伦理研究与技术开发同步进行,避免技术进步带来的隐性风险。