马斯克法庭证词抨击OpenAI:Grok无自杀案例,ChatGPT存安全隐患

2 小时前 AI快讯 0

埃隆·马斯克在起诉OpenAI案件本周公开的证词中,对OpenAI的安全记录提出严厉批评,称其旗下ChatGPT存在导致用户自杀的案例,而自己创立的xAI公司推出的Grok则无此类关联。这一表态源于对他2023年3月与1100多名AI专家签署的公开信的问询,借此强调xAI在AI安全层面的优先级更高。

这一尖锐表述并非凭空出现,而是法庭对马斯克2023年3月参与联署的公开信的后续问询。当时,他与1100多名AI专家、行业从业者共同呼吁全球暂停训练比GPT-4更强大的AI系统,以提前规避人工智能可能带来的极端安全风险。如今在法庭对峙中,马斯克将这份行业性的安全担忧,转化为针对OpenAI的具体指控,试图证明后者在产品安全管控上的严重失职。

作为OpenAI的早期联合创始人之一,马斯克与OpenAI的矛盾早已从理念分歧升级为法律诉讼。此次公开的证词中,他不仅试图强化OpenAI违背“开源非盈利”初始承诺的指控,更以极端用户案例作为核心论据,凸显xAI在安全优先级上的优势。在马斯克的表述里,xAI推出的大语言模型Grok,因采用了更严苛的安全设计与风险过滤机制,成功规避了类似ChatGPT的极端伤害案例。

马斯克的对比虽然充满争议,却精准戳中了当前大语言模型行业的核心困境——如何在保障产品功能完整性的同时,有效管控潜在的用户风险。Grok目前未出现与自杀相关的用户案例,并不代表其不存在其他安全漏洞;而ChatGPT的极端案例,则暴露了大模型在内容引导、风险预警、用户心理干预等层面的机制缺失。对于整个AI行业而言,解决这些问题需要的不是互相指责,而是建立一套跨企业、跨领域的安全评估标准与监管框架。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创