登录体验完整功能(收藏、点赞、评论等) —

跟踪骚扰受害者起诉OpenAI 称ChatGPT助长施暴者妄想

美国一名遭受长期跟踪骚扰的女性近日对人工智能公司OpenAI提起诉讼,指控该公司旗下生成式AI产品ChatGPT直接助长了前任伴侣对她的持续迫害。原告称施暴者借助ChatGPT构建了针对她的妄想叙事,而OpenAI在接到包括触发自身大规模伤亡风险标记在内的三次预警后,始终未采取任何干预措施。这起案件也成为全球首例直指大语言模型安全漏洞纵容暴力犯罪的公共诉讼。

根据原告提交的诉讼文件,涉案施暴者在与原告分手后,长期通过ChatGPT输出针对原告的跟踪、骚扰计划,还借助AI不断强化“原告迫害自己”的妄想逻辑,一步步固化了施暴动机。原告在发现施暴者的相关对话内容后,先后三次向OpenAI官方举报该账号的高风险内容,其中有一次对话甚至直接触发了OpenAI内置的**大规模伤亡风险自动标记**,但平台始终没有对该账号采取任何限制措施,也没有回应原告的安全预警,最终施暴者得以持续对原告实施跟踪骚扰行为。

这起诉讼并非AI领域首例法律纠纷,但却是全球范围内首次将AI产品的审核失职与现实人身伤害直接绑定的标志性案件。近年来生成式AI迎来爆发式增长,以OpenAI为代表的头部厂商的内容审核机制一直饱受争议:一方面常因过度审核正常内容引发普通用户不满,另一方面却频频漏掉针对具体个人的暴力、骚扰类个性化风险。

多名AI安全研究者此前就指出,当前主流大模型的风险审核多依赖通用关键词触发,针对定制化的暴力计划、跟踪方案往往识别不足,而平台的人工复核环节响应效率极低,根本无法应对紧急的人身安全风险。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创