登录体验完整功能(收藏、点赞、评论等)

OpenAI发布儿童安全蓝图 治理AI衍生儿童性剥削风险

2026年4月,人工智能企业OpenAI正式发布《儿童安全蓝图》,针对当前生成式AI技术快速普及背景下,全球范围内关联AI的儿童性剥削内容及相关案件同比上涨327%的严峻态势,提出覆盖技术拦截、跨平台协同、司法联动三个维度的综合治理框架,相关规范已率先在ChatGPT全产品线落地试运行。

根据全球互联网反儿童剥削组织2026年第一季度发布的监测报告,2025年全年各主流内容平台拦截到的AI生成儿童性剥削内容超过42万条,较2023年的1.1万条暴涨超3700%,这类内容不仅仿真度极高,且大多绕过了传统的内容审核机制,已经成为全球儿童保护领域的新型风险源。

过去三年,随着文生图、文生视频等多模态生成技术的快速落地,制作儿童性剥削内容的门槛被降到了历史最低点:不法分子仅需要输入几段描述文字,就能在几分钟内生成数百条高度仿真的不良内容,且不需要涉及任何真人拍摄环节,这也给传统的司法溯源和内容拦截带来了极大挑战。

以往依赖哈希值比对的内容审核系统,只能识别已入库的存量违规内容,对AI生成的全新违规内容识别准确率不足30%,这也导致大量不良内容通过社交平台、暗网快速传播,仅2025年全球各国警方接到的相关举报量就较2022年上涨了3倍以上。

OpenAI此次推出的《儿童安全蓝图》,核心是搭建覆盖模型训练、推理、生态协同的三层防护体系,从源头切断AI工具被用于制作不良内容的可能性。

第一层是训练数据清洗,OpenAI已经对ChatGPT全系列模型的训练数据集完成了新一轮筛查,移除了所有涉及儿童的不良素材,同时在训练阶段加入了安全对齐机制,确保模型不会响应任何涉及儿童的违规请求。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创