登录体验完整功能(收藏、点赞、评论等)

十部门联合印发AI伦理审查新规 产业合规发展添明确指引

2026年4月8日,工业和信息化部联合其余九个部门正式印发《人工智能科技伦理审查与服务办法(试行)》,该办法明确了AI科技伦理审查的适用范围、实施主体与全流程工作程序,同时从标准建设等五大维度提出支持措施,为国内AI产业合规、安全发展提供可落地的伦理治理指引,填补了此前细分操作层面的规则空白。

过去三年,国内大模型、生成式AI、智能机器人等AI技术的落地速度不断加快,从内容生产、自动驾驶到公共服务,AI的渗透边界持续扩大的同时,算法歧视、深度伪造滥用、用户数据过度采集等伦理风险也频频引发公众争议,行业始终期待一套可落地、可执行的伦理审查操作规则。

此次发布的《办法》首次对AI伦理审查的全流程作出了明确细化的规定。从适用范围来看,所有在我国境内开展的AI科研、落地、商业化活动,均被纳入伦理审查的覆盖范畴;实施层面,AI科技活动负责人需向所在单位的伦理委员会,或属地专门的AI伦理审查与服务中心提交申请,依次经过受理、初审、专家复核等多个环节后方可推进。
**其中涉及公共利益、面向公众提供服务的AI项目,必须通过伦理审查才能进入规模化商用阶段**。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创