少找工具,多做创作

澳大利亚严令AI平台落实年龄验证,违规将遭搜索引擎、应用商店屏蔽

澳大利亚互联网监管机构日前发布强硬指令,要求AI服务平台在规定期限内落实年龄验证措施,逾期未合规的平台,监管部门将要求搜索引擎及应用商店对其进行屏蔽处理。此前调查显示,超半数受审查的AI平台未公开青少年保护合规安排,这一举措是全球范围内针对AI企业的严格监管行动之一,直指AI对青少年心理健康的潜在风险。

北京时间3月2日凌晨,路透社援引澳大利亚通信和媒体管理局(ACMA)的警告称,该国正针对AI服务平台祭出史上最严厉的合规约束:所有提供生成式AI内容服务的平台,必须在指定截止期限内完成针对青少年用户的年龄验证机制部署,否则监管部门将直接要求谷歌、苹果等主流搜索引擎和应用商店,对未合规平台进行全面屏蔽处理。

这一监管举措的特殊性在于,ACMA首次将AI平台的合规性与用户获取渠道直接绑定,突破了传统监管以罚款为核心的约束模式。相较于此前多数国家对AI企业的“提醒式”监管,澳大利亚的做法直接掐断了未合规平台的核心流量入口,相当于从市场层面剥夺其生存空间。

路透社此前的专项调查数据显示,超过50%的受审查AI平台——包括部分国际头部大语言模型服务商——至今未向公众披露任何针对青少年用户的内容保护策略或合规安排。这一数据让ACMA判定,当前AI行业的自我监管完全失效,必须通过强制执行手段推动合规落地。

ACMA的强硬态度并非无的放矢。目前多家国际AI公司正因未能有效阻止自残、暴力等有害内容的生成与传播,陷入多起法律诉讼。更有研究机构指出,大语言模型类AI聊天平台对青少年心理健康的潜在负面影响,可能比传统社交媒体更为严重:AI能够根据用户的个性化需求生成精准匹配的有害内容,且缺乏人工审核的缓冲环节,更容易对青少年的认知和行为产生误导。

另一方面,随着AI工具的普及,青少年群体的使用率持续攀升。澳大利亚本地调研数据显示,12-17岁青少年中,有近六成曾使用过AI聊天工具获取信息或进行互动,这进一步加剧了监管部门对青少年权益保护的焦虑。

澳大利亚的这一举措,也折射出全球AI监管正在从“框架搭建”转向“落地执行”的趋势。欧盟《AI法案》已将青少年保护列为高风险AI应用的核心合规指标,美国联邦贸易委员会也在推动《儿童在线隐私保护法案》(COPPA)的条款更新,将AI平台纳入监管范畴。

与这些地区的监管政策相比,澳大利亚的做法更为激进,直接将合规与平台的生存入口绑定。业内人士认为,这一模式可能会被其他国家借鉴,成为AI青少年保护监管的新标杆。

对于AI平台而言,落实年龄验证机制并非易事。若采用严格的身份验证方式(如上传身份证、生物识别),虽然能满足监管要求,但可能引发用户对隐私泄露的担忧,进而降低使用意愿;若采用非侵入式的验证手段(如基于行为数据的年龄推测),其准确性又难以达到监管部门的标准。

如何在合规要求与用户体验、隐私保护之间找到平衡点,成为当前AI行业面临的核心挑战之一。部分头部AI企业已开始探索解决方案,比如与第三方身份验证服务商合作,在满足监管要求的同时,最大程度降低对用户体验的影响。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯