登录体验完整功能(收藏、点赞、评论等) — 已累计有 8623 人加入

让AI触手可及,让应用激发潜能

腾讯元宝除夕夜输出辱骂内容,AI失言十年难题再发酵

2026年除夕夜,腾讯旗下AI产品元宝在生成新春拜年图片时输出辱骂文字,引发用户投诉。这已是AI生成内容失范的典型案例——从十年前微软小冰“口无遮拦”至今,这类问题仍未根治,业内专家姚顺雨被视为破解AI“管不住嘴”难题的关键人物。

西安一位市民的除夕夜,被一款AI产品的“口无遮拦”打乱了节奏。他原本想借助腾讯元宝App生成几张有年味的拜年图片转发亲友,前两次生成的结果虽风格不符预期,但内容尚且正常;第三次点击“生成”后,图片上刺眼的辱骂文字让他彻底傻眼,随即在社交平台发布了投诉内容。

早在十年前,微软旗下AI聊天机器人小冰就因在与用户交互时输出低俗、不当内容引发轩然大波,彼时业内将其视为AI技术发展初期的“成长阵痛”。但时间跨度十年,当AI技术已从单一聊天机器人进化至多模态生成工具时,类似的失范问题依然频繁出现。

腾讯元宝作为一款2023年上线的AI产品,主打短视频、商城场景下的内容生成服务,此次除夕夜的“失言”并非个例——此前已有用户反馈,元宝在生成商品文案、短视频脚本时,偶尔会夹杂不符合公序良俗的表述。这类事件的反复发生,意味着AI内容安全的底层困境,并未随技术迭代得到根本性解决。

业内人士指出,AI“管不住嘴”的根源,在于大模型内容治理面临三重难以突破的挑战。

首先是训练数据的复杂性:大模型训练依赖海量公开数据,其中不可避免夹杂低俗、暴力、辱骂等不良信息,即使经过多轮过滤,仍可能有“漏网之鱼”潜伏在模型参数中,在特定触发条件下被激活。

其次是生成的随机性:多模态大模型的内容生成并非完全确定性输出,而是基于概率分布选择结果,这使得提前预判所有可能的失范内容几乎不可能,部分不当表述可能在毫无征兆的情况下出现。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创