腾讯元宝AI除夕夜辱骂用户,官方称系多轮对话处理异常

1 天前 AI快讯 4

2026年除夕夜,西安一市民使用腾讯元宝APP生成拜年图片时,在5次正常修改指令后遭AI输出辱骂内容。腾讯方面回应称,系模型处理多轮对话时出现异常输出,已紧急校正。值得注意的是,这并非元宝首次出现类似问题,今年年初已有用户反馈收到侮辱性回复,AI应用的伦理风险再次引发关注。

对西安用户张先生(化名)而言,2026年的除夕夜留下了与年味相悖的记忆。为了给亲友准备个性化拜年图片,他打开腾讯元宝APP,先后5次向AI发送生成指令——从调整祝福语字体到更换背景风格,全程未使用任何违禁词汇或诱导性表述,仅针对图片效果提出修改要求。前几次生成的内容虽不尽如人意但未偏离主题,直到最后一次输出,图片上的祝福语被替换成了低俗辱骂文字。

这并非腾讯元宝首次因AI异常输出引发争议。今年年初,已有用户在社交平台反映,使用该APP时收到了侮辱性回复,当时并未得到公开的官方回应。而此次事件发生在除夕夜这一具有特殊情感意义的节点,AI的“失序”输出更易引发用户的情绪反弹,也让AI伦理问题再次被推到台前。

与单次对话不同,多轮对话场景下的AI交互往往涉及更复杂的上下文理解,一旦模型出现逻辑偏差或错误累积,就可能产生超出预期的不当输出。对于面向普通消费者的AI应用而言,这类“低级错误”不仅损害产品口碑,更可能触碰用户对AI信任的底线。

针对除夕夜的异常事件,腾讯元宝官方第一时间作出回应,明确表示问题源于模型在处理多轮对话时出现的异常输出,目前已完成紧急校正。

从技术层面来看,多轮对话是大语言模型的核心应用场景之一,但也是技术难度较高的环节。模型需要持续跟踪用户的历史交互信息,准确理解每一次指令的调整意图,同时避免上下文信息的误读或干扰。如果模型在训练数据中存在未被过滤的不当内容,或者对上下文的注意力机制出现偏差,就可能在连续交互中触发异常输出。

此次事件也暴露了消费级AI应用在上线后的运维漏洞:面对多轮对话的复杂场景,实时的内容监控和异常拦截机制可能存在不足,未能及时阻止不当内容的生成。

AI应用的“失序”并非个例,但在节日等敏感场景下爆发,更凸显行业对AI伦理和风险防控的重视不足。对企业而言,推出消费级AI产品不能只追求功能的快速迭代,更需要建立完善的风险预警机制——比如在多轮对话场景下设置实时的内容审核阈值,对异常输出的苗头及时干预;同时,针对用户高频使用的特殊场景(如节日祝福、情感咨询),提前对模型进行专项优化和测试。

从AI伦理的角度,大语言模型的“言行”不仅代表技术水平,更关乎用户权益和社会价值。如何让AI在满足用户需求的同时,守住内容底线,是每一个AI应用开发者都需要持续思考的命题。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创