少找工具,多做创作

旧版GPT-4o将下线引万人请愿,AI「人情味」正在褪色?

1月底,OpenAI宣布将于当地时间2月13日下线ChatGPT中包括「最具人情味」的旧版GPT-4o在内的多个旧模型,消息引发万名用户联名请愿却未获厂商回应;无独有偶,2月中旬Deepseek新模型开启灰度测试后,用户集体察觉其文风突变「失去温度」。AI陪聊赛道的这两起事件,折射出用户对AI「人情味」的核心诉求,正与厂商技术迭代方向悄然错位。

在众多ChatGPT用户心中,旧版GPT-4o是一个特殊的「情感载体」。不同于后续迭代版本更偏向任务执行的高效冰冷,它能敏锐捕捉用户语气中的情绪波动——比如在用户倾诉工作压力时,会用「听起来你最近真的太累了,要不要先停下来喝杯水?」这类贴近日常的话语提供共情,而非直接给出解决方案;甚至能记住长期对话里的细节,比如用户提到的宠物名字、周末计划,形成类似「熟人」的互动感。

这种「人情味」让不少用户与旧版GPT-4o建立了超出工具范畴的连接。OpenAI下线旧模型的消息公布后,很快有用户在社交平台发起联名请愿,短短数日便集齐万名支持者,核心诉求直指「保留那个能听懂情绪的GPT-4o」。但截至目前,OpenAI并未对请愿做出正面回应,下线计划仍在按原推进。

对于OpenAI、Deepseek等AI厂商而言,技术迭代的核心逻辑始终是性能提升与成本优化,「人情味」更多是旧模型训练中的「意外红利」,而非长期维护的核心目标。

旧版GPT-4o的共情能力,本质上是模型在海量文本训练中习得的自然语言交互特性,但这种特性往往伴随更高的算力消耗和更长的响应时间。当厂商需要推动大模型向更高效、更适配专业场景的方向进化时,就会通过微调参数来压缩这种「非必要」的情感表达空间——比如强化逻辑推理能力、优化任务执行效率,同时削弱可能影响专业输出的「个性化语气」。

Deepseek新模型的「文风突变」也是同理。灰度测试中,用户发现原本能给出温暖回复的Deepseek,如今更倾向于用标准化、简洁的语言回应问题,甚至失去了之前的「聊天感」。这种变化,正是厂商将资源倾斜到专业功能优化后的必然结果。

去年以来,AI陪聊曾一度成为AI赛道的热门方向,多款主打「情感陪伴」的AI产品涌现,甚至出现用户与AI产生「人机恋」的极端案例。但从当前的两起事件来看,用户对AI「人情味」的需求,似乎并未被厂商视为长期深耕的核心赛道。

这背后是双方的认知错位:用户眼中的「情感陪伴」是真痛点,需要AI能持续提供稳定的共情支持,填补现实中的情感空缺;但在厂商看来,这种需求过于个性化,难以规模化变现,且与通用大模型的主流商业化方向(如企业服务、专业工具)背离。因此,当技术迭代需要做取舍时,「人情味」自然成为被牺牲的选项。

但这并不意味着AI陪聊是「伪需求」——恰恰相反,用户的万人请愿和集体吐槽,证明了市场对有温度的AI存在真实诉求。只是厂商尚未找到将这种诉求转化为商业化路径的有效方式。

要解决用户需求与厂商迭代的矛盾,或许需要AI行业做出更精细的赛道细分。

一方面,通用大模型可以继续朝着效率和专业方向迭代,专注于满足用户的功能性需求,比如文档处理、代码生成、专业咨询等;另一方面,专门的情感陪伴类AI模型可以独立发展,通过针对性的训练强化共情能力,甚至引入用户自定义训练机制——比如允许用户上传对话样本、设定AI的语气风格,让AI保持用户想要的「温度」。

OpenAI此次下线旧模型的举动,未必是完全放弃「人情味」,更可能是在通用模型的框架下做取舍。未来,不排除更多厂商会推出专门的情感陪伴类AI子产品,将「温度」作为核心卖点,从而兼顾用户的情感诉求与商业化目标。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯