登录体验完整功能(收藏、点赞、评论等) — 已累计有 8623 人加入

让AI触手可及,让应用激发潜能

大模型幻觉触发信任危机:家长误信AI判断陷深度焦虑

春节期间,市民老于因儿子高考体检的几项轻微异常指标求助DeepSeek大语言模型,却得到“可能影响高考录取”的错误结论,陷入持续焦虑。36氪研究院调研显示国内42%用户将AI内容作为决策参考,这一事件直指AI大模型的“幻觉”痛点:在医疗、升学等高风险场景中,AI错误输出隐患重重。

正月初二的家庭聚会上,老于攥着儿子的高考体检报告,指尖微微发白——半小时前,他把报告里“谷丙转氨酶、尿酸略高于参考值”的描述粘贴到DeepSeek的对话框,得到的回复像一盆冷水浇在头上:“该指标异常可能符合高考录取受限的疾病判定标准,建议立即前往三甲医院复查并开具健康证明,避免影响志愿投档。”

老于的焦虑并非空穴来风:儿子的高考志愿瞄准了提前批军警类院校,这类院校对体检要求严苛。但让他没想到的是,当他带着报告赶到医院复查时,医生仅用3分钟就给出了结论——“只是复习备考疲劳导致的一过性异常,调整作息就能恢复,完全不影响录取。”

这场虚惊的源头,正是大语言模型的“幻觉”问题。不同于传统医疗AI的规则引擎逻辑,大语言模型依靠海量文本训练生成回复,本质是“预测语义通顺的下一个词”,而非基于医学逻辑的诊断。当输入的信息有限时,它会基于训练数据中的相似场景拼接内容,甚至编造出不存在的规则,比如此次提及的“高考录取受限判定标准”,在教育部发布的官方文件中并无对应条目。

老于并非个例。36氪研究院近期发布的调研数据显示,国内已有42%的用户曾将AI生成内容作为重要决策参考,其中医疗、教育领域的占比分别达到31%和28%。这类用户的共性是:对AI的专业能力存在认知偏差,当AI用严谨的专业术语输出内容时,会下意识忽略其“生成性”本质,将其等同于权威机构的判断。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创