登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

研究:ChatGPT、Gemini等主流AI半数给出错误医疗建议

近期一项针对全球主流生成式AI工具的公众医疗咨询测试显示,OpenAI开发的ChatGPT、谷歌开发的Gemini等多款头部AI聊天机器人,在响应普通人常见健康咨询需求时,超半数情况下会输出错误甚至存在误导性的医疗建议。该结果再次引发AI领域对大模型医疗应用落地风险的讨论,也为普通用户使用AI获取健康指导敲响了安全警钟。

测试团队整理了百余个普通人常在线上咨询的健康问题,从常见慢性病的用药调整到急性不适的应急处理,覆盖了大众健康咨询的主流场景。测试结果显示,仅不到一半的AI回复符合专业临床规范,超过三成错误回复存在明确的安全风险,比如错写处方药剂量、遗漏药物过敏禁忌,甚至推荐已被临床淘汰的治疗方案,可能对使用者健康造成直接危害。

近年来,随着大语言模型能力快速提升,AI健康咨询已经成为普通用户获取健康信息的热门渠道,不少用户遇到轻微不适首先会选择问AI,而非线下就医。但目前绝大多数面向C端的通用AI聊天机器人,训练数据多来自公开网络内容,没有经过专业医疗机构的审核校验,也未获得医疗服务相关资质,本质上属于非正规健康信息来源。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创