《Nature Medicine》警示:ChatGPT Health半数急症案例低估病情存致命风险

2 小时前 AI快讯 1

OpenAI今年1月推出的ChatGPT Health,作为全球日咨询量超4000万的AI健康助手,近日遭《Nature Medicine》发表的独立研究直指致命缺陷——在涵盖各类真实医疗场景的测试中,超50%的急症案例被其低估病情严重性,专家警告此类技术漏洞或引发可避免的伤亡,给AI医疗应用的安全性敲响警钟。

《Nature Medicine》发表的这项独立安全评估中,研究团队选取的60个测试案例均来自真实临床记录,覆盖从轻微自限性疾病到需紧急干预的致命急症。对比专业医生的判断结果,ChatGPT Health在超过50%的急症案例中低估了病情的严重程度——例如将伴有放射痛的急性心梗症状归为“肌肉劳损引发的胸痛”,或是把颅内出血导致的头痛判定为“普通紧张性头痛”,此类误判直接指向最核心的安全隐患:引导用户放弃紧急就医,错失黄金救治窗口。

作为OpenAI瞄准医疗健康领域的核心落地产品,ChatGPT Health自今年1月上线以来,凭借便捷的在线健康咨询、个人医疗记录管理等功能迅速俘获用户,目前全球日均咨询量已突破4000万次。这一庞大的用户基数意味着,哪怕是看似比例不高的误判,都可能引发大量本可避免的伤亡事件。参与该研究的急诊医学专家明确警告,当前版本的ChatGPT Health尚未达到急症识别的安全阈值,若用户将其作为唯一的健康决策依据,潜在风险难以估量。

此次ChatGPT Health暴露出的问题,实则戳中了当前AI医疗应用的普遍痛点——不少产品在追求快速落地和用户增长的同时,忽略了高风险临床场景下的专项性能验证。大语言模型天生的“幻觉”特性,在对准确性要求极高的医疗领域被放大为致命的误判风险。行业监管人士和医学专家共同呼吁,AI医疗工具需要建立针对急症场景的强制性测试标准,而非仅依赖通用医疗数据训练;同时,必须在交互界面显著标注“AI建议仅作健康参考,急症请立即就医”的警示,避免用户过度依赖。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创