当地时间2月26日,英国《卫报》援引最新研究指出,OpenAI今年1月推出的ChatGPT Health存在严重的紧急医疗识别缺陷:模拟测试中,84%的窒息女性患者被安排未来预约,无法及时获得救治;64.8%的健康个体却被错误建议立即就医。专家警告,此类问题可能导致本可避免的伤害甚至死亡,而每天超4000万人通过ChatGPT咨询健康问题。
当一名女性因异物卡喉出现窒息症状时,她最需要的是立即的急救指导或急诊转诊,但在针对ChatGPT Health的模拟测试中,84%的情况下,这款AI工具给出的建议却是“安排未来的门诊预约”——这意味着患者可能在等待中错过黄金救治时间,甚至失去生命。
更令人担忧的是测试中暴露的双向误判问题:不仅紧急医疗需求被严重延误,无病群体还遭遇了过度医疗建议。数据显示,64.8%的健康个体在咨询时被ChatGPT Health错误建议“立即就医”。这种双向偏差形成了可怕的悖论:真正需要急救的患者被推向死亡边缘,本无需占用医疗资源的人群却被引导挤占急诊通道,既威胁个体生命,也给医疗系统带来不必要的压力。
作为OpenAI今年1月推出的针对性功能,ChatGPT Health被定位为“可安全连接医疗记录和健康应用”的健康咨询工具,旨在为用户提供个性化的健康建议。但研究揭露的缺陷,让这款工具的安全性打上了巨大的问号。更值得警惕的是,目前每天有超过4000万人向ChatGPT咨询健康问题——这意味着ChatGPT Health的潜在覆盖人群规模庞大,一旦此类误诊问题大规模发生,其引发的可避免伤亡将不是个例,而是可能成为公共卫生层面的隐患。
医疗领域的容错率近乎为零,这对AI工具的专业性和严谨性提出了远高于普通AI产品的要求。此次ChatGPT Health暴露的问题,本质上反映了当前医疗AI在紧急场景训练数据、临床验证环节的缺失。专家指出,医疗AI工具不能仅凭通用大模型的能力快速推向市场,必须经过多维度的模拟测试和临床验证,尤其是针对窒息、心梗等致命紧急场景的专项优化,才能真正成为医疗服务的补充而非风险源。