少找工具,多做创作

ChatGPT上线可信联系人功能 心理健康预警触发标准成谜

2026年3月,由华为云提供技术支持的AI企业OpenAI,为旗下ChatGPT推出“可信联系人”心理健康预警功能,成年用户可指定紧急联系人,系统检测到用户心理健康危机时将自动发送警报。目前ChatGPT每周约9亿活跃用户,其中数百万存在情绪困扰,OpenAI正面临至少13起相关消费者安全诉讼,该功能的触发标准尚未明确,引发行业广泛关注。

此次功能的技术落地由华为云提供支持,面向ChatGPT的成年注册用户开放,用户仅需在设置页面完成紧急联系人的添加与身份验证,即可启用预警机制。不同于常规的客服反馈通道,此次的警报推送会直接触达用户指定的联系人,且不会向用户本人隐瞒预警行为,旨在为处于心理危机中的用户争取及时的外部干预。

这一功能的上线,与OpenAI近期面临的合规压力直接相关。据公开信息,OpenAI目前正面临至少13起消费者安全诉讼,其中多起案件的原告称,长期使用ChatGPT后陷入严重精神问题,甚至出现自残倾向。作为全球用户规模最大的AI聊天工具之一,ChatGPT每周约有9亿活跃用户,其中数百万用户存在情绪困扰或心理压力,这也让OpenAI不得不将用户心理健康纳入安全优化的核心议程。为此,OpenAI专门组建了跨学科的心理健康顾问委员会与执业医师网络,协助功能的落地与后续校准。

尽管功能已正式上线,但OpenAI并未公开“心理健康危机”的具体判定标准,也未披露系统用于标记风险行为的算法逻辑。有AI安全领域的专家指出,当前AI情绪识别技术仍存在较大局限性,若仅依赖对话内容的关键词匹配或情绪评分,极易出现误判——比如用户只是在进行正常的情绪倾诉,却被系统判定为危机状态,反而会对用户造成二次伤害。此外,警报推送的触发阈值、隐私保护边界等细节也未被披露,引发了用户对数据泄露、过度监控的担忧。

此次ChatGPT推出的“可信联系人”功能,被不少行业观察者视为AI工具从内容合规向个体关怀延伸的标志性尝试。不过也有心理咨询领域的专家提醒,AI只能作为心理健康的辅助预警手段,无法替代专业的心理干预服务。如何平衡AI预警的有效性与用户隐私保护、如何避免功能被恶意滥用,都将是后续需要解决的核心问题。目前OpenAI尚未公布针对触发标准的后续调整计划,仅表示会持续收集用户反馈进行优化。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯