少找工具,多做创作

OpenAI为ChatGPT推出可信联系人功能 筑牢AI心理安全防线

2026年3月3日,OpenAI正式为ChatGPT推出“可信联系人”新功能,允许成年用户绑定紧急联系人,当系统检测到用户因使用AI出现心理健康危机时将自动发送警报。此举旨在应对日益突出的AI使用安全争议,目前OpenAI正面临至少13起相关消费者诉讼,其中包括去年8月的16岁少年自杀诱因案。

当地时间3月3日,OpenAI在官方技术更新公告中正式推出ChatGPT的“可信联系人”功能,与此前行业流传的测试版细节一致,该功能仅面向成年用户开放,用户可在隐私设置中完成紧急联系人的绑定与验证流程。

OpenAI此次推出新功能的背后,是持续发酵的AI使用安全诉讼压力。据公开信息统计,目前OpenAI正面临至少13起独立的消费者安全诉讼,其中最具标志性的是去年8月曝光的16岁少年自杀案,家属在诉讼中指控ChatGPT的不当引导是悲剧发生的重要诱因。此类事件让生成式AI的心理健康风险,从早期的伦理讨论升级为必须直面的法律与社会责任问题。

根据官方披露的功能规则,“可信联系人”并非直接干预用户的AI交互权限,而是作为应急联动机制存在:当系统通过用户的对话内容、交互模式识别到躁狂、精神幻觉等高度心理健康危机信号时,将自动向绑定的联系人发送定向通知。OpenAI官方明确表示,该功能仅作为心理健康应急的补充手段,绝非替代专业医疗干预。

为确保功能的合规性与准确性,OpenAI组建了专属的落地支撑团队:由内部监管专家与医学专业人士组成的“福祉与人工智能委员会”,同时联动“全球医师网络”参与功能的研发、测试与后续迭代,从技术标准与伦理规范层面为功能的安全落地提供双重保障。

此次功能推出,不仅是OpenAI化解当前诉讼危机的务实举措,更标志着生成式AI行业的发展逻辑正在发生转变:从早期追求用户规模与交互活跃度,转向平衡创新、自由与公共安全、心理健康保护。对于整个AI行业而言,如何在严守用户隐私的前提下,建立有效的心理健康风险预警机制,将成为未来产品合规与伦理建设的核心议题。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯