少找工具,多做创作

加拿大枪击案暴露ChatGPT隐患 OpenAI安全承诺遭专家质疑

2026年3月加拿大Tumbler Ridge枪击案致8人死亡后,外界证实涉案枪手杰西·范·鲁特塞拉尔作案前数月其ChatGPT账号就因涉暴力内容被标记封禁,但OpenAI未将线索上报执法部门。OpenAI CEO Sam Altman随后向加拿大政府作出系列安全承诺,却遭到法律与技术学者Jean-Christophe Bélisle-Pipon等专家质疑,认为其本质是用企业监控替代民主监管。

18岁枪手杰西·范·鲁特塞拉尔的ChatGPT账号封禁记录,正在成为AI企业安全责任边界争议的最新导火索。案发后调取的平台数据显示,该账号在作案前3个月就因多次发布枪支暴力相关的极端内容被系统自动标记,OpenAI的安全团队随后对账号做了永久封禁处理,却没有将这一潜在暴力威胁同步给加拿大当地执法机构,最终酿成悲剧。

针对舆论质疑,OpenAI很快公布了三项针对性调整措施:一是建立警企直连通道,发现涉及公共安全的可疑内容后第一时间向加拿大皇家骑警上报;二是启动历史账户回溯,对近2年标记过的涉及暴力极端内容的可疑账户进行重新评估;三是开放安全团队办公权限,允许加拿大本土技术与法律专家入驻,协助政府制定AI安全监管细则。

但这套看起来诚意满满的措施并没有得到学界认可。加拿大拉瓦尔大学法律与技术学者Jean-Christophe Bélisle-Pipon公开指出,Sam Altman向加拿大政府作出的所谓安全承诺,本质上是把公共安全的监管权限让渡给商业企业,用企业内部的监控规则替代经民主程序制定的公共监管规则,反而会埋下更多隐患。

此次争议的核心,本质是全球AI监管长期悬而未决的权责边界问题:一方面,大语言模型平台掌握了海量用户交互数据,确实具备提前识别潜在暴力风险的技术能力;另一方面,平台如果随意上报用户的可疑言论,又涉嫌侵犯用户隐私,甚至可能演变为不受约束的全方位监控。

此前Sam Altman在全球多国游说AI监管政策时,就多次提出由头部AI企业牵头制定安全标准、政府事后备案的监管路径,这一主张已经多次遭到欧盟等监管主体的反对,认为头部企业既当“运动员”又当“裁判员”,无法保障公共利益。此次枪击案的发生,更是将这种监管模式的风险直接暴露在公众面前。

目前加拿大政府已经宣布将成立跨部门工作组,研究制定AI平台安全上报义务的相关法规,明确平台上报可疑内容的标准、流程以及对应的法律责任,避免出现要么漏报要么过度监控的极端情况。

不少业内专家指出,AI安全监管不能走两个极端:既不能完全放任平台自主管理,把公共安全寄托在企业的道德自觉上;也不能完全否定平台的技术作用,浪费前置风险识别的能力。只有由政府、企业、公众三方共同参与制定规则,明确各方的权责边界,才能在保障公共安全的同时,避免出现商业企业替代公共部门行使监管权的情况。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创