登录体验完整功能(收藏、点赞、评论等) — 已累计有 8671 人加入

让AI触手可及,让应用激发潜能

加拿大枪击案暴露ChatGPT隐患 OpenAI安全承诺遭专家质疑

2026年3月加拿大Tumbler Ridge枪击案致8人死亡后,外界证实涉案枪手杰西·范·鲁特塞拉尔作案前数月其ChatGPT账号就因涉暴力内容被标记封禁,但OpenAI未将线索上报执法部门。OpenAI CEO Sam Altman随后向加拿大政府作出系列安全承诺,却遭到法律与技术学者Jean-Christophe Bélisle-Pipon等专家质疑,认为其本质是用企业监控替代民主监管。

18岁枪手杰西·范·鲁特塞拉尔的ChatGPT账号封禁记录,正在成为AI企业安全责任边界争议的最新导火索。案发后调取的平台数据显示,该账号在作案前3个月就因多次发布枪支暴力相关的极端内容被系统自动标记,OpenAI的安全团队随后对账号做了永久封禁处理,却没有将这一潜在暴力威胁同步给加拿大当地执法机构,最终酿成悲剧。

针对舆论质疑,OpenAI很快公布了三项针对性调整措施:一是建立警企直连通道,发现涉及公共安全的可疑内容后第一时间向加拿大皇家骑警上报;二是启动历史账户回溯,对近2年标记过的涉及暴力极端内容的可疑账户进行重新评估;三是开放安全团队办公权限,允许加拿大本土技术与法律专家入驻,协助政府制定AI安全监管细则。

但这套看起来诚意满满的措施并没有得到学界认可。加拿大拉瓦尔大学法律与技术学者Jean-Christophe Bélisle-Pipon公开指出,Sam Altman向加拿大政府作出的所谓安全承诺,本质上是把公共安全的监管权限让渡给商业企业,用企业内部的监控规则替代经民主程序制定的公共监管规则,反而会埋下更多隐患。

此次争议的核心,本质是全球AI监管长期悬而未决的权责边界问题:一方面,大语言模型平台掌握了海量用户交互数据,确实具备提前识别潜在暴力风险的技术能力;另一方面,平台如果随意上报用户的可疑言论,又涉嫌侵犯用户隐私,甚至可能演变为不受约束的全方位监控。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创