登录体验完整功能(收藏、点赞、评论等) — 已累计有 8655 人加入

让AI触手可及,让应用激发潜能

DeepMind创始人哈萨比斯:超级AI存灭绝风险 研发竞赛已失控

2026年3月31日,DeepMind创始人、“DeepMind之父”德米斯·哈萨比斯公开发声,警告当前在研的超级人工智能存在导致人类灭绝的潜在风险,全球范围内的AI研发竞赛已进入不可逆的失控状态,传统外部治理手段难以实现有效管控,这一表态引发科技界对AI安全窗口期快速收窄的普遍担忧。

作为AI安全领域曾经的坚定倡导者,哈萨比斯执掌的DeepMind此前多年始终坚持“安全优先”的研发逻辑,不仅设置了独立的伦理监督委员会,还对前沿技术的研发采取严格的保密机制,试图为高风险AI技术构建“技术保险箱”。

2022年ChatGPT的横空出世直接打乱了这一节奏。生成式AI的商业化潜力被彻底激活之后,全球科技巨头瞬间进入竞速状态:谷歌为了快速跟进OpenAI的产品节奏,直接将DeepMind与内部的谷歌大脑研发团队合并,原本耗时数月的安全审核流程被大幅压缩,不少风险评估环节直接为研发进度让路。哈萨比斯坦言,这种变化并非谷歌独有,全球所有布局前沿AI技术的企业,都面临着“慢一步就彻底出局”的竞争压力,整个行业的安全共识已经被商业博弈逐步消解。

哈萨比斯此次公开发声的核心,是首次以全球顶尖AI研发机构掌舵人的身份,明确承认超级AI的生存级风险。他表示,当AI的能力突破人类可理解、可干预的阈值之后,如果没有配套的、全行业统一的管控机制,确实存在导致人类文明灭绝的可能性,这种风险的发生概率远非此前行业认知中的“极小众黑天鹅事件”。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创