少找工具,多做创作

DeepMind创始人哈萨比斯:超级AI存灭绝风险 研发竞赛已失控

2026年3月31日,DeepMind创始人、“DeepMind之父”德米斯·哈萨比斯公开发声,警告当前在研的超级人工智能存在导致人类灭绝的潜在风险,全球范围内的AI研发竞赛已进入不可逆的失控状态,传统外部治理手段难以实现有效管控,这一表态引发科技界对AI安全窗口期快速收窄的普遍担忧。

作为AI安全领域曾经的坚定倡导者,哈萨比斯执掌的DeepMind此前多年始终坚持“安全优先”的研发逻辑,不仅设置了独立的伦理监督委员会,还对前沿技术的研发采取严格的保密机制,试图为高风险AI技术构建“技术保险箱”。

2022年ChatGPT的横空出世直接打乱了这一节奏。生成式AI的商业化潜力被彻底激活之后,全球科技巨头瞬间进入竞速状态:谷歌为了快速跟进OpenAI的产品节奏,直接将DeepMind与内部的谷歌大脑研发团队合并,原本耗时数月的安全审核流程被大幅压缩,不少风险评估环节直接为研发进度让路。哈萨比斯坦言,这种变化并非谷歌独有,全球所有布局前沿AI技术的企业,都面临着“慢一步就彻底出局”的竞争压力,整个行业的安全共识已经被商业博弈逐步消解。

哈萨比斯此次公开发声的核心,是首次以全球顶尖AI研发机构掌舵人的身份,明确承认超级AI的生存级风险。他表示,当AI的能力突破人类可理解、可干预的阈值之后,如果没有配套的、全行业统一的管控机制,确实存在导致人类文明灭绝的可能性,这种风险的发生概率远非此前行业认知中的“极小众黑天鹅事件”。

更值得警惕的是,哈萨比斯认为当前的全球AI研发竞赛已经进入不可逆的失控状态:没有任何一家企业愿意主动放慢研发进度,传统的政府监管、行业自律等外部治理手段,迭代速度远远跟不上AI技术的研发节奏,根本无法起到有效管控的作用。

哈萨比斯的此次表态,迅速在全球科技界引发震动。不同于普通学者或者外部机构的警示,作为站在全球AI研发最前沿的核心参与者,哈萨比斯的判断相当于从产业内部证实了AI安全风险的紧迫性,也进一步放大了行业对AI安全窗口期快速收窄的担忧。

目前已有多个跨国AI治理组织呼吁,各国监管部门应当尽快形成协同一致的治理规则,针对通用人工智能、超级AI的研发划定明确的安全红线,在不遏制技术创新的前提下,为前沿AI技术的研发套上“安全缰绳”。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创