DeepMind CEO哈萨比斯:当前AGI仍无法匹敌人类智能

3 小时前 AI快讯 0

DeepMind CEO哈萨比斯:当前AGI仍无法匹敌人类智能

2月18日,谷歌DeepMind首席执行官德米斯·哈萨比斯在接受采访时,对通用人工智能(AGI)的发展现状作出了极具分量的判断:当前的AGI系统尚无法匹敌人类智能,距离真正的通用人工智能还有显著差距。他同时明确指出,现有AGI存在三大核心技术短板,这一理性表态为当前过热的AGI赛道注入了冷静思考。

作为AGI领域的拓荒者,哈萨比斯领导的DeepMind一直是全球AI研发的标杆——从击败围棋世界冠军李世石的AlphaGo,到破解蛋白质折叠难题的AlphaFold,DeepMind的每一次突破都推动着AI向通用化迈进一步。也正因如此,哈萨比斯对AGI发展阶段的判断,被视为行业的“风向标”,其观点往往能左右从业者对技术路径的思考。

哈萨比斯提到的首项短板,是AGI的持续学习能力不足。与人类终身可学习、可进化的智能模式不同,当前绝大多数AGI系统,包括主流的大语言模型,都遵循“预训练-部署”的路径:在海量数据集上完成集中训练后,系统的认知框架和知识储备基本固定,进入静态状态。若要适应新场景、学习新知识,必须重新投入巨额算力进行微调或二次训练,不仅成本高昂,还可能出现“灾难性遗忘”——新学的知识覆盖旧有能力的现象。这种模式显然无法匹配人类随时随地吸收信息、更新认知的灵活度。

其次是常识与因果推理能力的缺失。人类智能的核心之一,是基于日常常识和因果逻辑的判断能力:比如知道“冰遇热会融化”“人需要呼吸空气”,能从“天下雨”推导出“地面湿”。但当前AGI系统的智能更偏向“统计关联”,它们通过学习数据中的高频模式生成内容,却无法真正理解背后的因果关系。这导致它们在处理复杂现实问题时,常常出现违背常识的错误——比如生成“给植物浇开水促进生长”的荒谬建议,暴露了智能的“表层性”。

最后是价值对齐与自主决策的模糊性。人类的智能始终嵌套在社会伦理和价值体系中,能在复杂情境下做出符合公序良俗的选择。但AGI系统的“价值判断”完全依赖训练数据中的隐含偏好,既无法真正理解人类价值观的复杂性,也难以在模糊场景下自主做出负责任的决策。比如部分大语言模型会生成带有性别、种族偏见的内容,或是在涉及伦理的问题上给出模棱两可的答案,这成为AGI真正融入人类社会的关键障碍。

哈萨比斯的表态,无疑为当前AGI领域的“狂热情绪”踩了刹车。过去一年来,多家科技巨头纷纷宣称在AGI研发上取得突破,甚至有企业高调宣布“已实现AGI”,催生了市场对AGI的过度期待。而作为行业领军者,哈萨比斯的清醒判断,提醒从业者回归技术本质:AGI的核心是“通用”——能像人类一样灵活应对未知、自主学习、理解世界,而不是在单一领域的性能超越。

当然,哈萨比斯的判断并非否定AGI的发展潜力,反而为行业指明了明确的研发方向:攻克持续学习、因果推理、价值对齐三大核心难题,才是通向真正AGI的必经之路。随着这些技术短板的逐步补齐,AGI或许终将与人类智能并肩,但在此之前,行业需要更多冷静的思考,而非概念的炒作。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创