少找工具,多做创作

HBM之父金正浩预判:AI芯片格局将转向内存主导时代

当地时间2026年3月30日,有“HBM之父”之称的韩国科学技术院电气与电子工程学院教授金正浩公开对外表态,当前以英伟达GPU为核心的AI芯片体系即将发生根本性变革,未来高带宽内存(HBM)、高带宽闪存(HBF)将成为计算核心,GPU与CPU将退居配角,这一预判也引发全球半导体行业对存算一体架构落地节奏的广泛讨论。

当前AI产业正处于从生成式AI向AI智能体跃迁的关键节点,大模型参数规模动辄突破万亿级,训练和推理过程中数据传输需求呈指数级上涨,GPU算力释放频繁被内存带宽瓶颈限制,这一被业内称为“内存墙”的难题,已经成为AI算力升级的头号阻碍。

过去几年,英伟达凭借GPU硬件+CUDA软件生态的组合,占据了全球AI算力市场超过80%的份额,当前几乎所有主流大模型的训练和推理都基于英伟达GPU集群展开。但随着AI应用对实时性、能效比的要求越来越高,传统“GPU计算+内存存储”的分离式架构短板愈发明显:数据在GPU和内存之间来回传输的延迟,能占到整个AI计算任务延迟的70%以上,功耗占比也超过60%,投入产出比持续走低。

作为HBM技术的核心发明者,金正浩的观点在半导体领域拥有极高的权威性。他明确提出,未来AI芯片的核心将从GPU转向内存侧,GPU和CPU都会作为协处理器,被整合进HBM、HBF的封装体系中,实现计算和存储的深度融合,从根源上解决数据传输带来的延迟和功耗问题。这种架构变革,恰好适配AI智能体多任务并行、低延迟响应的需求,能把当前AI计算的能效比提升10倍以上。

事实上,整个半导体行业已经在为这场架构变革做准备。三星、SK海力士两大存储巨头已经开始研发集成计算单元的存算一体HBM原型产品,预计2028年左右实现量产;英伟达也在推进3D堆叠封装技术,缩小GPU和HBM之间的物理距离,提升数据传输效率;国内存储厂商长鑫存储、长江存储也早已布局存算一体相关技术专利,抢占下一代AI芯片的话语权。

不过金正浩也坦言,内存主导的AI芯片架构不会立刻取代现有GPU体系,整个过渡周期大概在5到10年左右。最大的阻碍并非硬件技术,而是现有软件生态的适配:当前绝大多数AI框架、算子都基于CUDA生态开发,想要迁移到新的内存计算架构上,需要整个行业上下游的协同调整,短期内通用AI计算场景仍会以GPU架构为主。

AI生成配图

(图像由AI生成)

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创