少找工具,多做创作

英伟达砸200亿美元押注LPU,下月GTC将推全新推理芯片

英伟达宣布将在2026年4月的GTC开发者大会上,推出整合Groq语言处理单元(LPU)技术的全新AI推理芯片,CEO黄仁勋称其为“世界从未见过”的系统。为布局这一技术,英伟达已投入200亿美元重注LPU赛道,旨在解决AI推理市场的性能瓶颈,进一步巩固其在AI芯片领域的主导地位。

当用户在大语言模型平台上等待响应的那零点几秒延迟,背后是AI推理芯片正面临的性能与成本双重考验。随着大模型商业化落地加速,企业对AI推理的效率需求呈指数级增长,全球AI芯片巨头们的新一轮技术竞赛已悄然打响。

在AI芯片市场,英伟达凭借GPU产品长期占据训练端的主导地位,但随着大模型从实验室走向产业应用,推理环节的瓶颈逐渐凸显。传统GPU更适合并行计算的训练任务,在处理大语言模型的实时推理请求时,存在能耗高、响应速度不足、单位算力成本偏高等问题。

据行业数据显示,AI推理的市场规模正以每年超50%的速度增长,成为AI产业链中最具潜力的细分赛道之一。英伟达此次砸下200亿美元押注LPU技术,正是瞄准这一市场缺口,试图用专门优化的芯片架构破解推理环节的性能与成本矛盾。

据外媒报道,英伟达计划在即将到来的GTC开发者大会上,发布整合Groq公司LPU(语言处理单元)技术的全新推理芯片。与通用GPU不同,LPU是专为大语言模型推理任务设计的专用芯片架构,能够更高效地处理自然语言生成、对话交互、实时内容生成等场景的计算需求。

英伟达CEO黄仁勋将这款新系统称为“世界从未见过”的产品,暗示其在响应速度、能耗比、并发处理能力上可能实现突破性提升。对于依赖实时AI交互的企业而言,这款芯片有望大幅降低推理成本,同时提升用户体验。

此次布局LPU,被业内视为英伟达在AI推理界的“诺曼底登陆”。此前,英伟达的核心优势集中在训练端,但随着大模型商业化进程加快,推理市场的重要性日益凸显——越来越多的企业开始将预算向推理环节倾斜,而非仅仅停留在模型训练阶段。

通过200亿美元的重注,英伟达试图将其在训练端的主导权延伸至推理端,构建从模型训练到落地部署的全链条技术壁垒。这一动作不仅是为了应对AMD、Groq等厂商在推理赛道的竞争,更是为了巩固其在全球AI芯片市场的绝对话语权。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯