少找工具,多做创作

英伟达拟推Groq架构AI推理芯片 OpenAI锁定首位大客户

刚刚完成1100亿美元巨额融资的OpenAI,将成为英伟达一款全新AI推理芯片的首位客户——这款芯片的核心架构并非来自英伟达自研,而是采用了AI芯片厂商Groq的LPU技术。3月即将开幕的圣何塞GTC大会上,英伟达CEO黄仁勋将正式推出该产品,这是英伟达首次打破自研架构路径,引入外部技术打造核心AI芯片,引发行业对推理端算力格局变化的高度关注。


长期以来,英伟达的AI芯片生态牢牢建立在自研GPU架构之上,从A100到H100系列GPU,几乎成为全球AI训练与推理场景的标准配置。但此次即将发布的新推理芯片,将彻底放弃GPU架构,转向Groq专为大语言模型优化的LPU(Language Processing Unit)架构
Groq的LPU技术以超低延迟和高能效比为核心优势,在处理复杂推理任务时,能够比传统GPU减少约30%的算力消耗,同时将响应速度提升数倍。对英伟达而言,引入外部架构既是对专用推理芯片趋势的适配,也透露出其在推理端算力竞争中的紧迫感。

刚刚完成1100亿美元巨额融资的OpenAI,成为这款新芯片的首个锁定客户。作为全球最大的大语言模型服务商,OpenAI每日需处理数十亿次用户推理请求,算力成本占其运营开支的近60%。
选择英伟达与Groq联合打造的推理芯片,不仅能直接提升ChatGPT等产品的响应速度,更能通过架构优化压缩长期算力投入。这一动作也标志着,OpenAI在完成融资后,正加快底层算力基础设施的升级,为后续大模型迭代、多模态产品落地储备核心支撑能力。

英伟达此次打破自研惯例的动作,折射出AI推理端市场的激烈竞争。此前,英伟达凭借GPU的通用性和生态优势,占据了全球AI推理芯片市场约80%的份额,但随着大模型推理需求爆发,Groq、Tenstorrent等专用推理芯片厂商开始崛起。
引入外部架构的策略,既可能是英伟达巩固市场的新手段——通过整合优质技术满足客户多样化需求,也让行业意识到,未来AI推理芯片赛道或将从“GPU独大”转向“多架构共存”的新格局,专用化、定制化的推理芯片将迎来更多发展空间。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯