少找工具,多做创作

Meta、OpenAI押注非GPU芯片 全球AI算力格局迎重构拐点

近期,Meta与谷歌达成数十亿美元合作大规模租用TPU训练AI模型、OpenAI拟导入英伟达基于Groq技术的AI推理芯片的消息接连曝出,摩根大通一份产能报告显示谷歌计划2027年部署600万颗以上高阶TPU。一系列重磅动态标志着全球AI算力正从GPU主导时代转向非GPU芯片崛起的新格局,算力赛道迎来关键重构拐点。

当行业还在为英伟达GPU一芯难求、价格飙涨的现状感叹时,全球AI巨头们已经悄悄调转了算力布局的船头。3月2日,两则外媒密集曝光的重磅合作,直接撕开了全球AI算力格局重构的缺口。

最先引发关注的是Meta与谷歌的超大规模合作:双方签署了数十亿美元的协议,Meta将批量租用谷歌的TPU芯片用于训练自家的大语言模型。作为谷歌专为AI深度学习打造的专用芯片,TPU在Transformer架构模型的训练场景中,相比传统GPU拥有更高的运算效率和更低的能耗成本,恰好匹配Meta在大模型迭代上的海量算力需求。

几乎同一时间,OpenAI的算力调整计划也浮出水面:该公司拟导入英伟达基于Groq技术的AI推理芯片。Groq的推理芯片以低延迟、高吞吐为核心优势,能够大幅提升大模型实时交互场景的响应速度,同时降低推理环节的算力成本,这对于面临用户规模持续增长、推理算力压力陡增的OpenAI而言,无疑是一次关键的性能补位。

过去几年,英伟达GPU凭借出色的通用性和性能,几乎垄断了全球高端AI算力市场,H100、H200等型号长期处于供不应求的状态,甚至催生了“算力黄牛”产业链。但随着大模型训练和推理的需求呈指数级增长,GPU的产能瓶颈、高成本以及场景适配局限性开始凸显。

摩根大通最新流出的产能报告进一步放大了这一趋势:谷歌计划在2027年部署600万颗以上高阶TPU。这一规模不仅能完全覆盖谷歌自身Gemini等大模型的算力需求,更意味着谷歌将正式对外开放规模化的TPU算力服务,直接挑战英伟达在AI算力市场的主导地位。事实上,除了TPU,亚马逊的Inferentia、微软的Maia等专用AI芯片也在加速落地,AI算力的技术路线正在从单一GPU向多元专用芯片扩散。

业内人士普遍认为,此次Meta、OpenAI等巨头的押注,标志着AI算力正式进入“专用化时代”。未来,随着大模型向垂直场景渗透,训练与推理的算力需求将进一步分化,针对特定场景优化的专用芯片会成为主流选择——比如用于训练的TPU、用于实时推理的Groq芯片,以及面向边缘计算的低功耗NPU等。

这种趋势不仅会改变芯片厂商的竞争格局,还将重塑整个AI算力服务市场:第三方算力服务商可能推出“GPU+TPU+专用推理芯片”的混合算力解决方案,中小AI企业也能以更低成本获取适配自身场景的算力资源。而英伟达也不会坐视市场份额被蚕食,大概率会加快在专用AI芯片领域的布局,全球AI算力赛道的多元竞争大幕正在徐徐拉开。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯