登录体验完整功能(收藏、点赞、评论等) — 已累计有 8640 人加入

让AI触手可及,让应用激发潜能

Meta、OpenAI押注非GPU芯片 全球AI算力格局迎重构拐点

近期,Meta与谷歌达成数十亿美元合作大规模租用TPU训练AI模型、OpenAI拟导入英伟达基于Groq技术的AI推理芯片的消息接连曝出,摩根大通一份产能报告显示谷歌计划2027年部署600万颗以上高阶TPU。一系列重磅动态标志着全球AI算力正从GPU主导时代转向非GPU芯片崛起的新格局,算力赛道迎来关键重构拐点。

当行业还在为英伟达GPU一芯难求、价格飙涨的现状感叹时,全球AI巨头们已经悄悄调转了算力布局的船头。3月2日,两则外媒密集曝光的重磅合作,直接撕开了全球AI算力格局重构的缺口。

最先引发关注的是Meta与谷歌的超大规模合作:双方签署了数十亿美元的协议,Meta将批量租用谷歌的TPU芯片用于训练自家的大语言模型。作为谷歌专为AI深度学习打造的专用芯片,TPU在Transformer架构模型的训练场景中,相比传统GPU拥有更高的运算效率和更低的能耗成本,恰好匹配Meta在大模型迭代上的海量算力需求。

几乎同一时间,OpenAI的算力调整计划也浮出水面:该公司拟导入英伟达基于Groq技术的AI推理芯片。Groq的推理芯片以低延迟、高吞吐为核心优势,能够大幅提升大模型实时交互场景的响应速度,同时降低推理环节的算力成本,这对于面临用户规模持续增长、推理算力压力陡增的OpenAI而言,无疑是一次关键的性能补位。

过去几年,英伟达GPU凭借出色的通用性和性能,几乎垄断了全球高端AI算力市场,H100、H200等型号长期处于供不应求的状态,甚至催生了“算力黄牛”产业链。但随着大模型训练和推理的需求呈指数级增长,GPU的产能瓶颈、高成本以及场景适配局限性开始凸显。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创