社交媒体巨头Meta近日与谷歌达成数十亿美元跨年度协议,租用谷歌自研张量处理单元(TPU)开发新一代AI模型,这一举措直指英伟达在AI芯片市场的垄断地位。此前Meta刚宣布采购数百万个英伟达、AMD的GPU,而谷歌则定下夺取英伟达约10%年收入(约200亿美元)的算力业务目标。
刚宣布采购数百万个英伟达、AMD GPU的Meta,在短短几天后就抛出了另一项重磅算力布局——与谷歌达成一笔数十亿美元的跨年度协议,这一次,它选择的不是GPU,而是谷歌专为大模型训练自研的张量处理单元(TPU)。这种看似矛盾的动作,实则是Meta在算力布局上的深思熟虑。
长期以来,Meta的AI模型训练(如Llama系列大语言模型)高度依赖英伟达的GPU,后者凭借CUDA生态和高性能架构,占据了全球AI加速芯片市场的绝对主导地位。此次Meta转向谷歌TPU,并非彻底放弃GPU——它依然保留了数百万个英伟达、AMD GPU的订单——而是为了缓解算力供需缺口,同时探索摆脱单一供应商依赖的路径。据透露,Meta甚至考虑从2027年开始直接采购TPU硬件,将其部署在自有数据中心,为下一代自研大模型提供稳定算力支撑。
对于谷歌而言,这笔订单是其TPU算力商业化的关键里程碑。作为谷歌为自家Gemini大模型量身打造的专用芯片,TPU此前主要服务于内部业务和谷歌云的基础算力需求,并未大规模对外开放。此次与Meta合作,谷歌不仅能获得数十亿美元的稳定收入,更能通过Meta的大模型训练场景,验证TPU在外部客户环境下的适配性与性能优势,从而直接冲击英伟达的市场份额。谷歌云高管已明确表态,将通过TPU的对外租赁业务,夺取英伟达约10%的年收入(约200亿美元),正式撬动AI芯片市场的垄断底盘。
值得注意的是,Meta与谷歌既是算力合作的伙伴,也是大模型赛道的直接竞争对手——前者的Llama系列开源模型与后者的Gemini闭源模型在全球AI市场正面交锋,这种“竞合”关系也让这笔交易充满了微妙的战略意味。
过去三年,英伟达凭借GPU产品和CUDA生态,占据了AI加速芯片市场80%以上的份额,几乎所有头部AI厂商都依赖其产品构建算力体系。但随着全球大模型训练需求的爆发,越来越多的厂商开始寻求多元化布局:AMD的MI系列GPU凭借高性价比获得了Meta、微软等巨头的大额订单;谷歌的TPU则通过云租赁的方式切入市场,凭借专为大模型优化的架构吸引客户;而Meta此次的“双轨布局”,更是打破了AI厂商对单一芯片供应商的依赖惯性。
未来,AI芯片市场可能会从英伟达“一家独大”转向“多足鼎立”的格局,厂商的算力选择将更加注重适配性、成本与供应链安全,英伟达的垄断地位将面临来自多方的持续挑战。