AI热潮核心支撑:微软、OpenAI等巨头砸下数十亿美元算力基建

2 小时前 AI快讯 0

为满足AI大模型爆发式增长的算力需求,微软OpenAI谷歌Meta、Oracle及英伟达等全球科技巨头正推进总额数十亿美元的AI基础设施交易,聚焦超大规模数据中心扩建、专属算力集群部署等核心方向。这些项目将成为未来AI技术迭代、大模型商业化落地的核心支撑,也拉开了全球AI算力军备赛的全新阶段。

2026年以来,OpenAI与Oracle敲定的一项价值数十亿美元的专属算力集群合作成为行业焦点——Oracle将为OpenAI的下一代大模型训练提供定制化的GPU集群,覆盖三个超大规模数据中心节点,预计年算力输出将突破100 EFLOPS

AI大模型的参数规模从百亿级跃升至万亿级,训练一次GPT-4级别的大模型需要消耗数千块高端GPU持续数月,全球AI算力需求正以年均超100%的速度爆发式增长。供需缺口之下,巨头们纷纷开启军备式投入:微软近一年来在AI数据中心及算力集群的总投入已超300亿美元,谷歌为支撑Gemini系列大模型迭代的“Project Gemini”配套算力集群投资超150亿美元,Meta的AI超级集群“RSC”二期扩容计划也追加了80亿美元预算。

与传统通用型数据中心不同,此次巨头们布局的AI基础设施全为定制化设计,精准匹配大模型训练与推理的特殊需求。比如英伟达与微软合作的Azure AI超级计算机,采用H100、H200 GPU组成的多节点集群,支持高速InfiniBand互联,单集群的模型训练效率较通用架构提升3倍以上;OpenAI与Oracle的合作则聚焦低延迟算力调度,针对大模型实时推理场景优化数据传输链路;Meta的RSC集群更是整合了自研AI芯片与英伟达GPU的混合架构,兼顾多模态大模型训练的算力密度与成本控制。

这些数十亿美元的基建项目不仅是巨头自身AI技术迭代的核心支撑,也开始向第三方开放算力服务:微软的Azure AI算力平台已接入全球上千家AI创业公司,为其提供从模型训练到推理的全流程算力支持。同时,巨头的集中投入也带动了上游供应链爆发,英伟达的高端GPU订单量同比增长300%,数据中心制冷、高速网络设备厂商的营收也实现翻倍增长。不过,行业也开始担忧算力资源集中化的问题——中小AI企业可能面临算力获取成本过高的困境,进而影响AI生态的多元化发展。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创