2月27日,OpenAI宣布完成1100亿美元新融资后,与亚马逊AWS深化合作:将原7年期380亿美元算力协议扩展为8年期1000亿美元订单,同时承诺采购约2GW AWS Trainium系列AI芯片云算力。据悉,新一代Trainium4预计2027年交付,将在FP4计算性能、内存带宽及显存容量上实现显著提升,支撑OpenAI高级AI工作负载。
当OpenAI在融资发布会上披露千亿美元级算力合作细节时,全球AI行业的算力军备竞赛再度升级。不同于以往单一依赖英伟达GPU的路径,这次OpenAI将亚马逊AWS纳入核心算力伙伴矩阵,2GW Trainium系列芯片的采购计划,更是为下一代AI模型的训练埋下关键伏笔。
随着大语言模型向多模态、超大规模方向演进,算力需求呈现指数级增长。OpenAI此次将与AWS的原7年期380亿美元算力合作,直接扩展为8年期1000亿美元的超级订单,规模增幅超过160%。除了原有GPU云算力的延续,新增的2GW Trainium系列算力,将专门用于支撑OpenAI的有状态运行时、Frontier项目等高级AI工作负载——这些项目被视为OpenAI突破当前大模型性能天花板的核心布局。
在AI行业,算力储备直接决定了模型迭代的速度和上限。OpenAI此前依赖英伟达A100、H100芯片完成GPT系列模型的训练,但随着模型参数从千亿级向万亿级跨越,单一GPU架构的算力瓶颈逐渐显现。千亿美元级的多元算力布局,显然是OpenAI为未来3-5年的超大规模模型研发提前“囤货”。
作为AWS专为AI训练打造的自研芯片,Trainium系列一直是英伟达GPU的有力竞争者。此次OpenAI采购的Trainium算力中,新一代Trainium4将成为核心主力——这款芯片预计2027年开始交付,官方数据显示其将在FP4计算性能上实现显著提升,同时具备更宽的内存带宽和更高的显存容量。
FP4低精度计算是当前AI训练提升效率的关键技术,Trainium4在这一维度的优化,意味着相同功耗下能处理更多的AI训练数据,大幅降低大模型训练的时间和成本。对于OpenAI而言,Trainium芯片与英伟达GPU的组合,既能满足通用大模型的训练需求,也能为特定场景的AI任务提供更高效的算力支持。
OpenAI此次同时深化与英伟达、AWS的合作,标志着AI行业“模型厂商+算力供应商”的绑定模式进入新阶段。此前OpenAI与微软Azure的合作已经构建了一套成熟的算力支撑体系,但千亿美元投向AWS的决定,显然是为了避免算力供应的单一依赖,同时借助AWS的自研芯片探索更高效的算力架构。
对于亚马逊AWS来说,与OpenAI的深度绑定不仅能巩固其在AI云算力市场的地位,更能通过Trainium芯片的大规模应用,向全球AI厂商证明自研AI芯片的竞争力。而这种巨头之间的强强联合,也将进一步抬高AI行业的进入门槛,中小厂商想要在大模型赛道突围,将面临更大的算力成本压力。