2026年2月27日,OpenAI宣布完成1100亿美元巨额融资,同时深化与英伟达、亚马逊AWS的算力合作:将原7年期380亿美元合同升级为8年期1000亿美元大单,涉及2GW Trainium算力容量。此次融资将重点投向超大规模算力基建,2027年交付的AWS Trainium4芯片因原生支持增强型FP4计算,有望成为OpenAI提升大模型竞争力的核心筹码。
2026年2月27日,OpenAI的一则声明在全球AI圈掀起轩然大波——不仅是因为1100亿美元的行业顶流融资,更是因为这家公司同时抛出与英伟达、亚马逊AWS的深度绑定计划,直接将AI行业的算力军备竞赛推向了全新维度。
随着大语言模型向多模态、十万亿级参数规模演进,算力成本正以指数级攀升。行业测算数据显示,训练一次千亿级参数大模型的成本可达数千万美元,而持续的迭代优化与大规模推理服务,更是需要源源不断的算力供给支撑。OpenAI此次将千亿融资几乎全部投入算力基础设施扩建与技术升级,恰恰印证了当前AI行业的核心共识:谁掌握了更高效、更充足的算力底座,谁就能在大模型的技术迭代与市场竞争中占据绝对主动。
此次合作中,OpenAI与亚马逊AWS的合同升级最具战略分量:双方将此前的7年期380亿美元算力合同,直接延长并扩大为8年期1000亿美元的超级算力大单,涉及约2GW的Trainium算力容量。同时,OpenAI明确将构建“英伟达GPU+AWS Trainium芯片”的混合算力架构——英伟达GPU将继续承担大模型训练的核心算力,而AWS的Trainium系列芯片则将在推理环节发挥成本优势,实现训练与推理全流程的高效协同。
作为此次合作的技术亮点,亚马逊计划2027年交付的Trainium4芯片首次曝光核心性能参数:该芯片原生支持增强型FP4计算格式,相比传统FP8计算能将内存占用降低50%,同时配备更宽的内存带宽与更大的显存容量,专门针对超大规模参数模型的实时吞吐需求定制。对OpenAI而言,Trainium4的引入不仅能大幅降低大模型推理的单位成本,还能提升复杂多模态任务的响应速度,为其下一代大模型的落地提供关键算力支持。
OpenAI与云、芯片巨头的深度绑定,正在重塑AI行业的竞争格局。此前微软曾为OpenAI提供初期算力支持,而此次OpenAI同时拥抱英伟达与AWS,意味着头部AI公司正通过多元化算力合作,规避单一供应商的依赖风险。这一趋势也将倒逼其他AI厂商加快与算力平台的合作步伐,未来“AI技术提供商+云厂商+芯片巨头”的铁三角模式,极有可能成为大模型赛道的标配。