OpenAI获1100亿美元融资,携手亚马逊英伟达筑牢算力壁垒

1 小时前 AI快讯 1

近日,AI巨头OpenAI完成总额1100亿美元的新一轮融资,将联合亚马逊、英伟达构建超大规模算力基础设施。其中,OpenAI与亚马逊将原有7年期380亿美元的算力合同升级为8年期1000亿美元超级大单,涉及约2GW Trainium算力容量,并计划采用AWS即将于2027年交付的Trainium4芯片,进一步巩固其在AI算力领域的核心优势。

当AI行业的竞争从模型参数的短期比拼转向算力储备的长期持久战,OpenAI再次甩出重磅筹码。此次1100亿美元的融资中,核心板块是与亚马逊AWS的算力合作升级——双方将原本7年期380亿美元的框架合同,直接扩展为8年期1000亿美元的超级大单,涉及的Trainium算力容量达到约2GW。这意味着未来8年,OpenAI将获得AWS体系下稳定且超大规模的算力支撑,同时也将深度绑定双方在AI基础设施领域的长期协作。

除了与亚马逊的深度合作,OpenAI还将与英伟达协同构建多元算力基础设施,形成“自研芯片+通用GPU”的双重算力布局,以覆盖大语言模型迭代、多模态AI研发等不同场景的算力需求,全方位应对未来AI技术演进带来的算力缺口。

此次合作的核心技术支点,是AWS即将于2027年交付的Trainium4芯片。作为AWS Trainium系列的下一代旗舰产品,Trainium4首次曝光的性能细节直指大模型训练的核心痛点:原生支持增强型FP4计算格式,能够在保证计算精度的前提下,大幅提升算力利用率;同时搭配更宽的内存带宽与更大容量的显存,可高效处理万亿参数级大模型的分布式训练任务。

对比当前正在使用的Trainium3芯片,Trainium4的性能提升将帮助OpenAI大幅缩短模型迭代周期,降低训练成本,为下一代GPT系列模型或多模态AI系统的研发筑牢底层算力基础。

在AI技术快速演进的当下,算力已经成为决定企业竞争力的核心壁垒。OpenAI此次千亿美元级的算力投入,本质是提前锁定未来5-10年的核心算力资源,应对大模型参数规模持续扩大、多模态融合需求激增带来的算力爆炸式增长。

对于亚马逊AWS而言,通过与OpenAI的深度绑定,不仅能快速推广其自研Trainium芯片的市场份额,还能进一步巩固其在云服务AI基础设施领域的领先地位;英伟达则可借助与OpenAI的合作,持续强化其GPU在AI训练场景中的核心话语权。三方的协同布局,正在重新定义全球AI算力市场的竞争格局。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创