登录体验完整功能(收藏、点赞、评论等)

OpenAI获1100亿美元融资,携手亚马逊英伟达筑牢算力壁垒

近日,AI巨头OpenAI完成总额1100亿美元的新一轮融资,将联合亚马逊、英伟达构建超大规模算力基础设施。其中,OpenAI与亚马逊将原有7年期380亿美元的算力合同升级为8年期1000亿美元超级大单,涉及约2GW Trainium算力容量,并计划采用AWS即将于2027年交付的Trainium4芯片,进一步巩固其在AI算力领域的核心优势。

当AI行业的竞争从模型参数的短期比拼转向算力储备的长期持久战,OpenAI再次甩出重磅筹码。此次1100亿美元的融资中,核心板块是与亚马逊AWS的算力合作升级——双方将原本7年期380亿美元的框架合同,直接扩展为8年期1000亿美元的超级大单,涉及的Trainium算力容量达到约2GW。这意味着未来8年,OpenAI将获得AWS体系下稳定且超大规模的算力支撑,同时也将深度绑定双方在AI基础设施领域的长期协作。

除了与亚马逊的深度合作,OpenAI还将与英伟达协同构建多元算力基础设施,形成“自研芯片+通用GPU”的双重算力布局,以覆盖大语言模型迭代、多模态AI研发等不同场景的算力需求,全方位应对未来AI技术演进带来的算力缺口。

此次合作的核心技术支点,是AWS即将于2027年交付的Trainium4芯片。作为AWS Trainium系列的下一代旗舰产品,Trainium4首次曝光的性能细节直指大模型训练的核心痛点:原生支持增强型FP4计算格式,能够在保证计算精度的前提下,大幅提升算力利用率;同时搭配更宽的内存带宽与更大容量的显存,可高效处理万亿参数级大模型的分布式训练任务。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创