登录体验完整功能(收藏、点赞、评论等)

OpenAI获1100亿美元融资,联手英伟达AWS布局下一代算力

2026年2月27日,OpenAI宣布完成1100亿美元巨额融资,同时深化与英伟达、亚马逊AWS的算力合作——将原7年期380亿美元合同升级为8年期1000亿美元大单,涉及2GW Trainium算力容量。此外,OpenAI计划采用AWS下一代Trainium4芯片,该芯片预计2027年交付,原生支持增强型FP4计算,有望大幅提升其大模型训练效率与行业竞争力。

当地时间2026年2月27日,OpenAI在旧金山举行的年度技术沟通会上抛出两颗“重磅炸弹”:一是完成总额高达1100亿美元的新一轮融资,创下AI领域单笔融资的历史纪录;二是宣布与英伟达、亚马逊AWS达成深度绑定的算力合作框架,全面升级其下一代大模型的算力基础设施。

此次1100亿美元融资的资金去向,OpenAI方面明确表示将优先投入三个领域:下一代通用大模型的研发迭代、全球算力集群的扩建升级,以及跨领域AI人才的招募与培养。而与亚马逊AWS的合作升级,则是此次布局的核心——双方将原本签署的7年期380亿美元算力服务合同,直接延长至8年并扩容至1000亿美元,协议覆盖约2GW的Trainium算力容量。这意味着在未来8年,OpenAI将获得AWS专属的大规模、稳定算力支持,为其超万亿参数大模型的持续训练与推理优化提供坚实基础。

同时,OpenAI强调将与英伟达形成深度技术捆绑,整合英伟达的高端GPU算力与AWS的云服务调度能力,构建一套针对大模型训练定制的专属算力集群。这种“芯片厂商+云服务商+AI厂商”的三方协同模式,被业内认为是当前AI算力布局的最优解,既能保证短期算力供应的充足性,也能为长期技术迭代预留灵活的调整空间。

在技术细节层面,OpenAI首次对外披露,其下一代大模型将全面采用AWS自研的Trainium4芯片,该芯片预计于2027年正式交付。相较于目前主力使用的Trainium3,Trainium4针对超大规模参数大模型的实时吞吐需求进行了全方位定制。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创