登录体验完整功能(收藏、点赞、评论等)

AI算力扩张遭遇能源瓶颈 能源科技成创投热门新赛道

根据国际科技媒体TechCrunch最新行业观察,全球AI算力需求近三年复合增速超60%,电力供应已成为AI数据中心落地的最大瓶颈,当前单座万卡级AI算力中心的年耗电量相当于一座20万人口县城的居民生活用电,这一缺口直接推动适配AI场景的能源科技成为2026年创投圈最受关注的赛道之一。

2026年开年以来,微软、OpenAI、谷歌等科技巨头在北美、欧洲选址新建AI算力集群的计划接连遭遇搁置,核心原因均是当地电网无法匹配动辄数百兆瓦的电力需求,甚至部分已落地的中小规模AI数据中心,也因为季节性限电政策不得不降低算力上架率,AI落地的能源约束问题已经从远期预判变成了眼下的现实阻碍。

以往行业讨论AI基础设施的瓶颈,普遍聚焦芯片供应、网络带宽等IT侧资源,但过去两年随着H100、H200等高算力AI芯片的量产落地,电力和散热的“非IT瓶颈”在项目落地阻碍中的占比已经从2021年的35%攀升至2026年的62%。

单颗H100芯片的运行功耗最高可达700W,是同期主流服务器CPU功耗的4倍以上,一座承载10万张H100芯片的超大规模AI算力集群,满负荷运行的年耗电量超过12亿千瓦时,超过了国内不少县级行政区的全年工业用电量,传统的电网规划和数据中心能源方案已经完全无法匹配AI算力的扩张需求。

这一刚性缺口催生了一大批瞄准AI场景的能源技术创业公司,方向涵盖分布式绿电并网、液冷散热、动态算力调度、余热回收等多个细分领域,和传统能源项目不同,这类公司的产品大多直接面向AI厂商的具体需求设计,落地周期更短,投资回报也更快。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创