少找工具,多做创作

高通MWC26展示AI200推理机架 下半年开启商用

2026年巴塞罗那世界移动通信大会(MWC26)上,高通正式展出AI200机架式AI推理解决方案实物,该产品搭载56块自研AI200加速卡,总内存容量达43TB,搭配AMD EPYC霄龙处理器作为算力底座,预计2026年下半年正式商用,同时高通透露将于2028年推出自研数据中心CPU。

在2026年巴塞罗那世界移动通信大会的展台上,高通并未通过演示视频或效果图展示AI200机架,而是直接摆出了完整的实体机型,现场工作人员介绍,这款产品的硬件堆叠逻辑经过专门优化,适配高密度数据中心部署需求。

这款AI200机架整体高度为51U,采用7组5U高度的模块化系统设计。每组系统中,4U空间用于部署AI200加速卡,单个1U托盘可容纳2块加速卡,单组系统即可搭载8块加速卡,7组整机共配备56块AI200加速卡,总内存容量达到43TB。剩余1U空间则搭载2颗AMD EPYC霄龙处理器作为整机的控制与调度核心。互联层面,机架内部采用PCIe高速总线实现组件互联,跨节点则依托800G以太网实现高带宽数据传输。

高通官方明确表示,AI200推理机架将于2026年下半年实现商业可用,主要面向企业级AI推理场景,包括大模型部署、工业智能分析、云端AI服务等领域。此外,高通在展会同期还透露了长期算力生态布局计划,将于2028年推出自研的数据中心CPU产品,逐步完善从加速卡到通用处理器的全栈算力硬件体系。

此次高通推出的AI200机架,采用了“自研AI加速卡+第三方通用CPU”的混合架构方案,既可以发挥自家AI200加速卡的专业推理算力优势,又能依托AMD EPYC处理器的成熟生态,降低企业用户的部署和适配成本。相较于全自研的封闭方案,这种开放兼容的模式更贴合当前多数数据中心的现有基础设施环境,能够快速适配不同规模的AI业务需求。

随着全球AI产业的快速发展,企业级推理算力的需求持续攀升,高通此次推出的AI200机架,或将在企业级AI推理市场占据一席之地。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯