登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

高通MWC26展示AI200推理机架 下半年开启商用

2026年巴塞罗那世界移动通信大会(MWC26)上,高通正式展出AI200机架式AI推理解决方案实物,该产品搭载56块自研AI200加速卡,总内存容量达43TB,搭配AMD EPYC霄龙处理器作为算力底座,预计2026年下半年正式商用,同时高通透露将于2028年推出自研数据中心CPU。

在2026年巴塞罗那世界移动通信大会的展台上,高通并未通过演示视频或效果图展示AI200机架,而是直接摆出了完整的实体机型,现场工作人员介绍,这款产品的硬件堆叠逻辑经过专门优化,适配高密度数据中心部署需求。

这款AI200机架整体高度为51U,采用7组5U高度的模块化系统设计。每组系统中,4U空间用于部署AI200加速卡,单个1U托盘可容纳2块加速卡,单组系统即可搭载8块加速卡,7组整机共配备56块AI200加速卡,总内存容量达到43TB。剩余1U空间则搭载2颗AMD EPYC霄龙处理器作为整机的控制与调度核心。互联层面,机架内部采用PCIe高速总线实现组件互联,跨节点则依托800G以太网实现高带宽数据传输。

高通官方明确表示,AI200推理机架将于2026年下半年实现商业可用,主要面向企业级AI推理场景,包括大模型部署、工业智能分析、云端AI服务等领域。此外,高通在展会同期还透露了长期算力生态布局计划,将于2028年推出自研的数据中心CPU产品,逐步完善从加速卡到通用处理器的全栈算力硬件体系。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创