AI算力垄断格局下 AMD网卡短板成追赶NVIDIA核心掣肘
当前全球AI算力芯片市场呈现NVIDIA一家独大的垄断格局,其市占率高达90%。长期处于第二梯队的AMD虽近年在AI领域加速追赶,推出MI350X等产品缩小技术差距,但近期被曝出网卡性能短板,这一关键缺陷正成为其撼动行业垄断地位的核心掣肘,也引发业内对AI算力竞争下半场的深度思考。
AI大模型的爆发式增长,让算力芯片成为支撑产业发展的核心基础设施,而NVIDIA无疑是这一赛道的绝对赢家。凭借CUDA软件生态的深度绑定、Hopper架构的技术领先性,再加上配套InfiniBand网卡构建的全栈优势,NVIDIA牢牢掌控着先进AI算力芯片90%的市场份额——几乎所有头部AI企业、全球主流云服务商的核心算力集群,都依赖其GPU产品。在这样的格局下,AMD一直被寄予“破局者”的期望:作为全球第二大GPU厂商,它在传统PC、服务器GPU市场积累了深厚技术底蕴,过去两年更是将AI算力芯片列为战略重心,动作频频。
去年推出的MI350X系列AI加速卡,被业内认为是AMD首次在性能上接近NVIDIA同期旗舰产品的里程碑式作品。该产品搭载3D V-Cache技术,在部分AI推理任务和小模型训练场景中,能效比甚至能比肩NVIDIA的A100,一度让市场看到打破垄断的曙光。不少云服务商开始小批量部署MI350X,将其作为NVIDIA GPU的补充方案,试图降低对单一供应商的依赖。
然而,就在AMD的追赶势头渐起之时,网卡性能不足的问题被推到台前,成为制约其进一步扩张的关键掣肘。业内人士指出,AI算力集群的高效运转绝非单GPU性能的比拼,更依赖高速、低延迟的网络连接实现多卡协同:在百亿、千亿参数级大模型的训练场景中,数千甚至上万块GPU需要通过网卡组成高性能计算集群,数据传输的速度和稳定性直接决定整体训练效率。而AMD当前配套的网卡技术,无法充分释放MI350X的算力潜能——在多节点集群部署测试中,跨节点数据传输延迟明显高于NVIDIA的InfiniBand网卡,导致整体集群性能被拉低20%以上。
这一短板直接击中了AI企业和云服务商的核心痛点。某头部云服务商的AI架构师在接受采访时表示:“我们曾对MI350X集群进行了为期3个月的测试,单卡性能确实符合预期,但在训练千亿参数大模型时,整体耗时比NVIDIA A100集群多出近30%,这对需要快速迭代模型的AI企业来说,几乎是无法接受的成本。”他进一步解释,虽然MI350X的单卡采购成本低于NVIDIA旗舰产品,但集群效率的下降会推高长期运营成本,反而让企业得不偿失。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
6 小时前
AMD近期正式发布锐龙Pro 9000系列工作站级处理器,全系搭载最新Zen5架构与3D V-Cache堆叠缓存技术,相较上一代产品单线程性能提升16%,多线程性能提升28%,面向本地AI工作站、专业内容创作等场景优化,本地7B参数大语言模型推理速度最高提升40%,预计将率先登陆戴尔、惠普等品牌的商用工作站产品线。

25 天前
2026年4月20日,英伟达(NVIDIA)研究院在Hugging Face平台正式开源新一代AI 3D生成框架Lyra 2.0。该技术突破了传统长时程生成场景的一致性痛点,可从单张输入图像生成大型持久一致的可探索3D场景,解决了困扰行业已久的“空间遗忘”和“时间漂移”问题,能支持实时渲染、机器人仿真与游戏开发等多场景应用,为生成式3D领域提供了实用开源工具。

29 天前
2026年4月16日,全球算力巨头NVIDIA正式发布全球首个开源量子AI模型NVIDIA Ising,瞄准量子计算实用化阶段的两大核心痛点——量子处理器校准与量子纠错。该模型包含350亿参数的Ising Calibration视觉语言模型、优化型Ising Decoding纠错模型两大模块,可将校准时间从数天压缩至数小时,量子纠错准确率较行业基准提升3倍,训练数据仅为传统方案的十分之一。

1 个月前
近期消费级AI应用落地速度持续加快,AMD推出主打AI算力的锐龙9 9950X3D2系列处理器,OpenAI GPT-5、Google Gemini、Apple Intelligence、DeepSeek等大模型产品迭代提速,端侧AI推理性能较2023年平均提升210%,预计2027年全球端侧AI市场规模将突破3200亿元,行业正式进入爆发前夜。

1 个月前
2026年4月,半导体巨头英特尔正式宣布加入埃隆·马斯克主导的Terafab先进芯片制造项目。此次合作将把英特尔积累数十年的晶圆制造、先进制程工艺经验注入Terafab项目,双方将共同瞄准AI训练所需的高算力芯片产能缺口,计划在3年内将Terafab的12英寸晶圆月产能提升至10万片规模,为下一代大模型落地提供稳定算力支撑。

1 个月前
近日,芯片厂商Intel被曝正在研发下一代移动处理器Serpent Lake,该芯片集成对标Nvidia RTX系列显卡的独立级AI计算单元,推理算力较当前14代酷睿提升300%,可本地运行70B参数大语言模型,有望2025年第二季度上市,为PC端AI应用普及带来硬件层面的重大突破。

1 个月前
2026年3月,芯片厂商AMD针对2025年智能体元年爆发后,开源AI框架OpenClaw(俗称“龙虾”)普及带来的端侧算力缺口,正式提出“智能体主机”概念,建议用户配备双主机:一台用于日常办公生活,另一台专用于7*24小时运行本地AI智能体,可解决云端部署的高Token成本、隐私泄露等问题,单智能体最低需10GB显存,多智能体场景需64GB以上显存。

1 个月前
2026年3月17日,NVIDIA正式发布专为OpenClaw代理平台打造的NemoClaw技术堆栈,支持开发者通过单条命令完成Nemotron大模型与OpenShell运行时的全流程部署。NVIDIA创始人兼CEO黄仁勋将OpenClaw定位为“个人AI的操作系统”,称该产品落地将推动AI代理时代...