AMD近期正式发布锐龙Pro 9000系列工作站级处理器,全系搭载最新Zen5架构与3D V-Cache堆叠缓存技术,相较上一代产品单线程性能提升16%,多线程性能提升28%,面向本地AI工作站、专业内容创作等场景优化,本地7B参数大语言模型推理速度最高提升40%,预计将率先登陆戴尔、惠普等品牌的商用工作站产品线。
据IDC发布的2024年上半年商用终端报告,国内AI工作站出货量同比上涨127%,其中82%的企业采购方明确表示,工作站需要支持本地运行7B及以上参数的大语言模型,且核心数据不能上传公有云。这一需求也倒逼上游芯片厂商加速升级桌面级处理器的AI算力表现,AMD此次推出的锐龙Pro 9000系列正是瞄准这一市场缺口。
过去几年,企业端的AI应用大多依赖云端算力支持,但对于工业设计、医药研发、涉密内容创作等场景而言,数据上传云端存在极高的安全风险,而传统工作站CPU受限于缓存容量、指令集架构,跑AI推理时需要频繁调取内存数据,延迟往往是云端的3-5倍,根本无法满足实时交互的需求。
此前行业的普遍解决方案是在工作站中搭载高端独立显卡来完成AI计算,但单张AI专业卡的采购成本动辄数万元,远超出中小团队的预算范围,性价比极低。
此次AMD推出的锐龙Pro 9000系列,最大的升级点就是将消费端已经验证成熟的3D V-Cache技术下放到商用工作站产品线,全系最高配备128MB堆叠缓存,相比上一代同级别产品缓存容量翻倍,大模型推理时需要调用的权重数据可以直接存储在缓存中,不需要反复调取内存,延迟降低60%以上。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
1 个月前
近期消费级AI应用落地速度持续加快,AMD推出主打AI算力的锐龙9 9950X3D2系列处理器,OpenAI GPT-5、Google Gemini、Apple Intelligence、DeepSeek等大模型产品迭代提速,端侧AI推理性能较2023年平均提升210%,预计2027年全球端侧AI市场规模将突破3200亿元,行业正式进入爆发前夜。

1 个月前
2026年3月,芯片厂商AMD针对2025年智能体元年爆发后,开源AI框架OpenClaw(俗称“龙虾”)普及带来的端侧算力缺口,正式提出“智能体主机”概念,建议用户配备双主机:一台用于日常办公生活,另一台专用于7*24小时运行本地AI智能体,可解决云端部署的高Token成本、隐私泄露等问题,单智能体最低需10GB显存,多智能体场景需64GB以上显存。

2 个月前
2026年3月16日,AMD正式推出OpenClaw开源框架及RyzenClaw、RadeonClaw两套硬件参考配置,推进其“Agent Computer”计划落地。该方案支持开发者在本地Windows设备通过WSL2环境运行大语言模型与多智能体工作流,可适配Qwen3.5 35B等大参数模型,在大幅提升AI应用隐私安全性的同时,有效降低开发者对云端算力、订阅服务的依赖。

2 个月前
李飞飞领衔的World Labs近日发布最新行业研判,提出AI在写完代码之后的下一个核心发展方向是“写世界”,即依托3D as code技术,以自然语言为接口实现对复杂物理与数字系统的操控。当前大模型已凭借成熟的文本接口渗透各行业,未来有望打通虚拟与现实的交互壁垒。

2 个月前
2026年3月3日,AMD CEO苏姿丰出席摩根士丹利技术、媒体与电信会议,就AI算力格局、芯片竞争、内存市场等热点作出回应。她透露企业级服务器CPU需求意外爆发,公司正全力追赶订单;明确AI基础设施不存在“万能芯片”,异构计算已成行业必然趋势,同时预判下半年内存市场波动将逐步趋缓。

2 个月前
2026年巴塞罗那世界移动通信大会(MWC26)上,高通正式展出AI200机架式AI推理解决方案实物,该产品搭载56块自研AI200加速卡,总内存容量达43TB,搭配AMD EPYC霄龙处理器作为算力底座,预计2026年下半年正式商用,同时高通透露将于2028年推出自研数据中心CPU。

2 个月前
当地时间2月27日,Meta在自研AI芯片领域遭遇重大挫折,因设计难度远超团队预期,已正式取消最先进的高端AI训练芯片项目,并通报给AI基础设施部门员工。为填补算力缺口,Meta一方面转向开发结构更简单的自研替代方案,另一方面强化供应商合作,已签署数十亿美元协议向谷歌租用AI芯片,同时推进与AMD的相关合作。

2 个月前
芯片巨头AMD宣布斥资2.5亿美元与软件定义数据中心厂商Nutanix达成战略合作,其中1.5亿美元用于股权投资,1亿美元投入联合研发,双方将联手打造全栈AI基础设施平台,为企业提供本地AI部署的更多选择,意图构建能与英伟达抗衡的AI生态体系。