少找工具,多做创作

AMD发布OpenClaw框架及两套硬件方案 支持本地运行大模型与多智能体

2026年3月16日,AMD正式推出OpenClaw开源框架及RyzenClaw、RadeonClaw两套硬件参考配置,推进其“Agent Computer”计划落地。该方案支持开发者在本地Windows设备通过WSL2环境运行大语言模型与多智能体工作流,可适配Qwen3.5 35B等大参数模型,在大幅提升AI应用隐私安全性的同时,有效降低开发者对云端算力、订阅服务的依赖。

对于不少AI开发者和深度用户而言,在本地运行大模型始终是个两难选择:要么硬件配置不够跑不动大参数模型,要么软件适配繁琐需要反复调试环境。AMD此次推出的整套方案,恰恰瞄准了这一行业痛点。


近两年随着大语言模型能力迭代、多智能体应用场景逐渐落地,行业对AI推理的隐私性、低延迟要求不断提升。云端推理不仅需要持续支付算力订阅费用,用户的敏感数据上传到服务器也存在泄露风险,不少企业和个人开发者都开始转向本地端侧推理方案,但此前软硬件适配门槛较高,普通用户很难上手。

AMD此次推出的整套方案,采用软件开源+硬件参考配置的组合模式,最大程度降低开发者的适配成本。

OpenClaw开源框架目前主要在Windows平台的WSL2环境下运行,搭配LM Studio与llama.cpp后端实现本地推理,还内置了Memory.md嵌入式记忆框架,所有上下文交互数据全部存储在本地硬件中,完全不会对外传输,从底层保障数据安全。目前框架已经适配了包括Qwen3.5 35B在内的多款主流大模型,可支撑绝大多数多智能体工作流的运行需求。

针对不同用户的算力需求,AMD同步推出了两套硬件参考方案:面向消费级开发者和普通创作者的RyzenClaw方案,以Ryzen AI Max+处理器为核心,依靠芯片内置的高性能NPU和CPU算力即可流畅运行中小参数模型;面向专业AI开发者的RadeonClaw方案则搭配高性能Radeon独立显卡,可支撑更大参数模型的推理和更复杂的多智能体协同任务。

作为AMD“Agent Computer”计划的核心落地载体,OpenClaw框架未来还将逐步开放对Linux、macOS等系统的原生支持,同时纳入更多大模型、多智能体开发工具,未来甚至普通消费者也可以通过这套方案,在自己的家用PC上部署专属的AI助理,无需支付云端订阅费用,也不用担心个人隐私数据泄露。

行业普遍认为,端侧AI是继云端AI之后的下一个核心赛道,此前英特尔、高通等芯片厂商都已推出各自的端侧AI算力产品,AMD此次以开源框架搭配标准硬件方案的模式入局,有望进一步拉低端侧AI的开发门槛,推动多智能体应用真正从实验场景走向大众消费市场。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创