登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

AMD发布OpenClaw框架及两套硬件方案 支持本地运行大模型与多智能体

2026年3月16日,AMD正式推出OpenClaw开源框架及RyzenClaw、RadeonClaw两套硬件参考配置,推进其“Agent Computer”计划落地。该方案支持开发者在本地Windows设备通过WSL2环境运行大语言模型与多智能体工作流,可适配Qwen3.5 35B等大参数模型,在大幅提升AI应用隐私安全性的同时,有效降低开发者对云端算力、订阅服务的依赖。

对于不少AI开发者和深度用户而言,在本地运行大模型始终是个两难选择:要么硬件配置不够跑不动大参数模型,要么软件适配繁琐需要反复调试环境。AMD此次推出的整套方案,恰恰瞄准了这一行业痛点。


近两年随着大语言模型能力迭代、多智能体应用场景逐渐落地,行业对AI推理的隐私性、低延迟要求不断提升。云端推理不仅需要持续支付算力订阅费用,用户的敏感数据上传到服务器也存在泄露风险,不少企业和个人开发者都开始转向本地端侧推理方案,但此前软硬件适配门槛较高,普通用户很难上手。

AMD此次推出的整套方案,采用软件开源+硬件参考配置的组合模式,最大程度降低开发者的适配成本。

OpenClaw开源框架目前主要在Windows平台的WSL2环境下运行,搭配LM Studio与llama.cpp后端实现本地推理,还内置了Memory.md嵌入式记忆框架,所有上下文交互数据全部存储在本地硬件中,完全不会对外传输,从底层保障数据安全。目前框架已经适配了包括Qwen3.5 35B在内的多款主流大模型,可支撑绝大多数多智能体工作流的运行需求。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创