日前,AI公司DeepSeek联合北京大学、清华大学团队在学术平台ArXiv发布最新研究成果——针对智能体的DualPath推理框架。该框架创新性利用闲置网卡资源加速智能体推理进程,一举打破长期困扰业界的PD分离瓶颈,为解决AI智能体在长文本处理等场景下的算力与数据传输成本难题提供了新方案。
在AI智能体规模化落地的进程中,算力与数据传输的成本矛盾正日益凸显。业界流传着一句戏谑却写实的话:“计算是免费的,但移动数据是昂贵的”——当前大量AI智能体采用Policy(策略)与Decision(决策)分离的架构,在处理长文本理解、多任务协同等复杂任务时,跨模块的海量数据交互需要消耗高额网络资源,即便核心算力尚有闲置,也会因PD分离瓶颈拖慢整体推理效率,成为制约智能体性能升级的关键卡点。
DeepSeek联合清北团队推出的DualPath推理框架,正是瞄准这一痛点的精准破局方案。该框架重构了智能体的推理路径,创新性地将Policy模块中的轻量化计算任务卸载至闲置网卡资源上执行,大幅减少了Policy与Decision模块之间的数据传输量。
据研究团队披露,在长文本推理测试场景中,DualPath框架可将跨模块数据传输量降低约30%,同时让智能体的整体推理速度提升20%以上。这种“变废为宝”的资源复用思路,不仅降低了AI智能体的运营成本,更开辟了一条不同于传统核心算力升级的效率优化新赛道。
此次DualPath框架的发布,恰逢外界对DeepSeek即将推出的V4版本智能体产品充满期待的节点,也让业界看到了学术研究与产品落地的紧密结合。相较于业界普遍聚焦GPU、CPU等核心算力的优化方向,DualPath框架将目光投向了被忽略的边缘闲置资源,为中小团队降低AI智能体部署门槛提供了可能。
未来随着AI智能体在企业服务、智能家居、自动驾驶等场景的深度渗透,这类针对闲置资源的精细化优化方案,或将成为平衡AI应用性能与成本的核心竞争力之一,推动AI技术从“可用”向“好用、实惠用”加速迈进。