少找工具,多做创作

极佳视界推出GigaBrain-0.5M VLA模型 突破具身智能长时程瓶颈

极佳视界推出GigaBrain-0.5M VLA模型 突破具身智能长时程瓶颈

曾让具身智能折戟的长时程琐碎任务,如今迎来全新突破口。曾在RoboChallenge拿下全球第一的GigaBrain系列模型,日前推出进化体GigaBrain-0.5M*VLA大模型。该模型凭借世界模型条件驱动与“人在回路”持续学习机制,在叠衣服、冲咖啡等复杂长时程任务中实现数小时零失误,成功率逼近100%,一举突破具身智能此前的性能天花板。

叠衣服要对齐衣边、调整褶皱,冲咖啡需精准控制水量与水温,折纸盒要按顺序压痕成型——这些看似简单的日常任务,却曾是具身智能领域难以跨越的“长时程”鸿沟。此前的具身智能模型,往往在这类需要多步骤连贯决策、持续感知环境变化的任务中,因中间某一环节的微小偏差导致整体失败,长时程任务成功率始终低迷,成为制约具身智能落地家用服务、工业流水线等场景的核心障碍。

而极佳视界最新推出的GigaBrain-0.5M*VLA大模型,正是瞄准这一痛点而来。作为曾斩获RoboChallenge全球冠军的GigaBrain-0.1的进化体,这款新模型在性能上实现了质的飞跃。其核心突破在于两大技术架构:首先是世界模型条件驱动机制,模型不再仅依赖当下的环境感知输入,而是通过内置的世界模型预判未来动作的状态与价值,将这些预测结果作为决策的核心依据。比如在执行冲咖啡任务时,模型会提前预判倒水角度对水流的影响、水温变化对咖啡萃取的效果,据此实时调整动作幅度,从根源上降低失误概率,大幅提升长时程任务的鲁棒性。

其次是创新引入的“人在回路”持续学习机制,打破了传统具身智能模型“训练完成即定型”的局限。系统会收集模型在真实环境中的推演轨迹,经人工筛选校正后重新用于迭代训练,让模型基于真实交互反馈不断优化决策策略,形成“行动—反思—进化”的完整闭环。这种持续学习模式,使得模型能在一次次任务中自我修正,逐步适应不同环境下的任务需求,最终实现数小时零失误的稳定运行。

在与主流具身智能方法RECAP的直接对比测试中,GigaBrain-0.5MVLA的优势尽显:它将复杂长时程任务的成功率直接拉升至近100%,而RECAP在同类任务中的表现与之差距显著。这一数据意味着,具身智能终于能够摆脱“实验室演示”的
从家用服务机器人代替人类完成日常家务,到工业机器人执行复杂的流水线组装任务,再到养老陪护机器人提供长时间的辅助服务,GigaBrain-0.5M
VLA的出现,为具身智能的落地应用打开了新的想象空间。业内专家认为,这款模型的技术突破,不仅刷新了具身智能的长时程任务纪录,更推动整个行业向“通用化、实用化”的方向迈进一步。

随着具身智能技术的不断迭代,我们或许不用等待太久,就能看到真正能“走进生活”的机器人——它们能精准完成每一项琐碎家务,持续稳定地提供服务,成为人类生活中可靠的帮手。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创