登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

小米开源VLA大模型后训练全流程 实现亚毫米级精准对位

2026年4月,小米正式开源旗下视觉-语言-动作(VLA)大模型Xiaomi-Robotics-0的真机后训练全流程,推动全球具身智能技术研发与落地。该模型依托预训练基座,仅用约20小时的任务数据训练,就能让机器人完成耳机精准收纳等高难度操作,实现亚毫米级对位精度。本次开源开放了模型权重、源代码与技术报告,大幅降低了具身智能领域的研发门槛。

耳机收纳进盒看似简单,对服务机器人来说却是不折不扣的高难度任务——耳机盒的对位公差往往不足1毫米,光滑的塑料表面还容易引发动作位移,对模型的空间感知和实时调整能力要求极高。

小米研发团队的测试结果显示,依托预训练VLA基座,仅用20小时的真机任务数据完成后训练,Xiaomi-Robotics-0就能稳定完成这项操作,在连续执行过程中保持亚毫米级的对位精度,还能实时修正动作偏差,实现丝滑流畅的任务执行。这种小数据量下的快速学习能力,打破了以往高精度具身任务需要大量标注数据的限制。

不同于行业内常见的仅开放模型权重的开源模式,小米此次开放了从训练到部署的完整技术链条,除了Xiaomi-Robotics-0的模型权重外,还同步公布了完整技术报告与可运行的源代码,真正实现了“开箱即用”的开发基础。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创