登录体验完整功能(收藏、点赞、评论等) —

腾讯推出HY-Embodied-0.5具身模型 22项评测16项最优破行业纪录

2026年4月,腾讯Robotics X实验室联合腾讯混元团队正式推出专为具身智能打造的HY-Embodied-0.5基础模型,在22项行业通用具身评测中拿下16项最优成绩刷新纪录。该系列模型从架构到训练范式全链路重构,同步推出MoT-2B、MoE-32B两款主力模型,可填补通用视觉语言模型三维空间感知与物理交互能力短板,推动大模型向机器人控制领域延伸。

在人形机器人、工业自动化赛道持续升温的2026年,具身大模型的性能上限,已经成为制约机器人从封闭预演场景走向真实复杂环境的核心瓶颈。此前行业普遍采用对通用视觉语言模型进行定向微调的方案开发具身大模型,始终难以解决空间感知精度不足、交互决策延迟高的问题。

过往通用视觉语言模型(VLM)的训练数据以互联网文本、平面图像为主,缺乏对三维空间结构、物体物理属性的学习积累,直接应用到机器人场景时,经常出现对空间距离判断错误、无法预判交互动作后果的问题。
而此前行业的定制化微调方案,一方面适配成本极高,单一场景的微调就需要百万级专属数据,另一方面模型泛化能力极差,更换场景后性能跳水明显,无法支撑通用机器人的落地需求。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创