登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

戴盟联合DeepMind发布全球最大触觉具身数据集 效率提10倍

4月16日,戴盟机器人联合Google DeepMind,携手中国移动、新加坡国立大学等海内外数十家产学研机构,正式发布全球最大规模含全模态触觉信息的物理世界具身数据集Daimon-Infinity。该数据集将触觉信息纳入具身智能训练主干,可将机器人训练效率提升10倍,目前已向全行业开放10000小时标注数据,年内整体规模将扩展至数百万小时。

当前具身智能已经成为人工智能领域落地前景最清晰的方向之一,无论是服务机器人还是工业机器人,都需要依靠具身模型完成和物理世界的交互。但现有绝大多数公开的具身数据集,都以视觉信息为核心,触觉、接触力这类物理交互核心信息要么缺失,要么分辨率极低,无法支撑模型学习真实世界的操作逻辑。

这种数据结构的缺陷,直接导致机器人训练时只能靠视觉推测交互力度,不仅训练周期长,精细操作的准确率也很难达到产业落地要求。

本次发布的Daimon-Infinity数据集,最大的创新在于打破了“视觉为主、触觉为辅”的传统数据架构,直接将超高分辨率的触觉信息纳入训练数据主干,整合了视觉、本体感知、接触力等多模态信息,是目前全球规模最大、质量最高的触觉具身数据集。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创