登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

英伟达发布Lyra2.0 单照生成90米3D场景性能领跑行业

2026年4月16日英伟达正式推出3D场景生成系统Lyra2.0,可依托单张照片生成延展90米的高连贯性3D虚拟环境,攻克长距离相机路径下的图像失真痛点,基准测试中在图像质量、相机控制等维度优于GEN3C、Yume-1.5等6款竞品,快速版本生成效率提升13倍,将有效满足具身智能训练对高质量虚拟场景的迫切需求。

在具身智能落地进程不断加快的2026年,行业长期面临的训练场景供给不足问题始终悬而未决:传统3D建模单平方公里成本超过10万元,制作周期长达数周,而此前的AI生成3D方案普遍存在场景范围小、长距离移动下失真严重的问题,根本无法满足机器人连续运动的训练需求。

不仅仅是具身智能领域,游戏开放世界制作、虚拟数字人拍摄、城市数字孪生建模等多个赛道,都对低成本、快速生成的大规模3D场景有强烈需求。此前业内已有多个团队推出单图生成3D场景的技术,但普遍存在两大痛点:一是生成场景的有效范围大多不超过10米,仅能满足小空间场景需求;二是当相机进行长距离移动时,模型容易出现“空间遗忘”问题,导致场景穿模、前后不一致,误差随移动距离不断累积。

本次英伟达推出的Lyra2.0,核心突破正是解决了上述行业痛点。官方数据显示,Lyra2.0可依托任意单张实景照片——哪怕是用户用手机随手拍摄的街边快照,生成延展范围达90米的高连贯性3D环境,相当于可完整覆盖3个标准篮球场大小的连续空间,且全程不会出现空间失真问题。

为了解决长距离移动下的误差累积问题,英伟达研究团队采用了双重创新技术路线:一方面,系统会实时存储生成过程中每一帧的3D几何信息,当相机轨迹回到已生成区域时,可直接调用已有的空间数据,确保环境前后完全一致;另一方面,团队在训练过程中主动引入带有缺陷的输出数据,让模型在训练中学会识别误差、自主修正偏差,从根源上减少失真问题的出现。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创