登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

NVIDIA开源Lyra 2.0:单图可生成可行走3D虚拟世界

2026年4月20日,英伟达(NVIDIA)研究院在Hugging Face平台正式开源新一代AI 3D生成框架Lyra 2.0。该技术突破了传统长时程生成场景的一致性痛点,可从单张输入图像生成大型持久一致的可探索3D场景,解决了困扰行业已久的“空间遗忘”和“时间漂移”问题,能支持实时渲染、机器人仿真与游戏开发等多场景应用,为生成式3D领域提供了实用开源工具。

在Lyra 2.0推出之前,AI生成可交互3D场景领域一直存在两个难以解决的核心问题。当模拟相机在生成场景中长距离移动探索时,一方面会出现空间遗忘:模型无法记住已经生成过的区域细节,返回原区域时场景结构、物体已经发生改变,完全无法保持空间一致性。

另一方面就是时间漂移:同一物体的位置、纹理、外观会随着探索进程逐渐发生偏移,连续生成长时长探索内容后,整个场景会彻底错乱,根本无法满足沉浸式交互、仿真训练的要求。这些痛点也直接限制了AI生成3D场景从Demo走向实用落地。

此次NVIDIA开源的Lyra 2.0框架,直接瞄准这两大痛点给出了成熟的开源解决方案。和多数需要多图输入、只能生成小型场景的方案不同,Lyra 2.0仅需单张输入图像,就能生成规模足够大、一致性能够长期保持的可探索3D场景,用户可以自由控制相机在场景中移动探索,也就是行业所说的“可行走3D世界”。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创