登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

LPM1.0模型发布 可实现单图生成实时交互式数字人视频

2026年4月14日,AI研究团队正式推出面向实时数字人生成的LPM1.0多模态模型。该模型可基于单张参考图生成具备说话、唱歌、聆听状态的动态数字人视频,引入多粒度身份条件化技术实现跨风格零训练驱动,最长可稳定生成45分钟流式视频,还支持接入ChatGPT、豆包等主流语音AI,可将纯语音对话升级为带视觉反馈的实时交互。

当前实时交互式数字人已经成为AI落地的热门方向,但行业长期面临两大痛点:一是定制专属数字人需要大量参考素材与微调训练,中小团队与个人创作者难以负担;二是长时段生成容易出现唇形错位、表情僵硬、系统卡顿等问题。LPM1.0的推出,正是针对这些行业痛点给出了新的技术解法。

LPM1.0最核心的技术创新,是引入了多粒度身份条件化机制。不同于传统数字人模型需要自主生成牙齿、皱纹、侧面轮廓等复杂面部细节,该技术可以从单张参考图中提取多角度、多维度的身份特征,直接复用细节生成动态画面,从根源上避免了AI凭空生成带来的形象走形问题。

这种机制让LPM1.0拥有极强的跨风格适配能力,无论是照片级写实人像、二次元动漫角色还是3D游戏角色,都不需要二次训练,即可实现即时驱动。

除了生成端的突破,LPM1.0在交互逻辑与稳定性上也做了针对性优化。模型支持流式传输技术,公开测试数据显示,该模型在长达45分钟的连续视频生成中,依然能够保持系统稳定,没有出现帧漂移、卡顿等常见问题。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创