登录体验完整功能(收藏、点赞、评论等) — 已累计有 8612 人加入

让AI触手可及,让应用激发潜能

Luma AI推出Uni-1图像生成模型 自回归架构实现文本像素同步生成

美国AI初创公司Luma Labs于2026年3月23日正式推出首款公开图像生成模型Uni-1,该模型基于Unified Intelligence架构打造,放弃主流扩散模型路线,采用decoder-only自回归Transformer架构实现文本与像素同步生成,可消除传统两阶段生成的信息损耗。目前产品已开放免费试用,API定价同步公布,企业接入通道将逐步上线。

在当前全球文生图赛道几乎被扩散模型一统天下的背景下,Luma Labs的新选择无异于给行业投下了一颗问路石。作为此前以3D生成技术闻名的AI初创公司,Luma此次跨界入场2D图像生成,从底层架构层面给出了不同于主流路线的解题思路。

自2022年Stable Diffusion开源以来,扩散模型已经成为文生图、文生视频领域的绝对主流技术路线,包括Midjourney、DALL·E 3等头部产品均基于该架构迭代。但扩散模型的生成逻辑天然分为两个独立阶段:首先由大语言模型理解用户prompt生成隐含表征,再将表征输入扩散模型迭代生成像素,两个阶段的衔接过程始终存在不可逆的信息损耗,经常出现生成结果与用户需求偏差、细节丢失等问题。

这一痛点也成为近一年来AI生成图像领域的核心攻关方向,多家头部厂商和初创公司都在尝试从架构层面优化甚至重构生成逻辑,Luma Labs的Uni-1正是这一方向下的首个落地公开产品。

Uni-1放弃了成熟的扩散模型路线,转而采用decoder-only自回归Transformer架构,将文本token与图像token交错排列为单一序列,仅需一次前向传播即可完成语义理解到像素生成的全流程,彻底消除了传统两阶段模式的信息断层。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创