少找工具,多做创作

阿里发布Wan2.7-Image生图统一模型 破解AI脸同质化等痛点

2026年4月1日,阿里巴巴正式推出图像生成与编辑统一模型Wan2.7-Image,针对当前AI生图领域普遍存在的审美疲劳、标准脸同质化、色彩失控等行业痛点,该模型主打高「活人感」人物生成能力,支持精准色彩调控、3K token超长文本渲染三大核心升级,可实现千人千面的生成效果,大幅提升生图内容的商用适配性。

如果说此前用户对AI生图的吐槽还集中在「手指畸形」「穿模」等基础错误,近两年行业面临的新痛点已经转向了更上层的体验:千篇一律的AI标准脸引发审美疲劳,品牌指定的潘通色永远调不准,超过百字的提示词就会被模型「丢三落四」,这些问题正在制约AI生图从「能用」走向「好用」。

从2023年AI生图赛道爆发以来,各厂商的模型迭代大多集中在分辨率、生成速度等硬指标上,对体验层面的优化跟进缓慢。不少电商商家反馈,用AI生成的模特图辨识度极低,不同品牌的宣传图甚至会出现同款「AI脸」,既难以传递品牌调性,也容易引发消费者的审美疲劳。

而色彩输出不稳定、长文本理解能力不足的问题,更是让不少需要复杂创意的内容创作者不得不放弃AI工具,转回人工生产。据第三方调研机构数据,目前国内AI生图工具的商用渗透率仅为17%,体验短板是阻碍其落地的核心因素。

Wan2.7-Image的核心升级主要针对当前行业的普遍痛点展开,三项核心能力填补了现有生图模型的体验空白。
首先是人物生成的「活人感」优化,该模型彻底告别了此前通用生图模型的模板化人脸,能够生成不同肤质、面部特征、神态的人物形象,实现真正的「千人千面」,不会出现同质化的AI标准脸,生成的人物动态、皮肤质感也更接近真实拍摄效果。
其次是新增的精准色彩控制功能,模型内置「调色盘」能力,用户可以直接指定色值、色系范围,生成内容的色彩精度完全匹配需求,省去了此前反复调整prompt、后期修图的繁琐流程。
第三是3K token超长文本渲染能力,相当于支持输入写满一整页A4纸的提示词,即便是包含多人物、复杂场景、剧情设定的长文本需求,模型也能完整识别所有要素,不会出现信息遗漏。

对于阿里而言,Wan2.7-Image的落地场景首先将围绕自身的电商生态展开。淘宝、天猫的中小商家可以借助该模型快速生成符合品牌调性的商品图、营销海报,大幅降低内容生产的成本和周期。
而面向泛内容创作领域,该模型的长文本理解、高精度控制能力,也能给短视频、广告、文创等行业的创作者提供更高效的创意落地工具。业内人士认为,随着生图模型的体验短板逐步被补齐,AI内容生成的商用渗透率有望在未来两年突破30%。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创