登录体验完整功能(收藏、点赞、评论等)

阿里发布Wan2.7-Image图像大模型 捏脸等核心功能破解AI同脸痛点

2026年4月1日,阿里正式发布新一代图像生成与编辑统一模型Wan2.7-Image,首次将文生图、图生组图、图像指令编辑、交互式编辑整合到同一架构下,主打可定制五官骨相的千人千面捏脸、精准色彩控制、最高3K token超长文字渲染、像素级区域编辑四大核心能力,直击AI图像生成同质化、可控性弱等行业痛点。

在过往的AI图像生成体验中,“千人同脸”“文字乱码”“编辑只能推翻重生成”是不少用户吐槽的高频问题——不少设计师甚至调侃,用AI做图花在调试prompt、修BUG的时间,比自己手动做图还要久。阿里本次推出的新模型,正是瞄准这些行业长期存在的痛点进行的技术迭代。

从2022年Stable Diffusion开源引爆AI图像生成赛道以来,国内外厂商的技术迭代长期聚焦于“生成质量”的提升,先后解决了图像分辨率低、人物结构崩坏、风格单一等问题,但“可控性不足”始终是制约行业落地的核心短板。

对普通用户而言,要生成符合预期的定制化内容往往需要反复调试prompt,最终效果依然差强人意;对电商、设计、游戏等专业领域客户而言,AI生成内容的色彩偏差、文字乱码、无法局部修改等问题,更是让其难以直接落地商用,整个赛道都在等待更高可控性的技术方案。

本次阿里发布的Wan2.7-Image最大的架构创新,就是将图像生成和编辑能力整合到同一套模型体系中,用户不用在多个工具间切换,就能完成从内容生成到细节修改的全流程操作,核心能力覆盖四大场景:

其一就是引发行业高度关注的千人千面捏脸功能,用户可以通过文字描述直接调整人物的五官、骨相、肤质特征,不需要额外训练LoRA模型,就能生成完全不重复的定制化人脸,彻底解决过往AI生成人物“换皮不换骨”的同脸问题。
Wan2.7-Image生成的不同风格定制人脸效果图

其二是精准色彩控制的“调色盘”功能,用户可以直接指定生成内容的色彩配比、色值参数,模型就能1:1还原预期色彩,不会出现过往生成内容偏色、色差大的问题,完全满足品牌设计的色彩规范要求。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创