登录体验完整功能(收藏、点赞、评论等) — 立即登录

少找工具,多做创作

阿里通义发布Wan2.7-Video大模型 一句话即可实现视频全维度编辑

2026年4月3日,阿里通义实验室正式发布视频创作大模型Wan2.7-Video,该模型支持文本、图像、视频、音频全模态输入,可实现从画面结构、局部细节到时序剧情的多维度编辑,用户仅需输入自然语言指令即可完成捏脸、换角色、改剧情等操作,同时自动保持光影材质一致性,大幅降低专业视频创作门槛。

很多内容创作者都有过“废片拯救”的痛点:精心拍摄的vlog出现表情崩坏的画面、剧情走向不符合预期、想要更换片中角色却要付出数小时的剪辑成本,甚至只能重拍。这类需求如今有了更高效的解决方案。

此前市面上的视频大模型大多聚焦文生视频、图生视频的生成能力,针对已有视频的编辑功能普遍存在精度不足、时序混乱、穿帮频发等问题:局部修改后光影材质与原片脱节,调整剧情后前后片段逻辑无法自洽,复杂的操作门槛也让普通用户望而却步。随着短视频、内容创作行业的规模持续扩大,市场对低门槛、高精度的视频编辑工具的需求正在快速攀升。

本次发布的Wan2.7-Video核心能力恰好瞄准了上述痛点,其支持全模态输入,用户可搭配文字、图片、音视频等多种素材给出编辑指令。

不同于传统AI编辑工具的“改完就穿帮”问题,该模型会在编辑过程中自动匹配原片的光影、材质、运镜风格,哪怕是替换角色、调整人物表情这类局部修改,也能做到与原片毫无违和感。

此外,模型首次搭载了视频续写与尾帧控制联合机制:用户既可以基于现有片段自动续写后续内容,也能直接指定最终结尾的画面效果,模型会自动生成衔接流畅的中间内容,实现“定头定尾出内容”的创作效果。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创