登录体验完整功能(收藏、点赞、评论等)

阿里通义实验室发布Wan2.7-Video 破解AI视频创作两大核心痛点

2026年4月3日,阿里通义实验室正式发布AI视频生成工具Wan2.7-Video,针对当前行业普遍存在的内容生成不专业、编辑修改难度高两大痛点,支持文本、图像、视频、音频全模态输入,可实现画面结构、剧情走向、局部细节的精准控制,大幅降低专业内容创作门槛,为视频创作者提供更高的创作自由度与编辑灵活性。

不少视频创作者都有过类似的经历:用AI生成的短视频人物穿模、剧情逻辑断裂,想要删掉画面里误入的路人,只能重新输入prompt反复调试,几秒钟的视频往往要耗上一两个小时才能达到可用标准。而阿里通义实验室最新发布的产品,正是瞄准了这一行业普遍存在的效率卡点。

过去两年AI视频生成技术快速迭代,但距离商业化大规模落地始终存在明显短板。一方面是生成内容的专业性不足,多数模型很难精准把控画面构图、剧情连贯性,输出内容往往需要大量人工剪辑调整才能使用;另一方面是编辑灵活性差,现有模型大多支持单次生成,用户想要修改局部内容只能重新输入指令生成全片,时间成本极高,也很难满足定制化创作需求。

来自国内MCN行业的调研数据显示,目前AI生成视频的后期调整成本占整体制作成本的60%以上,远高于传统拍摄模式的后期占比。

此次发布的Wan2.7-Video直接针对上述两大痛点做了定向技术优化。首先是全模态输入能力,用户可以同时输入文本脚本、参考图像、粗剪视频甚至背景音频,模型会自动整合多维度信息生成符合要求的视频内容,不再局限于单一的文本生成模式。

更核心的升级在于编辑能力的突破。Wan2.7-Video支持指令化的局部修改,用户只需要用文字描述调整需求,就能精准修改视频中的任意元素:框选画面中的冗余路人即可一键删除,选中静物就能替换成指定物品,甚至可以实现季节切换、画面风格转译等复杂操作,调整过程不会影响未修改区域的内容连贯性,相当于把“图层编辑”的逻辑搬到了视频创作领域,用户可以像修改Word文档一样调整视频内容。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创