登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

阿里通义实验室发布Wan2.7-Video 破解AI视频创作两大核心痛点

2026年4月3日,阿里通义实验室正式发布AI视频生成工具Wan2.7-Video,针对当前行业普遍存在的内容生成不专业、编辑修改难度高两大痛点,支持文本、图像、视频、音频全模态输入,可实现画面结构、剧情走向、局部细节的精准控制,大幅降低专业内容创作门槛,为视频创作者提供更高的创作自由度与编辑灵活性。

不少视频创作者都有过类似的经历:用AI生成的短视频人物穿模、剧情逻辑断裂,想要删掉画面里误入的路人,只能重新输入prompt反复调试,几秒钟的视频往往要耗上一两个小时才能达到可用标准。而阿里通义实验室最新发布的产品,正是瞄准了这一行业普遍存在的效率卡点。

过去两年AI视频生成技术快速迭代,但距离商业化大规模落地始终存在明显短板。一方面是生成内容的专业性不足,多数模型很难精准把控画面构图、剧情连贯性,输出内容往往需要大量人工剪辑调整才能使用;另一方面是编辑灵活性差,现有模型大多支持单次生成,用户想要修改局部内容只能重新输入指令生成全片,时间成本极高,也很难满足定制化创作需求。

来自国内MCN行业的调研数据显示,目前AI生成视频的后期调整成本占整体制作成本的60%以上,远高于传统拍摄模式的后期占比。

此次发布的Wan2.7-Video直接针对上述两大痛点做了定向技术优化。首先是全模态输入能力,用户可以同时输入文本脚本、参考图像、粗剪视频甚至背景音频,模型会自动整合多维度信息生成符合要求的视频内容,不再局限于单一的文本生成模式。

更核心的升级在于编辑能力的突破。Wan2.7-Video支持指令化的局部修改,用户只需要用文字描述调整需求,就能精准修改视频中的任意元素:框选画面中的冗余路人即可一键删除,选中静物就能替换成指定物品,甚至可以实现季节切换、画面风格转译等复杂操作,调整过程不会影响未修改区域的内容连贯性,相当于把“图层编辑”的逻辑搬到了视频创作领域,用户可以像修改Word文档一样调整视频内容。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创