阿里发布全模态可控视频生成模型Wan2.7-Video:不仅是生成器,更是你的“AI 导演套件”

早报4小时前发布 小马良
4 0

阿里巴巴今日正式发布 视频生成模型Wan2.7-Video 。这不仅是一个文生视频工具,更是一套全模态、全链路的智能视频创作系统。Wan2.7 打破了传统 AI 视频“抽卡式”生成的局限,真正实现了让视频像文档一样可编辑、可控制、可续写,被誉为“能导擅演”的 AI 导演。

  • 阿里云百炼:https://bailian.console.aliyun.com/cn-beijing?tab=model#/model-market/all?providers=wan

  • 万相官网:https://tongyi.aliyun.com/wan

  • 海外版:https://wan.video

核心定位:从“生成器”到“导演套件”

Wan2.7 的野心不在于生成随机片段,而在于掌控完整的叙事流程。它支持 文本、图像、视频、音频 四种模态的全量输入与交互,覆盖以下七大核心创作环节:

  1. 生成 (Generate):从零开始创造视频。
  2. 编辑 (Edit):局部修改、物体增删替换。
  3. 复刻 (Replicate):角色与声音的精准克隆。
  4. 重塑 (Reshape):风格转换、环境变换。
  5. 驱动 (Drive):音频驱动口型与表情。
  6. 续写 (Continue):剧情延伸与首尾帧控制。
  7. 参考 (Reference):多主体特征锁定。

六大颠覆性功能亮点

1. 像素级可控编辑:视频即文档

Wan2.7 让视频编辑变得像修图一样简单自然:

  • 局部重绘:通过指令框选区域进行修改(如“把胶片换成盘子”),光影与材质自动与原视频完美融合。
  • 物体增删改
    • 删除:“删掉视频中的火车”。
    • 替换:“把手中的控制器换成冷兵器”。
    • 属性修改:“把红色建筑变成蓝色”。
  • 智能参考添加:支持参考特定图像内容,精准添加到视频指定位置。

2. 角色与声音的深度定制

  • 多主体锁定:支持多达 5 个参考输入,可为视频中每个角色独立锁定外观和音色,确保多镜头切换时人物一致性。
  • 声音配置文件:上传声音样本,即可让角色说出任意台词,保持音色、情绪甚至口型的完美匹配。
  • 颠覆性演绎:在不改变场景的前提下,彻底替换角色身份(如“将现代玩家变为中世纪骑士”),但保留原有的动作逻辑和握持姿势。

3. 时空与风格的自由穿越

  • 环境变换:人物动作不变,背景可从“夏日”无缝切换至“深秋”,或从现实世界转为“羊毛毡风格”。
  • 画质增强:支持黑白视频上色、低分辨率超分等质量提升任务。
  • 视觉理解:内置主体分割能力,精准识别并处理视频中的独立元素。

4. 摄影机位的完全掌控

Wan2.7 理解专业的电影语言,允许用户通过自然语言修改拍摄参数:

  • 运镜控制:“将镜头修改为从地面逐渐向上升起”。
  • 参数调整:自由修改机位、视角、景别、镜头类型及焦距。
  • 效果:同一素材,通过不同的镜头指令,可呈现出截然不同的观影体验。

5. 台词与行为的二次创作

这是 Wan2.7 最强大的“导演”能力之一:

  • 改台词:输入新剧本,角色会自动调整口型和表情来说出新台词,且音色统一、情绪连贯。
  • 改行为:仅修改动作逻辑(如“坐沙发上的女生变为站着打游戏”),其他背景、光影保持不变。
  • 剧情续写:支持 首尾帧控制视频续写 及 续写 + 尾帧 模式,精准把控剧情走向、画面构图及光影连续性。

6. 全栈创意工作流

Wan2.7 不再是单点工具,而是集成了:

  • 生成 → 编辑 → 克隆 → 风格重绘 → 续写 的完整闭环。
  • 用户可以在一个模型内完成从创意构思到最终成片的所有步骤,无需在多个工具间切换。
© 版权声明

相关文章

暂无评论

none
暂无评论...