无需重拍,随意修改!Runway 发布最新一代视频生成模型Runway Aleph,让视频编辑进入智能时代

早报4个月前发布 小马良
241 0

Runway 发布了其最新一代视频生成模型——Runway Aleph。这不仅仅是一次功能升级,更是一次对“视频编辑”定义的重新思考。

Aleph 被定位为一款上下文视频模型,它能理解输入视频的完整时空结构,并在此基础上执行一系列复杂且连贯的编辑与生成任务。这意味着,你不再需要在多个软件之间切换、手动抠像或反复渲染,只需通过自然语言指令,就能实现过去需要专业团队和数小时工作的效果。

核心能力:从“修改”到“重构”

Runway Aleph 的强大之处在于其“多任务”与“上下文感知”能力。它能同时处理视频中的对象、场景、光照、风格和运动,并保持高度的时空一致性。以下是其主要功能:

1. 生成新视角:突破物理拍摄限制

无需重新布景或拍摄,即可生成场景的任意新角度。无论是反打镜头、俯拍还是环绕视角,只需输入提示,Aleph 就能基于原始视频的3D结构生成自然的衍生画面。

2. 风格迁移:一键转换视频美学

将你的视频瞬间变为油画、赛博朋克、手绘动画或任何你描述的风格。与简单的滤镜不同,Aleph 会将风格细节(如笔触、光影)无缝融入每一帧。

3. 场景重塑:改变环境、季节与时间

  • 把白天变成黄金时刻;
  • 将冬天的雪景转为夏日绿荫;
  • 把空旷的街道变成繁华都市。

所有更改都基于物理光照模型,确保阴影、反射和色温自然过渡。

4. 对象操作:添加、移除、替换

  • 添加:在画面中加入人群、车辆、产品等新元素,自动匹配光照与透视;
  • 移除:轻松消除穿帮的工作人员、电线或杂物;
  • 替换:用新车型替换旧车,或用新品牌产品替换原型,无需重新拍摄。

5. 运动迁移:让静态图像“活”起来

将一段视频的相机运动和物体动态“复制”到一张静态首帧上。例如,让一张产品图跟随原视频的运镜轨迹“动”起来,实现精细的动画控制。

6. 角色编辑:改变外貌与着装

通过文本提示,调整演员的年龄、发型、服装,甚至将其从“商务正装”变为“未来战士”。这项功能为后期制作和角色设计提供了前所未有的灵活性。

7. 智能去背:比绿幕更精准

Aleph 能从任何背景中精准提取人物或物体,保留发丝、透明材质等复杂边缘。支持导出为透明背景、纯色或自定义背景,直接用于合成。

技术意义:从“分步处理”到“端到端生成”

传统视频编辑是线性的、分步骤的:先剪辑,再调色,然后抠像,最后合成。而 Runway Aleph 将这些任务整合到一个模型中,实现了端到端的语义级编辑

它不再只是“处理像素”,而是“理解场景”,并根据指令进行逻辑推理和创造性生成。这种能力,正是通用视觉模型的雏形。

访问方式

Runway Aleph 将于近期向企业用户创意合作伙伴开放早期访问,后续将逐步向更广泛的用户群体开放。(来源

© 版权声明

相关文章

暂无评论

none
暂无评论...