阿里通义联合多所高校推出 Wan-Move:无需额外模块,实现高精度动作控制的视频生成框架在视频生成领域,动作控制是连接静态图像与动态叙事的关键环节。然而,现有方法普遍存在两个瓶颈:一是控制粒度粗糙(如仅用边界框控制整体移动),二是依赖额外模型(如光流估计器),导致推理复杂、误差累积、难以...百科# Wan-Move# 动作控制# 视频生成2个月前0470
ComfyUI-LTXVideo:扩展 LTX-2 视频生成能力的自定义节点集LTX-2 已正式集成至 ComfyUI 核心,所有用户均可直接ComfyUI官方节点和工作流。而 ComfyUI-LTXVideo(由 Lightrick 开发)则在此基础上,提供一套增强型自定义节...插件# ComfyUI-LTXVideo# LTX-2# 视频生成3周前0440
LTX-2 首日集成 ComfyUI,支持同步音视频生成与多模态控制开源音视频生成模型 LTX-2 已于发布当日集成至 ComfyUI 核心,成为首个在 ComfyUI 中获得原生支持的同步音视频基础模型。用户无需安装额外插件,即可直接调用其音画协同生成能力。 LTX...工作流# ComfyUI# LTX-2# 视频生成3周前0360
Spatia:基于可更新空间记忆的长期一致视频生成框架传统视频生成模型在生成长视频时,常因高维时空信号的复杂性而难以维持长期的空间与时间一致性——场景结构漂移、物体位置突变、相机运动不连贯等问题普遍存在。 项目主页:https://zhaojingjin...视频模型# Spatia# 视频生成1个月前0250
UniVideo:滑铁卢大学与快手推出统一视频生成与编辑模型,支持理解、生成、编辑一体化长久以来,视频 AI 能力被割裂为多个独立任务: 理解:靠视觉语言模型(如 Qwen-VL) 生成:依赖扩散模型(如 Sora、HunyuanVideo) 编辑:需专门的编辑网络或掩码引导 这种碎片化...视频模型# UniVideo# 视频生成# 视频编辑3周前0130