ComfyUI已原生支持LTX-Video 0.9.5:支持文生视频、图生视频及多帧控制 ComfyUI 官方宣布,LTX-Video 0.9.5 已获得全面支持!此次更新带来了闪电般的速度和全新控制水平,包括多关键帧控制、质量提升和更长的视频支持。这些功能现已完全集成到 ComfyUI ... 工作流# ComfyUI# LTX-Video 0.9.5# 图生视频 4天前0380
多代理协作框架GENMAC:实现复杂的文本到视频生成,特别是针对组合性文本提示的生成 香港大学、清华大学和微软研究院的研究人员推出多代理协作框架GENMAC,旨在实现复杂的文本到视频生成,特别是针对组合性文本提示的生成。传统的文本到视频生成模型在处理复杂场景时常常面临挑战,例如多个对象... 新技术# GENMAC# 文生视频 3个月前01150
MVideo:用于生成具有精确、流畅动作的长时视频 无限光年、上海交通大学和复旦大学的研究人员推出新型框架MVideo,它专门设计用于生成具有精确、流畅动作的长时视频。MVideo通过结合文本提示和掩码序列(mask sequences)作为额外的运动... 新技术# MVideo# 文生视频 4个月前02530
CAMI2V:引入物理约束提升文生视频模型中的相机控制精度 浙江大学计算机科学与技术学院的研究团队推出一个名为CAMI2V(Camera-Controlled Image-to-Video Diffusion Model)的模型,它是一个基于扩散模型的图像到视... 新技术# CAMI2V# 文生视频# 相机控制 4个月前02100
新型文本到视频生成框架VideoTetris:专门设计来解决现有方法在处理复杂场景(如多对象或对象数量动态变化的长视频)生成时面临的挑战 来自北京大学和快手科技的研究人员推出新型文本到视频生成框架VideoTetris,此框架专门设计来解决现有方法在处理复杂场景(如多对象或对象数量动态变化的长视频)生成时面临的挑战。VideoTetri... 新技术# VideoTetris# 北京大学# 快手 9个月前05830
文生视频新技术T2V-Turbo:快速生成高质量的视频,并且能够根据文本描述来创建视频内容 来自加州大学圣巴巴拉分校、谷歌和滑铁卢大学的研究人员推出文生视频新技术T2V-Turbo,它可以快速生成高质量的视频,并且能够根据文本描述来创建视频内容。它将来自混合的不同可微奖励模型的反馈整合到预训... 新技术# T2V-Turbo# 文生视频 9个月前05290
文生视频新技术FIFO-Diffusion:无需训练即可从文本生成无限长度的视频 首尔国立大学推出文生视频新技术FIFO-Diffusion,它基于预训练的扩散模型,用于文本条件视频生成。简单来说,FIFO-Diffusion能够根据文本描述生成无限长度的视频,而且不需要额外的训练... 新技术# FIFO-Diffusion# 文生视频 10个月前03740
VideoElevator:利用文生图模型来增强文生视频的质量和细节 来自哈尔滨大学和清华大学的研究团队推出VideoElevator,利用文生图模型来增强文生视频的质量和细节,这个过程是无需训练的,可以直接插入现有的模型中使用,还能利用文生图模型来实现风格迁移,非常方... 新技术# VideoElevator# 文生图模型# 文生视频 1年前04310