ComfyUI已原生支持LTX-Video 0.9.5:支持文生视频、图生视频及多帧控制ComfyUI 官方宣布,LTX-Video 0.9.5 已获得全面支持!此次更新带来了闪电般的速度和全新控制水平,包括多关键帧控制、质量提升和更长的视频支持。这些功能现已完全集成到 ComfyUI ...工作流# ComfyUI# LTX-Video 0.9.5# 图生视频1个月前02180
多代理协作框架GENMAC:实现复杂的文本到视频生成,特别是针对组合性文本提示的生成香港大学、清华大学和微软研究院的研究人员推出多代理协作框架GENMAC,旨在实现复杂的文本到视频生成,特别是针对组合性文本提示的生成。传统的文本到视频生成模型在处理复杂场景时常常面临挑战,例如多个对象...新技术# GENMAC# 文生视频4个月前01340
MVideo:用于生成具有精确、流畅动作的长时视频无限光年、上海交通大学和复旦大学的研究人员推出新型框架MVideo,它专门设计用于生成具有精确、流畅动作的长时视频。MVideo通过结合文本提示和掩码序列(mask sequences)作为额外的运动...新技术# MVideo# 文生视频5个月前02830
CAMI2V:引入物理约束提升文生视频模型中的相机控制精度浙江大学计算机科学与技术学院的研究团队推出一个名为CAMI2V(Camera-Controlled Image-to-Video Diffusion Model)的模型,它是一个基于扩散模型的图像到视...新技术# CAMI2V# 文生视频# 相机控制6个月前02300
新型文本到视频生成框架VideoTetris:专门设计来解决现有方法在处理复杂场景(如多对象或对象数量动态变化的长视频)生成时面临的挑战来自北京大学和快手科技的研究人员推出新型文本到视频生成框架VideoTetris,此框架专门设计来解决现有方法在处理复杂场景(如多对象或对象数量动态变化的长视频)生成时面临的挑战。VideoTetri...新技术# VideoTetris# 北京大学# 快手10个月前06150
文生视频新技术T2V-Turbo:快速生成高质量的视频,并且能够根据文本描述来创建视频内容来自加州大学圣巴巴拉分校、谷歌和滑铁卢大学的研究人员推出文生视频新技术T2V-Turbo,它可以快速生成高质量的视频,并且能够根据文本描述来创建视频内容。它将来自混合的不同可微奖励模型的反馈整合到预训...新技术# T2V-Turbo# 文生视频10个月前05460
文生视频新技术FIFO-Diffusion:无需训练即可从文本生成无限长度的视频首尔国立大学推出文生视频新技术FIFO-Diffusion,它基于预训练的扩散模型,用于文本条件视频生成。简单来说,FIFO-Diffusion能够根据文本描述生成无限长度的视频,而且不需要额外的训练...新技术# FIFO-Diffusion# 文生视频11个月前04010
VideoElevator:利用文生图模型来增强文生视频的质量和细节来自哈尔滨大学和清华大学的研究团队推出VideoElevator,利用文生图模型来增强文生视频的质量和细节,这个过程是无需训练的,可以直接插入现有的模型中使用,还能利用文生图模型来实现风格迁移,非常方...新技术# VideoElevator# 文生图模型# 文生视频1年前04640