Vid2World:将预训练的视频扩散模型转化为交互式世界模型清华大学软件学院、清华大学交叉信息研究所和重庆大学计算机学院的研究人员推出 Vid2World,将预训练的视频扩散模型(Video Diffusion Models)转化为交互式世界模型(Intera...新技术# Vid2World# 交互式世界模型# 视频扩散模型3周前0590
清华大学推出RIFLEx:解决视频扩散模型在生成更长视频时的时空连贯性问题清华大学的研究人员推出RIFLEx,解决视频扩散模型在生成更长视频时的时空连贯性问题。该方法通过调整位置编码中的内在频率,有效抑制重复内容的生成,同时保持运动一致性,无需额外训练或修改模型。 项目主页...新技术# RIFLEx# 清华大学# 视频扩散模型3个月前01160
创新框架UniAnimate:用于生成高质量、时间连贯的人类图像动画视频华中科技大学、 阿里巴巴和中国科学技术大学的研究人员推出创新框架UniAnimate,它专门用于生成高质量、时间连贯的人类图像动画视频。UniAnimate通过结合统一的视频扩散模型、统一的噪声输入和...新技术# UniAnimate# 视频扩散模型1年前06830
新型视频扩散模型StreamV2V:实现实时的视频到视频转换德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员推出新型视频扩散模型StreamV2V,它能够实现实时的视频到视频(Video-to-Video,简称V2V)翻译。这项技术允许用户通过提示(pro...新技术# StreamV2V# 视频扩散模型1年前04960