阶跃星辰开源300 亿参数文生视频模型Step-Video-T2V:能够生成长达 204 帧的高质量视频 由前微软全球副总裁、微软亚洲互联网工程院首席科学家姜大昕创办的AI公司阶跃星辰,开源了一款强大的文生视频模型——Step-Video-T2V。该模型拥有 300 亿参数,能够生成长达 204 帧的高质... 视频模型# Step-Video-T2V# Step-Video-T2V-Turbo# 文生视频模型 5天前0180
LIFT:利用人类反馈进行文生视频模型对齐的新型微调方法 文本到视频(T2V)生成模型近年来取得了显著进展,能够生成高质量的合成视频。然而,这些模型在将合成视频与人类偏好(例如,准确反映文本描述)对齐方面仍然存在不足。复旦大学、上海人工智能科学院和阿德莱德大... 视频模型# LIFT# 微调# 文生视频模型 2周前01220
BroadWay:提升文生视频模型的质量,而且不需要额外的训练 上海交通大学、中国科学技术大学、香港中文大学和上海人工智能实验室的研究人员推出为BroadWay,它能够提升文生视频模型的质量,而且不需要额外的训练。这就像是给视频生成模型安装了一个“涡轮增压器”,让... 新技术# BroadWay# 文生视频模型 4个月前04560
DiT架构的文生视频模型xGen-VideoSyn-1:根据文本描述生成逼真的视频场景 Salesforce推出新的文生视频模型xGen-VideoSyn-1,这个模型能够根据文本描述生成逼真的视频场景,它的设计灵感来源于OpenAI的Sora模型,并在此基础上进行了改进和创新。例如,你... 新技术# xGen-VideoSyn# 文生视频模型 6个月前04170
Search_T2V:改善文本到视频合成的质量和真实感 浙江大学、飞步科技、宁波港和腾讯数据平台的研究人员推出新技术Search_T2V,旨在改善文本到视频(Text-to-Video, T2V)合成的质量和真实感。该技术通过搜索现有的视频资源作为运动先验... 新技术# Search_T2V# 文生视频模型 9个月前04500
CameraCtrl:为文生视频模型提供精确的摄像机控制能力 来自香港中文大学、上海人工智能实验室和斯坦福大学的研究人员推出CameraCtrl,它能够为文本到视频(Text-to-Video, T2V)生成模型提供精确的摄像机控制能力。在视频创作中,摄像机的移... 新技术# CameraCtrl# 文生视频模型 11个月前03970
文生视频模型VSTAR:解决现有开源T2V模型难以生成内容动态变化和较长视频的问题 来自博世人工智能中心、曼海姆大学、马克斯·普朗克信息学研究所和图宾根大学的研究团队推出VSTAR,这是一种用于生成动态视频的文本到视频(T2V)合成技术。VSTAR的目标是解决现有开源T2V模型难以生... 新技术# VSTAR# 文生视频模型 11个月前04030