SD百科导航
  • 首页
  • 快讯
  • 早报
  • 模型
  • ComfyUI
  • 工具
  • 新技术
  • 百科
    • 教程
    • 硬件
    • 科普
  • 知识库
  • 导航
  • 百科工具
    • 首页
    • 快讯
    • 早报
    • 模型
    • ComfyUI
    • 工具
    • 新技术
    • 百科
      • 教程
      • 硬件
      • 科普
    • 知识库
    • 导航
    • 百科工具

    视频模型

    共 153 篇文章
    用于文生视频、图生视频、视频编辑的模型
    百科工具模型ComfyUIAI合集web UI提示词
    大语言模型多模态模型图像模型语音模型3D模型Flux衍生视频模型
    排序
    发布更新浏览点赞
    InfiniteTalk:支持稀疏帧输入的全动态音频驱动视频生成,实现全身协调的说话视频生成

    InfiniteTalk:支持稀疏帧输入的全动态音频驱动视频生成,实现全身协调的说话视频生成

    在虚拟人、影视后期、跨语言内容本地化等场景中,理想的配音技术不仅要实现精准的唇部同步,还需让头部运动、面部表情、身体姿态自然地跟随语音节奏变化,同时保持人物身份一致性。 项目主页:https://me...
    视频模型# InfiniteTalk# 对口型
    4个月前
    01000
     ToonComposer:通过生成式后关键帧(post-keyframing)阶段简化卡通制作流程

     ToonComposer:通过生成式后关键帧(post-keyframing)阶段简化卡通制作流程

    香港中文大学、腾讯PCG ARC Lab和北京大学的研究人员推出 ToonComposer ,通过生成式后关键帧(post-keyframing)阶段简化卡通制作流程。传统的卡通和动画制作涉及关键帧绘...
    视频模型# ToonComposer# 卡通制作
    4个月前
    09640
    视频处理引擎ViPE:用于从普通视频中估计相机运动、相机内参以及密集的度量深度图

    视频处理引擎ViPE:用于从普通视频中估计相机运动、相机内参以及密集的度量深度图

    英伟达、多伦多大学、矢量研究所和德克萨斯大学奥斯汀分校的研究人员推出视频处理引擎ViPE(Video Pose Engine) ,用于从普通视频中估计相机运动、相机内参以及密集的度量深度图,能够从普通...
    视频模型# ViPE# 视频处理引擎
    4个月前
    02360
    StableAvatar:首个端到端生成无限长度虚拟人视频的扩散模型

    StableAvatar:首个端到端生成无限长度虚拟人视频的扩散模型

    你是否曾想过,仅凭一张静态照片和一段语音,就能让照片中的人物“开口说话”,并持续数分钟自然表达?这正是音频驱动虚拟人视频生成(Audio-Driven Talking Head Generation...
    视频模型# StableAvatar# 虚拟人
    4个月前
    03630
    阿里发布 Omni-Effects:首个支持空间可控复合特效生成的统一框架

    阿里发布 Omni-Effects:首个支持空间可控复合特效生成的统一框架

    在现代电影与视频制作中,视觉特效(VFX)是实现创意表达的核心工具。然而,传统 VFX 制作成本高昂、周期长,依赖专业团队和复杂软件。 近年来,AI 视频生成模型为 VFX 提供了更具成本效益的替代方...
    视频模型# Omni-Effects# 视觉特效
    4个月前
    01960
    腾讯微信视觉团队发布 Stand-In:轻量级身份保持视频生成新框架

    腾讯微信视觉团队发布 Stand-In:轻量级身份保持视频生成新框架

    在文本到视频(T2V)生成领域,一个长期存在的难题是:如何让生成的视频中的人物始终“长成你想要的样子”? 尽管现有模型能生成流畅、高质量的视频,但在身份一致性(identity-preserving...
    视频模型# Stand-In# 视频生成框架
    4个月前
    04110
    LIA-X:一种可解释的肖像动画方法,让面部动作“看得见、控得住”

    LIA-X:一种可解释的肖像动画方法,让面部动作“看得见、控得住”

    上海人工智能实验室和蔚蓝海岸大学的研究人员推出一种新颖的可解释肖像动画器LIA-X,旨在将驱动视频中的面部动态转移到源肖像上,并实现精细控制。 项目主页:https://wyhsirius.githu...
    视频模型# LIA-X# 肖像动画
    4个月前
    02590
    EchoMimicV3:用一个13亿参数模型,统一处理音频、文本、图像驱动的人体动画

    EchoMimicV3:用一个13亿参数模型,统一处理音频、文本、图像驱动的人体动画

    你是否想象过这样的场景? 输入一段语音,AI 自动生成人物说话的视频,唇形精准对齐,表情自然生动; 给一张静态肖像,加上一句“他开始微笑并挥手”,画面立刻动起来; 结合提示词和参考图,生成一段人物动作...
    视频模型# EchoMimicV3# 人体动画
    4个月前
    01950
    阿里云 PAI发布 Wan2.2-Fun:扩展Wan2.2文生视频与可控视频生成的能力边界

    阿里云 PAI发布 Wan2.2-Fun:扩展Wan2.2文生视频与可控视频生成的能力边界

    阿里云 PAI 团队昨日正式推出 Wan2.2-Fun 系列模型,作为其 VideoX-Fun 项目的重要更新,进一步扩展了文生视频与可控视频生成的能力边界。 模型:https://huggingfa...
    视频模型# Wan2.2-Fun# 阿里云 PAI
    4个月前
    02680
    MiniMax-Remover:港中大等联合提出高效视频目标移除新方法

    MiniMax-Remover:港中大等联合提出高效视频目标移除新方法

    在视频编辑中,目标移除是一项关键任务:从视频中删除指定对象(如行人、车辆、水印),同时保持背景的视觉一致性与时间连贯性。然而,现有方法常面临三大挑战: 生成伪影或“幻觉对象” 推理速度慢,依赖高步数采...
    视频模型# MiniMax-Remover
    5个月前
    01510
    阿里 WAN 项目组正式推出 Wan2.2:MoE 架构 + 高压缩设计,开源视频生成再进化

    阿里 WAN 项目组正式推出 Wan2.2:MoE 架构 + 高压缩设计,开源视频生成再进化

    阿里 WAN 项目组正式推出 Wan2.2,这是对 WAN 系列视频生成模型的一次重大升级。本次发布涵盖多个模型变体,全面支持文本到视频(T2V)、图像到视频(I2V)以及混合输入(TI2V)任务,在...
    视频模型# Wan2.2# 视频生成模型
    5个月前
    09660
    交互式世界生成模型 Yume:通过输入图像、文本或视频来创建一个动态、逼真且可交互的世界

    交互式世界生成模型 Yume:通过输入图像、文本或视频来创建一个动态、逼真且可交互的世界

    由上海市人工智能实验室、复旦大学与上海创新研究院联合研发的新型生成模型 Yume 正式亮相。该模型旨在突破传统生成式 AI 的静态局限,构建一个可探索、可控制、高保真且动态演化的虚拟世界。 项目主页...
    视频模型# Yume# 交互式世界生成模型
    5个月前
    01710
    加载更多
    SD百科导航
    SD百科导航是专注于AI创作领域的专业导航网站。我们全面涵盖Stable Diffusion、Flux、AI绘画、AI视频、AI音乐以及大语言模型等前沿内容。

    友链申请免责声明广告合作关于我们

    扫码关注微信公众号SD百科导航
    扫码关注微信公众号
    Copyright © 2025 SD百科导航 皖ICP备18025588号-5  皖公网安备34040002000401 
    网址
    网址文章软件模型

    网址

    日榜周榜月榜
    Fogsight (雾象)

    Fogsight (雾象)

    雾象是一款由大语言模型(LLM)驱动的动画引擎 agent 。用户输入抽象概念或词语,雾象会将其转化为高水平的生动动画。
    朱雀大模型检测

    朱雀大模型检测

    腾讯朱雀 AI 检测是于 2025 年 1 月 17 日推出的一款 AI 生成内容检测工具,主要用于帮助用户识别 AI 生成的文本和图像内容。每位用户每天最多可检测20次文本和20次图片。
    Amazon Bedrock

    Amazon Bedrock

    Amazon Bedrock 是亚马逊AWS推出的一项完全托管的服务,旨在为用户提供一种简单、安全且高效的方式来构建和部署生成式AI应用程序。通过整合来自多家行业领先AI公司的高性能基础模型,Bedrock 提供了一个统一的API接口,使开发者能够轻松试验、评估并定制适合其特定需求的模型。此外,Bedrock 的无服务器架构让用户无需管理底层基础设施,从而专注于应用开发与优化。
    Google AI Studio

    Google AI Studio

    Google AI Studio 是一个功能齐全的工具,特别适合希望快速构建和试验 AI 应用的开发者。其多模态支持、提示库和与 Gemini API 的无缝集成使其成为生成 AI 开发的有力平台。
    Higgsfield AI

    Higgsfield AI

    Higgsfield AI平台支持文生图和图生视频,近期对图生视频功能进行了全面升级,专为追求高质量、风格化内容创作并渴望真正电影级操控的创意人士打造——无论是MV导演、商业片制作人、AI创作者,还是社交媒体叙事者。
    DeepAnalyze

    DeepAnalyze

    DeepAnalyze 是首个用于自主数据科学的智能体式 LLM,它能够在无需人工干预的情况下自主完成广泛的数据中心任务。其核心模型 DeepAnalyze-8B 仅用 80 亿参数,就在多项数据科学任务上超越了基于主流闭源大模型构建的预定义工作流智能体,标志着自主数据科学从“可能”走向“可行”。
    查看完整榜单