Wan2.1 GP:基于阿里视频生成模型Wan 2.1,8G显存即可生成视频

Wan2.1 GP是一个基于阿里视频生成模型Wan 2.1的优化模型,专为普通消费级显卡用户优化,降低资源需求,同时提供强大的视频生成能力。它支持多种生成任务,包括文生视频(T2V)、图生视频(I2V)、文生图(T2I),甚至还能为视频配音(V2A)。结合 TeaCache 和 RIFLEx 等技术,Wan2.1 GP不仅降低了硬件门槛,还提升了生成质量和速度。

Wan2.1 GP:基于阿里视频生成模型Wan 2.1,8G显存即可生成视频

优化与改进

Wan2.1 GP对原始的 Wan 2.1 模型进行了多项优化,使其能够在资源有限的设备上运行。具体改进包括:

  1. 降低内存和显存需求
    该模型将内存和显存的需求大幅降低,最低可在8G显存的显卡上流畅运行。这使得普通消费级显卡用户也能体验到高性能的视频生成能力。
  2. 加速生成过程
    通过编译优化和快速加载/卸载机制,Wan2.1 GP 的生成速度更快。例如,使用 RTX 4090,用户可以在少于 12GB 的 显存下生成 10 秒的 480p 视频,甚至生成超过 10 秒的 720p 视频。
  3. 多配置支持
    Wan2.1 GP 提供多种配置文件,适用于不同硬件配置。无论是低端消费级配置(32G内存 和12G显存),还是高端消费级配置(48G内存 和 24G显存),用户都能以合适的速度运行模型。
  4. 自动下载与简化安装
    该模型支持自动下载所需的文件,简化了安装过程。用户只需运行简单的命令即可完成安装。
  5. 改进的 Web 界面
    Wan2.1 GP 提供了改进的 gradio 界面,带有进度条和更多选项,使用户能够更直观地监控生成过程。
  6. 多提示与多次生成
    用户可以为每个提示输入多个提示词,并进行多次生成,进一步扩展了模型的灵活性。
  7. 支持多个预训练的 Lora
    在 32G内存 或更少的配置下,Wan2.1 GP支持多个预训练的 Lora,进一步增强了模型的生成能力。

最新更新与功能

2025 年 3 月 3 日

  • Wan2.1GP v1.3:支持使用多个图像进行不同图像/提示组合的图像到视频生成(需要 --multiple-images 开关)。新增 --preload x 命令行选项,允许用户在 显存 中预加载 x MB 的主扩散模型,以加速生成过程。如果升级,需要重新运行 pip install -r requirements.txt
  • Wan2.1GP v1.2:在 VAE 编码和解码中实现了平铺,消除了开头和结尾的显存峰值。
  • Wan2.1GP v1.1:新增 Tea Cache 支持,加速生成速度。优化了 kijai 的 TeaCache 实现,并结合了 TeaCache 的功能。

2025 年 3 月 2 日

  • Wan2.1GP v1:支持所有 Wan 模型,包括图像到视频模型。内存消耗减少 2 倍,支持 RTX 4090 生成超过 10 秒的 720p 视频,或在少于 12GB 的显存下生成 10 秒的 480p 视频。感谢 REFLEx 算法 提供的长度外推能力,使得生成的视频更加流畅。

特点总结

  1. 高效资源利用
    Wan2.1 GP 大幅降低了内存 和显存 的需求,使其能够在普通消费级显卡上流畅运行。
  2. 多任务支持
    支持文生视频(T2V)、图生视频(I2V)、文生图(T2I)和视频配音(V2A),满足多样化的生成需求。
  3. 优化的用户体验
    提供改进的 Web 界面、自动下载模型文件、多提示支持和多次生成功能,进一步提升了用户体验。
  4. 灵活的配置
    提供多种配置文件,适用于不同硬件配置,确保用户能够在有限的资源下高效运行模型。
  5. 集成与扩展
    Wan2.1 GP可以通过 ComfyUI 调用,并支持 TeaCache 和 RIFLEx 等优化技术,进一步提升了生成效率和质量。
© 版权声明

相关文章

暂无评论

none
暂无评论...