Wan2.1 GP是一个基于阿里视频生成模型Wan 2.1的优化模型,专为普通消费级显卡用户优化,降低资源需求,同时提供强大的视频生成能力。它支持多种生成任务,包括文生视频(T2V)、图生视频(I2V)、文生图(T2I),甚至还能为视频配音(V2A)。结合 TeaCache 和 RIFLEx 等技术,Wan2.1 GP不仅降低了硬件门槛,还提升了生成质量和速度。
- GitHub:https://github.com/deepbeepmeep/Wan2GP
- 一键安装:https://pinokio.computer/item?uri=https://github.com/pinokiofactory/wan

优化与改进
Wan2.1 GP对原始的 Wan 2.1 模型进行了多项优化,使其能够在资源有限的设备上运行。具体改进包括:
- 降低内存和显存需求
该模型将内存和显存的需求大幅降低,最低可在8G显存的显卡上流畅运行。这使得普通消费级显卡用户也能体验到高性能的视频生成能力。 - 加速生成过程
通过编译优化和快速加载/卸载机制,Wan2.1 GP 的生成速度更快。例如,使用 RTX 4090,用户可以在少于 12GB 的 显存下生成 10 秒的 480p 视频,甚至生成超过 10 秒的 720p 视频。 - 多配置支持
Wan2.1 GP 提供多种配置文件,适用于不同硬件配置。无论是低端消费级配置(32G内存 和12G显存),还是高端消费级配置(48G内存 和 24G显存),用户都能以合适的速度运行模型。 - 自动下载与简化安装
该模型支持自动下载所需的文件,简化了安装过程。用户只需运行简单的命令即可完成安装。 - 改进的 Web 界面
Wan2.1 GP 提供了改进的 gradio 界面,带有进度条和更多选项,使用户能够更直观地监控生成过程。 - 多提示与多次生成
用户可以为每个提示输入多个提示词,并进行多次生成,进一步扩展了模型的灵活性。 - 支持多个预训练的 Lora
在 32G内存 或更少的配置下,Wan2.1 GP支持多个预训练的 Lora,进一步增强了模型的生成能力。
最新更新与功能
2025 年 3 月 3 日
- Wan2.1GP v1.3:支持使用多个图像进行不同图像/提示组合的图像到视频生成(需要
--multiple-images
开关)。新增--preload x
命令行选项,允许用户在 显存 中预加载 x MB 的主扩散模型,以加速生成过程。如果升级,需要重新运行pip install -r requirements.txt
。 - Wan2.1GP v1.2:在 VAE 编码和解码中实现了平铺,消除了开头和结尾的显存峰值。
- Wan2.1GP v1.1:新增 Tea Cache 支持,加速生成速度。优化了 kijai 的 TeaCache 实现,并结合了 TeaCache 的功能。
2025 年 3 月 2 日
- Wan2.1GP v1:支持所有 Wan 模型,包括图像到视频模型。内存消耗减少 2 倍,支持 RTX 4090 生成超过 10 秒的 720p 视频,或在少于 12GB 的显存下生成 10 秒的 480p 视频。感谢 REFLEx 算法 提供的长度外推能力,使得生成的视频更加流畅。
特点总结
- 高效资源利用
Wan2.1 GP 大幅降低了内存 和显存 的需求,使其能够在普通消费级显卡上流畅运行。 - 多任务支持
支持文生视频(T2V)、图生视频(I2V)、文生图(T2I)和视频配音(V2A),满足多样化的生成需求。 - 优化的用户体验
提供改进的 Web 界面、自动下载模型文件、多提示支持和多次生成功能,进一步提升了用户体验。 - 灵活的配置
提供多种配置文件,适用于不同硬件配置,确保用户能够在有限的资源下高效运行模型。 - 集成与扩展
Wan2.1 GP可以通过 ComfyUI 调用,并支持 TeaCache 和 RIFLEx 等优化技术,进一步提升了生成效率和质量。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...