ComfyUI-MagCache :MagCache加速技术正式集成 ComfyUI,兼容原生节点流程

插件6个月前发布 小马良
205 0

如果你正在使用 ComfyUI 进行视频或图像模型推理,现在可以更高效地完成生成任务了!

由北京大学与华为的研究人员提出的MagCache 扩散模型加速技术,开发团队已经推出插件 ComfyUI-MagCache。该插件不仅兼容原生节点流程,还支持主流模型如 Wan2.1、HunyuanVideo 和 FLUX-dev,最高可实现 2~3 倍的推理加速,同时保持高质量输出。

🔧 什么是 MagCache?

MagCache 是一种无需训练、即插即用的缓存加速方法,基于“残差幅度变化”规律进行误差建模,并通过自适应跳步策略动态减少冗余计算步骤,从而显著提升扩散模型推理效率。

其核心优势包括:

  • 无需修改模型结构
  • 支持多种视频/图像扩散模型
  • 仅需一个样本完成校准
  • 加速比达 2~3 倍,画质损失可控

🚀 支持模型一览

目前 ComfyUI-MagCache 已支持以下主流模型:

模型类型模型名称
视频扩散Wan2.1 T2V / I2V
视频扩散HunyuanVideo T2V
图像扩散FLUX-dev T2I

未来还将持续扩展更多模型支持。

⚙️ 安装方式

目前还没有上架ComfyUI Manager,需要手动进行安装,只需三步即可在你的 ComfyUI 中启用 MagCache:

  1. 进入 custom_nodes 目录
    cd ComfyUI/custom_nodes
  2. 克隆插件仓库
    git clone https://github.com/zehong-ma/ComfyUI-MagCache.git
  3. 安装依赖
    cd ComfyUI-MagCache/
    pip install -r requirements.txt
  4. 重新启动 ComfyUI

🧪 使用说明

✅ 添加 MagCache 节点

  • 在工作流中,将 MagCache 节点插入到“加载扩散模型”或“加载 LoRA”节点之后。
  • 参数推荐如下(可根据需求微调):
模型magcache_threshretention_ratiomagcache_K
FLUX0.240.15
HunyuanVideo-T2V0.240.26
Wan2.1-T2V-1.3B0.120.24
Wan2.1-T2V-14B0.240.26
Wan2.1-I2V-480P/720P0.240.26

如果发现质量下降,建议适当降低 magcache_thresh  magcache_K 值。

💡 使用编译模型(可选)

为了进一步加速推理,ComfyUI-MagCache 还提供了“编译模型”节点,利用 PyTorch 的 torch.compile 技术对模型进行优化,首次运行稍慢,后续推理速度大幅提升。

📁 示例工作流

插件已提供多个示例流程供参考,位于 examples 文件夹中,涵盖:

  • FLUX-dev(图像生成)
  • HunyuanVideo-T2V
  • Wan2.1-T2V
  • Wan2.1-I2V

🧾 性能表现总结

模型加速比画质损失
Wan2.12.68x可接受
HunyuanVideo2.82x几乎无损
FLUX-dev~2.1x微小损失

实验表明,在 LPIPS、SSIM、PSNR 等指标上,MagCache 表现优于现有方法,是当前最实用的扩散模型加速方案之一。

© 版权声明

相关文章

暂无评论

none
暂无评论...