ComfyUI-RadialAttn:将高效 Radial Attention 集成至原生工作流

插件4个月前发布 小马良
241 0

Radial Attention 在长视频生成中展现出显著的效率优势(最高 3.7 倍推理加速,支持 4 倍长度扩展),开发者社区迅速跟进。

ComfyUI-RadialAttn:将高效 Radial Attention 集成至原生工作流

ComfyUI-RadialAttn 正是这样一个项目——它将 Radial Attention 机制无缝集成到 ComfyUI 原生工作流中,使用户无需依赖特定封装器,即可在标准节点环境中启用这一高效注意力结构。

🔗 项目地址:https://github.com/woct0rdho/ComfyUI-RadialAttn

适用场景与支持模型

该插件专为使用 Wan 2.1 和 Wan 2.2 14B 模型的用户设计,支持:

  • ✅ 文本到视频(T2V)
  • ✅ 图像到视频(I2V)

适用于希望在 原生 ComfyUI 工作流中启用 Radial Attention 的用户。

⚠️ 注意:如果你使用的是 kijai 的 ComfyUI-WanVideoWrapper,建议直接使用其内置的 WanVideoSetRadialAttention 节点,无需额外安装此插件(但仍需安装相关依赖)。

安装步骤(Windows 用户)

以下为 Windows 平台完整安装流程,Linux 用户可跳过 wheel 安装部分,自行编译或适配。

1. 安装依赖包

请依次安装以下 Python 包:

# 安装 Triton(Windows)
pip install triton-windows

# 安装注意力相关组件
pip install SageAttention
pip install SpargeAttention

# 安装 FlashInfer(仅支持 PyTorch 2.6)
pip install flashinfer-windows

⚠️ 若你使用其他 PyTorch 版本(如 2.4/2.5),可跳过完整依赖安装,仅运行:

pip install --no-deps .\flashinfer_python-0.2.8-cp39-abi3-win_amd64.whl
2. 安装通用依赖
pip install cuda-python einops ninja numpy pynvml requests
3. 安装插件

将项目克隆至 ComfyUI 的自定义节点目录:

git clone https://github.com/first-intelligence/ComfyUI-RadialAttn.git
# 移动到 custom_nodes 目录
mv ComfyUI-RadialAttn /path/to/ComfyUI/custom_nodes/

重启 ComfyUI,即可在节点列表中看到 PatchRadialAttn 节点。

使用方法

使用方式极为简单:

  1. 在工作流中加载 Wan 2.1/2.2 14B 模型
  2. 将模型输出连接至 PatchRadialAttn 节点
  3. 后续接常规采样器、提示词、VAE 等节点即可

📌 项目提供了一个示例工作流,涵盖:

  • Wan 2.2 14B I2V
  • GGUF 编码器
  • LightX2V LoRA 加速
  • Radial Attention + torch.compile 优化

适合直接参考或迁移使用。

性能优化建议

根据实测反馈,以下设置有助于在保持效率的同时提升生成质量:

  • ✅ 跳过第一层和第一个时间步的稀疏化
    在 PatchRadialAttn 节点中设置:

    • dense_block = 1(前1个 block 使用稠密注意力)
    • dense_timestep = 1(第一个 timestep 不稀疏)

    这有助于保留初始结构信息,避免早期去噪阶段失真。

关键限制:视频令牌数量必须被 128 整除

Radial Attention 对输入尺寸有特定要求:

视频令牌总数必须能被 128 整除

例如:

  • 768×448 分辨率,69 帧视频:

❗ 常见误解:认为“宽高必须被128整除”——这是错误的。真正需要整除的是最终的 token 数量,而非原始分辨率。

建议在构建工作流前,先通过公式验证输入参数是否合规。

为什么选择这个插件?

优势说明
原生集成无需修改模型加载逻辑,兼容标准 ComfyUI 流程
易于启用一个节点即可打补丁,支持 LoRA 叠加
高效运行结合 torch.compile 与 LightX2V LoRA,进一步提升速度
社区维护持续更新,适配 SageAttention v1/v2 等新特性
© 版权声明

相关文章

暂无评论

none
暂无评论...