ComfyUI 预构建 Docker 镜像上线:一键部署,告别依赖烦恼

插件5个月前发布 小马良
237 0

对于熟悉 ComfyUI 的用户来说,手动安装依赖、配置环境往往是一项繁琐且容易出错的任务。为此,ComfyUI Prebuilt Docker Images 提供了一套开箱即用的解决方案,将 ComfyUI 及其所有依赖项打包为预构建的 Docker 镜像,支持多种运行环境与 GPU 加速场景。

无论你是想在本地稳定运行 ComfyUI,还是希望在云服务上快速部署推理服务,这套镜像都能显著降低使用门槛。

核心优势

  •  一键部署:无需手动安装依赖,所有组件已集成。
  •  版本隔离:不同标签支持不同功能和 PyTorch 版本,避免冲突。
  •  易于升级:只需拉取新镜像即可更新,无需破坏现有配置。
  •  多平台支持:兼容本地、GPU 云平台(如 RunPod、QuickPod、Vast.ai 等)。

支持的镜像类型

目前提供三类镜像,适用于不同的使用需求:

镜像地址描述
ghcr.io/radiatingreverberations/comfyui-base:latest基础镜像,包含 SageAttention2++ 和 Nunchaku 模块
ghcr.io/radiatingreverberations/comfyui-extensions:latest扩展版,集成 KJNodes、GGUF、TeaCache 等插件
ghcr.io/radiatingreverberations/comfyui-reactor:latest包含 ReActor 功能及模型下载器,适合图像修复/换脸任务

支持的标签与对应版本

标签描述PyTorch / CUDA 版本
latest最新稳定版本PyTorch 2.8.0rc1 / CUDA 12.8
master来自 master 分支的最新提交PyTorch 2.8.0rc1 / CUDA 12.8
cpu-latestCPU 版本,用于无 GPU 环境PyTorch 2.8.0rc1 / CPU
cpu-masterCPU 版本,基于 master 分支PyTorch 2.8.0rc1 / CPU

如何在本地运行?

基本命令

你可以通过以下方式启动容器(具体命令请参考官方文档或 README):

docker run --gpus=all -p 8188:8188 ghcr.io/radiatingreverberations/comfyui-extensions:latest

启用高级功能

部分模块(如 SageAttention)需要额外参数激活,可通过命令行传入启用:

docker run --gpus=all -p 8188:8188 ghcr.io/radiatingreverberations/comfyui-extensions:latest --use-sage-attention

持久化存储设置

默认情况下,容器内的文件会在重启或更新时丢失。为了保留数据,建议挂载以下目录到宿主机:

容器路径用途
/comfyui/models存放模型文件
/comfyui/user/default用户配置
/comfyui/input输入素材(图片/视频)
/comfyui/output输出结果

使用 Docker Compose 的完整示例可帮助你更轻松地管理这些挂载点:

services:
comfyui:
image: ghcr.io/radiatingreverberations/comfyui-extensions:latest
container_name: comfyui
command:
- --use-sage-attention
ports:
- "8188:8188"
volumes:
- ./models:/comfyui/models
- ./user:/comfyui/user/default
- ./input:/comfyui/input
- ./output:/comfyui/output
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
restart: unless-stopped

添加自定义节点

如果你使用了某些未包含在镜像中的自定义节点,可以通过挂载的方式将其添加至容器内的 custom_nodes 文件夹中,实现灵活扩展。

Windows 使用说明

在 Windows 上运行这些镜像时,通常依赖 WSL2 的 Linux 环境。由于 WSL2 与 Windows 文件系统之间的桥接机制(drvfs),可能会导致模型加载速度变慢。

推荐做法:将模型文件等资源直接存放在 WSL2 的 Linux 文件系统中,以获得更好的性能表现。

自行构建镜像

除了使用预构建镜像,你也可以自行构建本地镜像:

docker buildx bake

该命令会根据项目提供的 Dockerfile 构建完整的镜像环境。

镜像组成详解

NVIDIA 基础镜像

  • 基于 Ubuntu 24.04
  • CUDA 12.8.1 运行时
  • Python 3.12
  • 已安装:
    • uv 0.7.16(Python 包管理工具)
    • PyTorch 2.8.0rc1
    • SageAttention2++
    • Nunchaku

ComfyUI 基础镜像

  • ComfyUI 主体
  • HuggingFace CLI 工具

ComfyUI 扩展镜像

  • KJNodes 插件
  • GGUF 支持
  • TeaCache 缓存机制
  • Nunchaku 模块
© 版权声明

相关文章

暂无评论

none
暂无评论...