对于熟悉 ComfyUI 的用户来说,手动安装依赖、配置环境往往是一项繁琐且容易出错的任务。为此,ComfyUI Prebuilt Docker Images 提供了一套开箱即用的解决方案,将 ComfyUI 及其所有依赖项打包为预构建的 Docker 镜像,支持多种运行环境与 GPU 加速场景。
无论你是想在本地稳定运行 ComfyUI,还是希望在云服务上快速部署推理服务,这套镜像都能显著降低使用门槛。

核心优势
- ✅ 一键部署:无需手动安装依赖,所有组件已集成。
- ✅ 版本隔离:不同标签支持不同功能和 PyTorch 版本,避免冲突。
- ✅ 易于升级:只需拉取新镜像即可更新,无需破坏现有配置。
- ✅ 多平台支持:兼容本地、GPU 云平台(如 RunPod、QuickPod、Vast.ai 等)。
支持的镜像类型
目前提供三类镜像,适用于不同的使用需求:
| 镜像地址 | 描述 |
|---|---|
ghcr.io/radiatingreverberations/comfyui-base:latest | 基础镜像,包含 SageAttention2++ 和 Nunchaku 模块 |
ghcr.io/radiatingreverberations/comfyui-extensions:latest | 扩展版,集成 KJNodes、GGUF、TeaCache 等插件 |
ghcr.io/radiatingreverberations/comfyui-reactor:latest | 包含 ReActor 功能及模型下载器,适合图像修复/换脸任务 |
支持的标签与对应版本
| 标签 | 描述 | PyTorch / CUDA 版本 |
|---|---|---|
latest | 最新稳定版本 | PyTorch 2.8.0rc1 / CUDA 12.8 |
master | 来自 master 分支的最新提交 | PyTorch 2.8.0rc1 / CUDA 12.8 |
cpu-latest | CPU 版本,用于无 GPU 环境 | PyTorch 2.8.0rc1 / CPU |
cpu-master | CPU 版本,基于 master 分支 | PyTorch 2.8.0rc1 / CPU |
如何在本地运行?
基本命令
你可以通过以下方式启动容器(具体命令请参考官方文档或 README):
docker run --gpus=all -p 8188:8188 ghcr.io/radiatingreverberations/comfyui-extensions:latest
启用高级功能
部分模块(如 SageAttention)需要额外参数激活,可通过命令行传入启用:
docker run --gpus=all -p 8188:8188 ghcr.io/radiatingreverberations/comfyui-extensions:latest --use-sage-attention
持久化存储设置
默认情况下,容器内的文件会在重启或更新时丢失。为了保留数据,建议挂载以下目录到宿主机:
| 容器路径 | 用途 |
|---|---|
/comfyui/models | 存放模型文件 |
/comfyui/user/default | 用户配置 |
/comfyui/input | 输入素材(图片/视频) |
/comfyui/output | 输出结果 |
使用 Docker Compose 的完整示例可帮助你更轻松地管理这些挂载点:
services:
comfyui:
image: ghcr.io/radiatingreverberations/comfyui-extensions:latest
container_name: comfyui
command:
- --use-sage-attention
ports:
- "8188:8188"
volumes:
- ./models:/comfyui/models
- ./user:/comfyui/user/default
- ./input:/comfyui/input
- ./output:/comfyui/output
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
restart: unless-stopped
添加自定义节点
如果你使用了某些未包含在镜像中的自定义节点,可以通过挂载的方式将其添加至容器内的 custom_nodes 文件夹中,实现灵活扩展。
Windows 使用说明
在 Windows 上运行这些镜像时,通常依赖 WSL2 的 Linux 环境。由于 WSL2 与 Windows 文件系统之间的桥接机制(drvfs),可能会导致模型加载速度变慢。
推荐做法:将模型文件等资源直接存放在 WSL2 的 Linux 文件系统中,以获得更好的性能表现。
自行构建镜像
除了使用预构建镜像,你也可以自行构建本地镜像:
docker buildx bake
该命令会根据项目提供的 Dockerfile 构建完整的镜像环境。
镜像组成详解
NVIDIA 基础镜像
- 基于 Ubuntu 24.04
- CUDA 12.8.1 运行时
- Python 3.12
- 已安装:
- uv 0.7.16(Python 包管理工具)
- PyTorch 2.8.0rc1
- SageAttention2++
- Nunchaku
ComfyUI 基础镜像
- ComfyUI 主体
- HuggingFace CLI 工具
ComfyUI 扩展镜像
- KJNodes 插件
- GGUF 支持
- TeaCache 缓存机制
- Nunchaku 模块
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...














