ComfyUI-OmniGen2:为多模态模型OmniGen2 打造的 ComfyUI 自定义节点插件

插件5个月前发布 小马良
303 0

北京AI研究院发布的集成了视觉理解、文本到图像生成、指令驱动编辑和基于主体的上下文生成能力的统一多模态模OmniGen2,如果你希望在 ComfyUI 中实现图像生成、编辑和视觉理解任务,那么 ComfyUI-OmniGen2 是你不可或缺的工具。

这是一个非官方但功能完整的 ComfyUI 自定义节点包,专为 OmniGen2 模型设计,支持本地部署、参数调节和图形化流程编排,适合研究人员、创意工作者和 AIGC 爱好者。

什么是 OmniGen2?

OmniGen2 是一款由北京AI研究院推出的统一多模态生成模型,具备以下核心能力:

  • 视觉理解:解析图像内容,回答图像相关问题
  • 文本到图像生成:根据提示词生成高质量图像
  • 指令引导图像编辑:基于自然语言修改图像细节
  • 上下文生成:结合多个图像和文本输入生成新图像
  • 高效推理:支持 CPU/GPU 卸载、批量生成和内存优化

它采用了解耦式的文本/图像解码架构,并引入独立的图像 tokenizer,使得图像生成与编辑更加精准可控。OmniGen2 在多个生成任务中表现出色,是当前开源多模态模型中的佼佼者。

🔧 主要功能亮点

功能描述
一键加载模型支持从 HuggingFace 或本地路径自动下载并加载 OmniGen2 模型
低显存友好提供顺序卸载(sequential offload)和模型卸载(model offload)选项,适用于 VRAM 不足设备
兼容性强完全集成 ComfyUI 节点系统,支持 IMAGE 张量输入输出
多场景支持支持文本到图像、图像编辑、上下文生成等多种任务

🛠️ 安装步骤

1. 下载模型

将 OmniGen2 模型文件放置于 models/omnigen2/ 文件夹下。你可以选择以下任意方式下载:

✅ 推荐方式一:Git LFS(HuggingFace)

cd models/omnigen2
git lfs install
git clone https://huggingface.co/OmniGen2/OmniGen2

✅ 推荐方式二:HuggingFace CLI

pip install huggingface_hub
huggingface-cli download OmniGen2/OmniGen2 --local-dir OmniGen2 --local-dir-use-symlinks False

✅ 国内用户推荐方式三:ModelScope

pip install modelscope
cd models/omnigen2
modelscope download --model OmniGen2/OmniGen2 --local_dir OmniGen2

⚠️ 注意:模型文件夹名应与仓库 ID 最后一部分一致,例如 OmniGen2

2. 安装依赖项

确保已安装必要的 Python 包:

pip install -r requirements.txt

如需进一步提升性能,建议安装 Flash Attention:

pip install flash-attn==2.7.4.post1 --no-build-isolation

3. 重启 ComfyUI

完成上述步骤后,重启 ComfyUI,插件节点即可生效。

⚠️ 注意:该插件部分依赖项(如 torch、transformers)有特定版本要求,可能与其他插件存在冲突,请合理配置虚拟环境。

🎮 使用指南

1. 文本到图像生成

  • 输入文本提示(prompt)
  • 设置目标图像大小
  • 调整 CFG Scale 控制生成风格匹配度

2. 图像编辑 / 上下文生成

  •  OmniGen2Sampler 节点提供最多 3 张输入图像(IMAGE 张量格式)
  • 使用自然语言描述所需的图像修改或组合方式
  • 调整 image_guidance_scale 参数以控制对原图的忠实程度(建议范围:1.2~3.0)

3. 视觉理解任务

📦 节点说明

OmniGen2ModelLoader

  • 加载 OmniGen2 模型管道
  • 支持 fp32、fp16、bf16 精度选择
  • 自动检测本地是否存在模型,若无则尝试联网下载

OmniGen2Sampler

  • 执行图像生成、编辑或上下文生成任务
  • 支持最多 3 张输入图像(ComfyUI IMAGE 格式)
  • 输出结果为标准 ComfyUI IMAGE 张量,可直接连接后续节点
  • 内置图像尺寸调整与格式转换逻辑

🚀 性能调优建议

设置建议
精度模式推荐使用 BF16,兼顾速度与质量
显存不足时开启 CPU Offloading  Model Offloading
批量生成设置 num_images_per_prompt > 1,自动生成拼贴图
图像引导强度编辑任务建议 1.2~2.0;上下文生成建议 2.5~3.0
负向提示词使用 negative_prompt 避免模糊、水印等问题
推理加速适当降低 resolution 参数,在保证效果的前提下提高效率

🧪 故障排查

  • 模型下载失败?
    检查网络连接、代理设置或手动下载模型。
  • 节点无法识别?
    确保模型路径正确,且模型文件夹名称与 repo_id 匹配。
  • 显存溢出?
    尝试启用 CPU Offloading 或降低分辨率参数。
© 版权声明

相关文章

暂无评论

none
暂无评论...