ComfyUI Prompt Helper:本地化提示词工程套件,专为 Z-Image 与Qwen Image优化

插件1天前发布 小马良
15 0

在 AI 图像生成工作流中,提示词质量直接决定输出上限。然而,大多数用户仍依赖手动编写或在线工具,既低效又难以与 ComfyUI 深度集成。ComfyUI Prompt Helper 正是为解决这一痛点而生——它是一套专业的自定义节点,完全在本地运行,无需联网调用 API,即可实现高质量提示词增强与系统提示提取。

核心亮点在于对 Qwen3-4B-Z-Image-Engineer 模型的深度集成,专为当前主流图像模型(如 Z-Image、Qwen Image)优化提示结构,强调正向约束、纹理细节与电影级相机参数

ComfyUI Prompt Helper:本地化提示词工程套件,专为 Z-Image 与Qwen Image优化

两大核心节点

1. Qwen3 Engineer:本地 GGUF 提示词增强器

  • 运行方式:基于 llama-cpp-python,加载 GGUF 量化模型,在 CPU/GPU 上本地推理;
  • 输入:简短用户描述(如“赛博朋克城市夜景”);
  • 输出:结构化、高密度的正向提示词,包含:
    • 光线方向与质感(“霓虹灯反射在湿漉漉的街道上”)
    • 材质细节(“金属表面带有划痕与氧化痕迹”)
    • 相机设置(“85mm 镜头,f/1.4,浅景深”)
    • 构图逻辑(“三分法构图,主角位于右交叉点”)
  • 优势
    ✅ 无需网络,隐私安全
    ✅ 支持 GPU 加速(通过 n_gpu_layers 参数)
    ✅ 输出可直接接入 KSampler、CLIP Text Encode 等下游节点

模型要求:需将 Qwen3-4B-Z-Image-Engineer.Q5_K_M.gguf 等文件放入 ComfyUI/models/text_encoders/ 目录。

2. System Prompt Extractor:系统提示词提取器

  • 功能:提取官方或社区验证的高质量系统提示模板
  • 语言支持:英文 / 中文双语切换;
  • 典型用途
    • 获取 Z-Image 官方推荐的提示结构;
    • 作为其他 LLM 节点(如 Oobabooga、OpenAI Proxy)的系统指令输入;
    • 对比不同语言下的提示策略差异。
  • 输出示例(中文):
    “你是一位专业视觉艺术家,请根据用户描述生成详细、结构化的图像提示词,包含光线、材质、镜头、构图四要素,避免负面词汇,使用正向引导。”

安装与配置

基本安装

# 1. 克隆到 custom_nodes
cd ComfyUI/custom_nodes
git clone https://github.com/your-repo/ComfyUI-Prompt_Helper.git

# 2. 安装依赖
cd ComfyUI-Prompt_Helper
pip install -r requirements.txt

# 3. 下载 GGUF 模型
# 放置至 ComfyUI/models/text_encoders/

Windows 优化(推荐)

  • 使用项目提供的预编译 llama-cpp-python wheel 文件,避免编译错误;
  • 启用 CUDA 支持,实现 GPU 加速推理。

使用流程

  1. 启动 ComfyUI,节点自动注册:
    • QwenTextEngineer 类别 → QwenImageEngineer
    • PromptHelper 类别 → SystemPromptExtractor
  2. Qwen3 Engineer 工作流
    • 选择 GGUF 模型(自动扫描 text_encoders 目录)
    • 输入简短提示(如“日式庭院,樱花飘落”)
    • 调整参数(推荐 temperature=0.8max_new_tokens=256
    • 输出连接至 CLIP Text Encode 节点
  3. System Prompt Extractor 串联
    • 选择语言(English/Chinese)
    • 将输出连接至其他 LLM 节点的 system_prompt 输入端
    • 实现“系统指令 + 用户提示”的完整链路

关键参数说明

节点参数建议值说明
Qwen3 Engineern_gpu_layers-1(全 GPU)或 20–30(混合)提升推理速度
temperature0.7–0.9平衡创意性与稳定性
max_new_tokens200–300避免截断关键细节
System Prompt ExtractorlanguageChinese / English按工作流语言选择

为什么选择本地 GGUF?

  • 隐私保障:提示词不离开设备,适合处理商业或敏感内容;
  • 离线可用:无网络依赖,稳定可靠;
  • 成本可控:无需支付 API 调用费用;
  • 定制灵活:可替换为任意 GGUF 格式的提示优化模型。
© 版权声明

相关文章

暂无评论

none
暂无评论...