新ComfyUI-QuantOps:支持 INT8 块量化模型加载,降低显存占用提升推理效率在本地运行Qwen Image 、WAN2.2等大模型时,显存占用高、推理速度慢是常见瓶颈。模型量化(如 INT8、FP8)可显著降低内存需求并提升推理吞吐,但 ComfyUI 原生对非标准量化格式支...插件# ComfyUI-QuantOps# convert_to_quant# 量化模型2天前0100