ComfyUI-QuantOps:支持 INT8 块量化模型加载,降低显存占用提升推理效率在本地运行Qwen Image 、WAN2.2等大模型时,显存占用高、推理速度慢是常见瓶颈。模型量化(如 INT8、FP8)可显著降低内存需求并提升推理吞吐,但 ComfyUI 原生对非标准量化格式支...插件# ComfyUI-QuantOps# convert_to_quant# 量化模型3周前0380
适用于SVDQuant技术的ComfyUI节点及量化模型已推出之前已向大家介绍了《新的4位量化方法SVDQuant》,现在该方法已经推出了适用于ComfyUI的节点以及相应的量化模型。为了能够充分利用这些资源,用户需要安装Nunchaku推理引擎。对于显存小于1...插件# SVDQuant# 量化模型1年前03750