SD混合专家模型SegMoE:允许多个模型混合成一个模型,无需训练

预计阅读时间1 分 499 views

SegMoE是由Segmind开发的SD混合专家模型,它无需训练就可以混合多个Stable Diffusion模型组成一个新的模型,类似大语言模型中的MoE模型。该框架允许即时创建更大的模型,提供更丰富的知识、更好的一致性和更好的图像质量。


MoE(Mixture of Experts),中文通常翻译为“专家混合模型”。这个概念来源于机器学习领域,是一种提高模型处理能力的方法。可以把MoE模型想象成是一个“专家团队”。在这个团队里,每个“专家”(模型)都有自己擅长的领域。当有任务(比如数学题)需要解决时,MoE模型会根据问题的难度和类型,选择最合适的“专家”来处理。这样,每个“专家”只需要处理自己擅长的问题,大大提高了效率。

SD混合专家模型SegMoE:允许多个模型混合成一个模型,无需训练

目前开发者提供了三个已经混合好的模型,分别由2个SDXL、4个SDXL和4个SD1.5模型组成。

SD混合专家模型SegMoE:允许多个模型混合成一个模型,无需训练
从左到右分别是SegMoE-2x1-v0、SegMoE-4x2-v0、基本模型 (RealVisXL_V3.0)

目前已经有开发者ZHO-ZHO-ZHO打造了ComfyUI插件ComfyUI-SegMoE,实现了SegMoE模型在ComfyUI运行,不过由于SegMoE模型本身显存占用高的问题,插件开发者表示此插件对显存要求较高,建议20GB以上显存显卡。(插件安装请查看:插件

节点说明

SegMoE Model Loader(模型加载)

SegMoE Generation(SegMoE 生成)

  • pipe:接入模型

  • positivet、negative:正负提示词

  • step:步数,官方默认30步

  • guidance_scale:提示词相关度,一般默认为5

  • width、height:宽度、高度

  • seed:种子

SD混合专家模型SegMoE:允许多个模型混合成一个模型,无需训练

暂无评论

none
暂无评论...
分享此文档

SD混合专家模型SegMoE:允许多个模型混合成一个模型,无需训练

或复制链接

文章目录
Genspark

Genspark

Genspark 超级智能体——您的全能AI伙伴,从拨打电话、制作幻灯片到生成TikTok短视频,轻松应对日常任务。内置80+预装工具与海量数据集,更快、更可靠、更可控。
Open ASR 排行榜

Open ASR 排行榜

Open ASR 排行榜 对 Hugging Face Hub 上的语音识别模型进行排名和评估。我们报告平均 WER(字错误率)(⬇️ 越低越好)和 RTFx(实时因子)(⬆️ 越高越好),模型根据其平均 WER 从低到高进行排名。
Google AI Studio

Google AI Studio

Google AI Studio 是一个功能齐全的工具,特别适合希望快速构建和试验 AI 应用的开发者。其多模态支持、提示库和与 Gemini API 的无缝集成使其成为生成 AI 开发的有力平台。
Nova Act

Nova Act

亚马逊发布了其通用AI智能体(AI agent) ——Nova Act。该智能体具备操控网络浏览器并自主执行简单网络任务的能力。与此同时,亚马逊还推出了配套的 Nova Act 软件开发工具包(SDK),帮助开发者利用 Nova Act 构建智能体应用原型。
朱雀大模型检测

朱雀大模型检测

腾讯朱雀 AI 检测是于 2025 年 1 月 17 日推出的一款 AI 生成内容检测工具,主要用于帮助用户识别 AI 生成的文本和图像内容。每位用户每天最多可检测20次文本和20次图片。
DiffSynth-Studio

DiffSynth-Studio

DiffSynth Studio 是一个开源的扩散引擎,专注于 AI 生成内容(AIGC)技术创新,特别适合学术研究。它通过连接开源扩散模型,提供尖端技术支持和新型推理能力,帮助用户探索图像和视频生成的新可能性。
查看完整榜单