北大团队推出多模态混合专家模型MoE-LLaVA 来自北大的研究人员推出多模态的混合专家模型MoE-LLaVA,旨在通过一种新颖的训练策略,有效地提高模型在处理视觉和语言任务时的性能,同时保持计算成本的稳定。 GitHub Demo 论文 此模型只有... 新技术# MoE-LLaVA# 北大# 多模态混合专家模型 1年前03630