WeClone

2个月前发布 151 00

WeClone为我们提供了一个从聊天记录和声音创造数字分身的开源解决方案。它不仅能够模拟你的语言风格,还能复制你的声音,并将数字分身绑定到多个聊天平台上。

所在地:
中国
收录时间:
2025-04-22

WeClone是一个从聊天记录创造数字分身的一站式开源解决方案。它通过一系列技术手段,将你的聊天记录和声音转化为一个高度个性化的数字分身,并将其绑定到各种聊天平台上。

WeClone

核心功能介绍

  • 全链路方案:WeClone涵盖了打造数字分身的完整流程,包括聊天数据导出、预处理、模型训练和部署。这意味着用户可以从头到尾参与创建自己的数字分身,无需额外工具或服务。
  • 微调大语言模型:使用微信聊天记录对大语言模型(LLM)进行微调。通过这种方式,数字分身能够学习你的语言风格和表达习惯,从而更准确地模拟你的对话方式。
  • 高质量声音克隆:结合微信语音消息和0.5B大模型,WeClone能够实现高质量的声音克隆。这意味着你的数字分身不仅能够像你一样说话,还能以你的声音进行交流。
  • 多平台绑定:WeClone支持将数字分身绑定到微信、QQ、Telegram、企微、飞书等聊天机器人。这样一来,你的数字分身可以在多个平台上与他人互动,仿佛你本人就在那里。

如何实现数字分身

WeClone的核心在于利用你的聊天记录和声音进行训练。具体来说,它通过以下步骤实现:

  1. 数据导出:从微信等聊天平台导出你的聊天记录和语音消息。
  2. 预处理:对导出的数据进行清洗和格式化,以便用于模型训练。
  3. 模型训练:使用预处理后的数据对大语言模型进行微调,同时利用语音数据训练声音克隆模型。
  4. 部署:将训练好的模型部署到聊天机器人平台上,实现数字分身的实时互动。

技术门槛

尽管WeClone为用户提供了创建数字分身的可能,但这一过程并非没有门槛。由于涉及到大模型的训练,用户需要具备一定的技术知识和硬件条件。例如,训练过程需要本地运行大模型,大约需要16GB显存。这意味着并非所有人都能轻松创建自己的数字分身。

硬件要求

目前项目默认使用chatglm3-6b模型,LoRA方法对sft阶段微调,大约需要16GB显存。也可以使用LLaMA Factory支持的其他模型和方法,占用显存更少,需要自行修改模板的system提示词等相关配置。

需要显存的估算值:

方法精度7B14B30B70BxB
Full (bf16 or fp16)32120GB240GB600GB1200GB18xGB
Full (pure_bf16)1660GB120GB300GB600GB8xGB
Freeze/LoRA/GaLore/APOLLO/BAdam1616GB32GB64GB160GB2xGB
QLoRA810GB20GB40GB80GBxGB
QLoRA46GB12GB24GB48GBx/2GB
QLoRA24GB8GB16GB24GBx/4GB

数据统计

相关导航

暂无评论

none
暂无评论...