NeuroSandboxWebUI是一个强大且易于使用的界面,支持多种神经网络模型,涵盖文本、语音、图像、视频、3D对象、音乐和音频等多种输入和输出形式。以下是详细的介绍和安装指南。
功能概述
文本、语音和图像输入:
-
与LLM(大型语言模型)进行通信。 -
使用StableDiffusion、Kandinsky、Flux、HunyuanDiT、Lumina-T2X、Kolors、AuraFlow、Würstchen、DeepFloydIF、PixArt、CogView3-Plus和PlaygroundV2.5生成图像。 -
使用ModelScope、ZeroScope 2、CogVideoX和Latte生成视频。 -
使用StableFast3D、Shap-E和Zero123Plus生成3D对象。 -
使用StableAudioOpen、AudioCraft和AudioLDM 2生成音乐和音频。 -
使用CoquiTTS、MMS和SunoBark进行文本到语音转换。 -
使用OpenAI-Whisper和MMS进行语音到文本转换。 -
使用Wav2Lip进行唇形同步。 -
使用LivePortrait为图像添加动画。 -
使用Roop进行换脸。 -
使用Rembg移除背景。 -
使用CodeFormer修复面部。 -
使用PixelOE进行图像像素化。 -
使用DDColor为图像上色。 -
使用LibreTranslate和SeamlessM4Tv2进行文本翻译。 -
使用Demucs和UVR进行音频文件分离。 -
使用RVC进行语音转换。
其他功能:
-
查看输出目录中的文件。 -
下载LLM和StableDiffusion模型。 -
在界面内更改应用程序设置。 -
检查系统传感器。
安装指南
1、安装必需依赖:
-
Python(3.10.11) -
Git -
CUDA(12.4)和cuDNN(9.1)(仅GPU版本) -
FFMPEG -
C++编译器(Visual Studio、Visual Studio Code和CMake)
2、克隆仓库:
git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git
3、运行安装脚本:
-
导航到克隆的目录。 -
运行 Install.bat
,选择您的版本并等待安装完成。
4、启动应用程序:
-
运行 Start.bat
。 -
跟随终端中的链接完成初始设置。 -
应用程序启动后,您就可以开始生成内容了。
5、获取更新:
-
运行 Update.bat
获取最新更新。
6、使用虚拟环境:
-
运行 Venv.bat
通过终端使用虚拟环境。
最低系统要求
-
系统:Windows, Linux或MacOS -
GPU:6GB+ 或 CPU:8核3.6GHz -
RAM:16GB+ -
磁盘空间:20GB+ -
互联网连接:需要互联网连接以下载模型和进行安装
其他功能
-
多模态支持:支持Moondream 2, LLaVA-NeXT-Video, Qwen2-Audio等多模态模型。 -
PDF解析:使用OpenParse解析PDF文件。 -
TTS和STT:支持CoquiTTS和Whisper模型。 -
LORA和网络搜索:支持LORA和使用DuckDuckGo进行网络搜索。 -
元数据信息查看器:用于生成图像、视频和音频的元数据信息查看器。 -
界面内的模型设置:在界面内调整模型设置。 -
在线和离线Wiki:提供在线和离线文档。 -
图库:查看输出目录中的文件。 -
模型下载器:下载所需的模型。 -
应用程序设置:调整应用程序设置。 -
系统传感器查看:查看系统传感器状态。
评论0