WarpTuber
WarpTuber

WarpTuber最新版

官方版无广告20

WarpTuber 是一个基于快手 LivePortrait 技术的即时虚拟直播工具,允许用户通过网络摄像头将自己的脸部表情和动作实时映射到静态图像或视频上,为内容创作、虚拟化身和直播提供便利。

更新日期:
2025年3月21日
语言:
中文
平台:

5.6GB4 人已下载 手机查看

WarpTuber 是一款基于快手 LivePortrait 技术开发的实时面部动画工具,能够通过你的网络摄像头将静态图像和视频赋予生命。它允许用户将自己的脸部表情和动作即时映射到一张照片或角色图像上,从而创造出会动的虚拟形象。无论是虚拟化身、内容创作还是直播,WarpTuber 都能轻松应对。

快速入门

1. 准备工作

  • 连接你的网络摄像头。
  • 确保你的系统满足以下要求:
    • Windows 10/11
    • 网络摄像头
    • Python 环境(包含在 venv 文件夹中)
    • 推荐使用支持 CUDA 的英伟达显卡
    • 本地安装 Python

2. 选择启动选项

  • 动画化静态图像:运行 camera_image.bat
  • 结合面部表情使用视频动画:运行 camera_video.bat
WarpTuber

使用说明

使用静态图像 (camera_image.bat)

  1. 将你的图像放入 assets/examples/source/ 文件夹,并命名为 main.jpg
  2. 运行 camera_image.bat
  3. 系统提示时,选择你的摄像头索引(默认摄像头通常为 0)。
  4. 应用程序将打开,显示你动画化的图像。

使用视频动画 (camera_video.bat)

  1. 将你的视频放入 assets/examples/source/ 文件夹,并命名为 main.mp4
  2. 运行 camera_video.bat
  3. 系统提示时,选择你的摄像头索引(默认摄像头通常为 0)。
  4. 应用程序将打开,显示根据你面部动作响应的视频动画。

文件要求

  • 静态图像:必须命名为 main.jpg,并放置在 assets/examples/source/ 文件夹中。
  • 动画视频:必须命名为 main.mp4,并放置在 assets/examples/source/ 文件夹中。

最佳效果建议

  • 图像应为清晰的肖像,面部特征可见。
  • 视频应为循环动画,光线一致。
  • 二者尺寸至少为 512x512 像素。

图像兼容性和面部特征检测

WarpTuber 依赖面部特征检测来动画化图像。并非所有图像都能正常工作,特别是:

  • 高度风格化的动漫或卡通角色。
  • 面部比例异常的图像。
  • 具有抽象面部特征的艺术作品。
  • 光线不足或对比度低的图像。
  • 侧脸肖像(面部应基本朝前)。

如果遇到类似“no face in [image path]! exit!”的错误信息,说明系统未能在你的图像中检测到面部特征。
解决方案

  • 尝试不同图像:使用带有清晰面部特征的照片或真实插图。
  • 启用动物模式:对于卡通角色,尝试使用 --animal 参数运行:
    • 示例:camera_image.bat --animal
  • 调整图像:编辑图像以突出面部特征:
    • 增加眼睛、鼻子和嘴巴周围的对比度。
    • 确保面部光线充足且居中。
    • 裁剪图像以更聚焦于面部。
    • 使用 AI 工具将风格化角色转换为更真实的风格。
  • 预处理面部增强:在使用 WarpTuber 前,使用照片编辑软件增强面部特征。

高级配置

命令行参数 两个批处理文件均支持附加参数:

  • --src_image [path] - 指定自定义源图像/视频路径。
  • --animal - 启用动物面部模式。
  • --paste_back - 启用背景保留(默认启用)。
  • --interactive - 启用交互控制(默认启用)。
  • --advanced_ui - 启用高级 UI 控制。

示例:camera_image.bat --src_image assets/my_custom_folder/portrait.jpg --animal
TensorRT 优化 此存储库包含预编译的 TensorRT 模型以获得最佳性能。如果预含模型出现问题,你可能需要自行编译:

  1. 导航至 checkpoints 目录,找到现有的 .trt 文件:
    • 人类模型文件:checkpoints/liveportrait_onnx/*.trt
    • 动物模型文件:checkpoints/liveportrait_animal_onnx/*.trt
    • 示例路径:C:\FLivePort\WarpTuber\checkpoints\liveportrait_onnx\stitching_lip.trt
  2. 如果遇到兼容性问题,删除这些 .trt 文件。
  3. 运行 scripts/all_onnx2trt.bat 以重新编译所有模型。
    • 这会将所有 ONNX 模型转换为针对你特定 GPU 优化的 TensorRT 格式。
    • 转换过程可能需要几分钟完成。

注意:仅当预编译模型在你的系统上无法工作时,才需要编译自己的 TensorRT 模型。编译过程会为你的 GPU 硬件创建优化的模型。

故障排除

  • 未检测到摄像头:确保摄像头正确连接且未被其他应用程序占用。
  • 动画显得卡顿:尝试关闭其他占用 GPU 的应用程序。
  • 模型加载错误:尝试运行 scripts/all_onnx2trt.bat 脚本为你的 GPU 编译模型。
  • 出现“no face in driving frame”错误:确保摄像头能清晰捕捉你的面部,并有良好的光线条件。

通过 WarpTuber,你可以轻松地将静态图像和视频变成生动的虚拟形象,无论是用于个人娱乐还是专业创作,都能带来全新的体验。

相关软件

AigcPanel

AigcPanel - 最新版

AigcPanel 是一个一站式 AI 数字人系统,整合了多种开源模型,包括 CosyVoice、MuseTalk、LatentSync 和 Wav2Lip 等,旨在为用户提供简单易用的数字人生成和管理工具。它支持视频合成、声音合成、声音克隆等功能,简化了本地模型管理,并提供一键导入和使用 AI 模型的能力。
Heygem

Heygem - 最新版

Heygem是一款专为Windows系统设计的全离线视频合成工具,它能够精确克隆您的外貌和声音,让您的形象数字化。您可以通过文字和语音驱动虚拟形象,进行视频制作。

暂无评论

none
暂无评论...