Deep-Live-Cam

1周前发布 7 00

Deep-Live-Cam 是一款可以实现实时换脸、视频深度伪造的工具,仅需要一张人脸图片,通过简单操作就能完成面部替换与实时渲染。

所在地:
美国
收录时间:
2026-02-12
其他站点:
Deep-Live-CamDeep-Live-Cam

Deep-Live-Cam 是一款主打实时换脸、视频深度伪造的工具,操作门槛极低,只需要一张人脸图片,轻点操作就能完成面部替换,并且支持全程实时渲染。

Deep-Live-Cam

作为面向 AI 内容创作的生产力工具,它可以用于角色动画制作、创意内容生成、服装设计展示等场景,同时内置了内容安全与伦理约束,避免被滥用。

使用免责与伦理规范

这款深度伪造工具在设计时就考虑了潜在的风险,并做出了明确约束:

  • 软件内置检测机制,不支持处理裸体、露骨内容、战争相关素材等敏感媒体
  • 项目会在法律与道德框架内持续更新,如监管要求,可能会停止服务或为生成内容添加水印。
  • 用户必须合法、合规使用,使用他人面部时,需要提前获得当事人同意。
  • 对外发布深度伪造结果时,必须明确标注为 AI 合成内容
  • 开发者不对用户的个人行为负责,使用者自行承担所有合规与伦理责任。

使用本软件,即代表你已阅读并同意以上条款。

v2.6 预构建快速版(Windows / Mac Silicon)

如果你使用英伟达、AMD 独立显卡,或是 Apple Silicon 设备,官方提供的 v2.6 预编译版本是运行效率最高的选择,还能获得优先支持。

这个版本适合:

  • 不想折腾环境配置的普通用户
  • 没有技术基础、希望开箱即用的人

整个实时换脸流程只需要三步:

  1. 选择一张用于替换的人脸图片
  2. 选择要调用的摄像头
  3. 点击“直播”,即可开始实时换脸

功能与适用场景

Deep-Live-Cam 所有功能均基于实时渲染,支持多种使用场景:

  • 口部遮罩
    保留原有画面的嘴部动作,让换脸后的表情、口型更自然准确。
  • 面部映射
    可以在不同画面主体上,同时应用不同的人脸素材。
  • 影视实时换脸
    播放电影或视频时,直接将画面中角色的面部替换成指定人脸。
  • 直播与表演
    用于直播、实时演出等场景,实现实时面部替换。
  • 表情包制作
    快速生成个性化、可二次传播的表情包。
  • 社交互动
    可在 Omegle 等随机聊天平台中使用,实现趣味换脸互动。

手动完整安装(所有步骤完整保留,不删减、不复刻)

手动安装需要一定基础操作能力,但兼容性更强,适合想自己控制环境的用户。无 GPU 时会使用 CPU 运行,速度相对较慢。

1. 环境准备

在开始安装前,需要先配置好基础依赖:

  • Python(推荐 3.11)
  • pip 包管理工具
  • git 代码管理工具
  • ffmpeg 音视频处理工具(Windows 可运行 iex (irm ffmpeg.tc.ht) 快速安装)
  • Windows 系统需额外安装 Visual Studio 2022 运行库

2. 拉取项目代码

打开命令行,将项目克隆到本地并进入目录:

git clone https://github.com/hacksider/Deep-Live-Cam.git
cd Deep-Live-Cam

3. 放置模型文件

需要下载两个核心模型:

  • GFPGANv1.4
  • inswapper_128_fp16.onnx

下载完成后,统一放到项目里的 models 文件夹中。

4. 创建虚拟环境并安装依赖

为了避免和系统其他库冲突,强烈建议使用虚拟环境。

Windows 执行:

python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt

Linux 执行:

python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt

macOS(Apple Silicon)执行:

brew install python@3.11
brew install python-tk@3.10

python3.11 -m venv venv
source venv/bin/activate
pip install -r requirements.txt

环境出错修复方案:

deactivate
rm -rf venv

python -m venv venv
source venv/bin/activate
pip install -r requirements.txt

pip install git+https://github.com/xinntao/BasicSR.git@master
pip uninstall gfpgan -y
pip install git+https://github.com/TencentARC/GFPGAN.git@master

5. 无 GPU 基础运行

没有独立显卡的设备,可以直接启动:

python run.py

首次运行会自动下载约 300MB 的模型文件。

五、GPU 加速配置(完整保留,逻辑更清晰)

1. 英伟达显卡(CUDA 加速)

  1. 安装 CUDA Toolkit 12.8.0
  2. 安装对应版本 cuDNN v8.9.7
  3. 配置 GPU 依赖:
pip install -U torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
pip uninstall onnxruntime onnxruntime-gpu
pip install onnxruntime-gpu==1.21.0

启动命令:

python run.py --execution-provider cuda

2. Apple Silicon(CoreML 加速)

必须使用 Python 3.10:

pip uninstall onnxruntime onnxruntime-silicon
pip install onnxruntime-silicon==1.13.1

启动:

python3.10 run.py --execution-provider coreml

3. 旧版 macOS(CoreML)

pip uninstall onnxruntime onnxruntime-coreml
pip install onnxruntime-coreml==1.21.0
python run.py --execution-provider coreml

4. Windows AMD 显卡(DirectML)

pip uninstall onnxruntime onnxruntime-directml
pip install onnxruntime-directml==1.21.0
python run.py --execution-provider directml

5. 英特尔显卡(OpenVINO)

pip uninstall onnxruntime onnxruntime-openvino
pip install onnxruntime-openvino==1.21.0
python run.py --execution-provider openvino

使用方法

图片/视频换脸模式

  1. 运行 python run.py 启动程序
  2. 选择源人脸图片和目标图片/视频
  3. 点击开始,程序自动处理
  4. 输出文件会保存在对应目录下

摄像头实时模式(直播可用)

  1. 启动程序后选择人脸图片
  2. 点击“直播”
  3. 等待 10–30 秒加载完成,出现预览画面
  4. 可用 OBS 等工具捕获画面进行推流
  5. 支持中途直接更换人脸图片,无需重启

数据统计

相关导航

暂无评论

none
暂无评论...