Wav2Lip使用教程


前言

提示:基本准备工作:

项目名称: Wav2Lip
git地址 : https://github.com/Rudrabha/Wav2Lip.git

工具:
使用语言: python
编辑器: PyCharm
包管理工具: Anaconda

一、基本环境配置流程

  1. Python 3.6 语言环境
  2. ffmpeg: sudo apt-get install ffmpeg 安装
  3. pip install -r requirements.txt 【系统用要求安装的依赖包】
  4. 人脸检测预训练模型应下载到Face_detection/detection/sfd/s3fd.pth。如果以上内容不起作用,请选择其他链接。【需要一个预训练模型】

**

在 PyCharm 中 新建一个项目 并关联 Anaconda 创建一个新的环境

**

注意: 在项目的 pip install requirements.txt 文件中

librosa==0.7.0
numpy==1.17.1
opencv-contrib-python>=4.2.0.34
opencv-python==4.1.0.25
torch==1.1.0    这个地方最好改成   torch==1.10.0   加一个 0 
torchvision==0.3.0
tqdm==4.45.0
numba==0.48  至于这个地方版本冲突的问题  最好直接删除与他冲突的包  pip uninstall

二、下载模型

获得模型
模型说明

Wav2Lip 高度精确的唇同步
Wav2Lip + GAN 嘴唇同步稍差,但视觉质量更好
Expert Discriminator 专家鉴别器的权重
Visual Quality Discriminator 在GAN设置中训练的视盘重量

根据自己需求在git地址中进行下载
项目根目录/Face_detection/detection/sfd/模型放置位置

1.命令行启动

代码如下(示例):

命令行启动开始生成
python inference.py --checkpoint_path /face_detection/detection/sfd/wav2lip.pth  --face video.mp4 --audio 1.mp3 

根据需求进行修改或者在根目录中添加目录,然后在启动命令中也要添加文件夹路径在命令中


总结

下一节开始配置如何训练自己的模型

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇

)">
下一篇>>