SVLSを使ったリップシンク動画の生成は、3つの重要なステップに分けられる:
1.環境準備
以下の依存関係をインストールする必要がある:
- PyTorch GPUバージョン(1.12.1+cu113)と関連するビジュアル・オーディオライブラリ
- FFmpegマルチメディア処理ツール
- プロジェクトのrequirements.txtに記載されているすべてのPythonパッケージ
- DAINフレーム補間機能を使いたい場合は、PaddlePaddleディープラーニングフレームワークもインストールする必要がある。
2.書類の準備
つの核となる文書を準備する必要がある:
- ドリブンオーディオドライバーのリップシンクによって生成された音声ファイル(.wav 形式など)。
- ソース・ビデオ肖像画を含むオリジナル動画ファイル(例:.mp4形式)
3.発電オーダーの実行
生成プロセスは、以下の典型的なコマンドで開始される:
python inference.py --driven_audio audio.wav --source_video video.mp4 --enhancer face --use_DAIN --time_step 0.5
ここに重要なパラメータが記述されている:
- -エンハンサーエンハンスモードの選択(エンハンスなし/リップのみエンハンス/顔全体エンハンス)
- -使用_DAIN50fpsフレーム補間を有効にする
- -タイム・ステップフレーム挿入密度の制御
生成された結果はデフォルトで ./resultsディレクトリに保存され、ユーザーはsync_showサブディレクトリで異なるエンハンスメント効果の比較ビデオを見ることができます。
この答えは記事から得たものである。SVLS: SadTalker、ポートレートビデオを使ってデジタル人物を生成する機能を強化について































