インストールと配備のプロセスは、主に3つのステップに分かれている:
- 環境準備git を使って公式リポジトリをクローンする。
git clone https://github.com/Wan-Video/Wan2.2.git次に依存関係をインストールする。pip install -r requirements.txt.
特筆: PyTorch version ≥ 2.4.0 が必要で、flash_attn パッケージを別途インストールする必要があるかもしれません。 - モデルダウンロード公式ダウンロードは2種類:
- ハグする顔:
huggingface-cli download Wan-AI/Wan2.2-S2V-14B - ModelScopeのアプローチ:
modelscope download Wan-AI/Wan2.2-S2V-14B
ダウンロードしたモデルファイルは、指定したディレクトリ(デフォルトは ./Wan2.2-S2V-14B)。
- ハグする顔:
- 運用検証(OV): インストールが完了したら、base generation コマンドを使用してモデルが正しく動作するかテストできます。ビデオメモリ不足の問題がある場合は
--offload_model Trueパラメータは、モデルコンポーネントの一部をCPUにオフロードする。
プロフェッショナルユーザー向けには、マルチGPU分散推論用の公式サポートソリューションも用意されており、これにはFSDP(Full Segmented Data Parallelism)パラメータ付きのtorchrunコマンドが必要です。
この答えは記事から得たものである。Wan2.2-S2V-14B:音声駆動型キャラクター口パク同期のための映像生成モデルについて































