Der Installations- und Bereitstellungsprozess ist in drei Hauptschritte unterteilt:
- Vorbereitung der Umwelt: Klonen Sie zunächst das offizielle Repository via git
git clone https://github.com/Wan-Video/Wan2.2.gitInstallieren Sie dann die Abhängigkeitenpip install -r requirements.txt.
besondere AufmerksamkeitErfordert PyTorch Version ≥ 2.4.0 und das flash_attn Paket muss eventuell separat installiert werden. - Modell DownloadZwei offizielle Downloads sind verfügbar:
- Umarmung Gesicht Weg:
huggingface-cli download Wan-AI/Wan2.2-S2V-14B - ModelScope-Ansatz:
modelscope download Wan-AI/Wan2.2-S2V-14B
Die heruntergeladenen Modelldateien sollten in dem angegebenen Verzeichnis gespeichert werden (Standard ist . /Wan2.2-S2V-14B).
- Umarmung Gesicht Weg:
- Operative Überprüfung (OV)Nach Abschluss der Installation können Sie testen, ob das Modell ordnungsgemäß funktioniert, indem Sie den Befehl base generation verwenden. Wenn es ein Problem mit unzureichendem Videospeicher gibt, können Sie versuchen, den Befehl
--offload_model Trueverlagert einige der Modellkomponenten auf die CPU.
Für professionelle Anwender gibt es auch eine offizielle Lösung für verteilte Multi-GPU-Inferenz, die den Befehl torchrun mit dem Parameter FSDP (Full Segmented Data Parallelism) erfordert.
Diese Antwort stammt aus dem ArtikelWan2.2-S2V-14B: Videogenerierungsmodell für die sprachgesteuerte Synchronisation von ZeichenmündernDie































