vorläufig
Um Fotos zum "Tanzen" zu bringen, müssen Sie zwei Kernmaterialien vorbereiten: ein Porträtfoto und ein Fahrvideo von der Zielhandlung.
Detaillierte Schritte
- Entwicklung der Umwelt
- Klonen Sie das Projekt-Repository: git clone https://github.com/bytedance/X-Dyna.git
- Abhängigkeiten installieren: pip install -r requirements.txt
- PyTorch 2.0 Umgebung konfigurieren: bash env_torch2_install.sh
- Material vorbereiten
- Wählen Sie ein klares, nach vorne gerichtetes Portraitfoto (.jpg/.png)
- Bereiten Sie ein Referenzvideo mit Standardtanzschritten vor (.mp4)
- Generation der Ausführung
- Befehl ausführen: python inference_xdyna.py -input_image photo path -driving_video video video path
- Die Bewegungsglättung kann mit dem Parameter -num_mix eingestellt werden
Tipps zur Optimierung
Bei inkohärenten Bewegungen wird empfohlen, 1) ddim_steps auf 50-100 zu erhöhen, 2) LCM LoRA zu verwenden, um das Modell zu beschleunigen, und 3) sicherzustellen, dass die Bewegungen im Fahrvideo vollständig und kohärent sind. Das Projekt empfiehlt außerdem die Verwendung des Parameters best_frame, um das am besten geeignete Startbild auszuwählen.
Diese Antwort stammt aus dem ArtikelX-Dyna: Still Portrait Reference Video Pose Generation Video um Missys Fotos tanzen zu lassenDie































