Die Bereitstellung der Produktionsumgebung kann in drei Phasen erfolgen:
- Vorbereitung der Umwelt::
- Klonen Sie das GitHub-Repository und installieren Sie die Abhängigkeiten:
git clone https://github.com/TencentARC/ARC-Hunyuan-Video-7B && pip install -r requirements.txt
- Laden Sie die Datei mit den 7B-Gewichten von Hugging Face auf die
experiments/pretrained_models/
Katalog.
- Klonen Sie das GitHub-Repository und installieren Sie die Abhängigkeiten:
- Konfiguration der BeschleunigungInstallieren Sie die vLLM-Bibliothek (
pip install vllm
), und durchtest_setup.py
Überprüfen Sie die CUDA-Kompatibilität. - Dienstkapselung::
- Die Kernfunktionalität (z.B.
inference.py
), die als REST-API gekapselt sind, wird empfohlen, das FastAPI-Framework zu verwenden. - Implementierung einer Pipeline zur automatischen Segmentierungsverarbeitung für lange Videos.
- Sicherstellung der Umgebungskonsistenz mit Docker-Container-Bereitstellung.
- Die Kernfunktionalität (z.B.
Nach diesem Verfahren kann die Basisbereitstellung in weniger als 2 Stunden abgeschlossen werden, wobei der tatsächliche Durchsatz von der GPU-Konfiguration abhängt.
Diese Antwort stammt aus dem ArtikelARC-Hunyuan-Video-7B: Ein intelligentes Modell zum Verstehen kurzer VideoinhalteDie