本番環境の配備は、3つのフェーズで実施できる:
- 環境準備::
- GitHubリポジトリをクローンし、依存関係をインストールします:
git clone https://github.com/TencentARC/ARC-Hunyuan-Video-7B && pip install -r requirements.txt - ハギング・フェイスから7Bウェイトファイルをダウンロードする。
experiments/pretrained_models/カタログ
- GitHubリポジトリをクローンし、依存関係をインストールします:
- 加速構成vLLM ライブラリのインストール
pip install vllm)、そしてtest_setup.pyCUDAの互換性を確認する。 - サービスカプセル化::
- 核となる機能(例.
inference.py)をREST APIとしてカプセル化する場合は、FastAPIフレームワークを使用することを推奨します。 - 長い動画の自動セグメンテーション処理パイプラインを実装する。
- Dockerコンテナによるデプロイで環境の一貫性を確保。
- 核となる機能(例.
このプロセスに従うと、基本的なデプロイは2時間以内に完了しますが、実際のスループットはGPU構成に依存します。
この答えは記事から得たものである。ARC-Hunyuan-Video-7B:短いビデオコンテンツを理解するためのインテリジェントモデルについて
































