安装部署过程分为三个主要步骤:
- 環境準備:首先通过git克隆官方仓库
git clone https://github.com/Wan-Video/Wan2.2.git
,然后安装依赖项pip install -r requirements.txt
.
特筆:需要PyTorch版本≥2.4.0,且flash_attn包可能需单独安装。 - モデルダウンロード:提供两种官方下载方式:
- Hugging Face方式:
huggingface-cli download Wan-AI/Wan2.2-S2V-14B
- ModelScope方式:
modelscope download Wan-AI/Wan2.2-S2V-14B
下载的模型文件需存放在指定目录(默认为./Wan2.2-S2V-14B)
- Hugging Face方式:
- 运行验证:完成安装后,可通过基础生成命令测试模型是否正常工作。若出现显存不足问题,可尝试使用
--offload_model True
参数将部分模型组件卸载到CPU。
对于专业用户,官方还提供了多GPU分布式推理的支持方案,需要使用torchrun命令配合FSDP(全分片数据并行)参数。
この答えは記事から得たものである。Wan2.2-S2V-14B:语音驱动人物口型同步的视频生成模型について