O processo de instalação e implantação é dividido em três etapas principais:
- Preparação ambientalPrimeiro, clone o repositório oficial via git
git clone https://github.com/Wan-Video/Wan2.2.gitEm seguida, instale as dependênciaspip install -r requirements.txt.
atenção especialRequer PyTorch versão ≥ 2.4.0 e o pacote flash_attn pode precisar ser instalado separadamente. - Download do modeloDois downloads oficiais estão disponíveis:
- Abraço no rosto:
huggingface-cli download Wan-AI/Wan2.2-S2V-14B - Abordagem ModelScope:
modelscope download Wan-AI/Wan2.2-S2V-14B
Os arquivos de modelo baixados devem ser armazenados no diretório especificado (o padrão é . /Wan2.2-S2V-14B).
- Abraço no rosto:
- verificação operacional (OV)Se a instalação for concluída, você poderá testar se o modelo funciona corretamente usando o comando de geração de base. Se houver um problema de memória de vídeo insuficiente, você pode tentar usar o comando
--offload_model Truedescarrega alguns dos componentes do modelo para a CPU.
Para usuários profissionais, há também uma solução de suporte oficial para inferência distribuída em várias GPUs, que requer o comando torchrun com o parâmetro FSDP (Full Split Data Parallelism).
Essa resposta foi extraída do artigoWan2.2-S2V-14B: modelo de geração de vídeo para sincronização da boca do personagem com base na falaO































