O WeClone tem requisitos claros de hardware, especialmente para os modelos ChatGLM3-6B e o ajuste fino do LoRA. Recomenda-se usar GPUs equipadas com mais de 16 GB de memória de vídeo. Essa configuração pode garantir a eficiência e a estabilidade do treinamento do modelo.
Para diferentes cenários de uso e condições de hardware, o projeto oferece uma variedade de soluções opcionais:
- QLoRA (precisão de 4 bits): mínimo de 6 GB de memória de vídeo (modelo 7B) a 48 GB (modelo 70B)
- Ajuste fino completo dos parâmetros (16 bits): 60 GB (modelo 7B) a 600 GB (modelo 70B)
Para usuários com memória de vídeo insuficiente, o projeto oferece suporte à otimização do uso de recursos ajustando o modo de precisão ou usando treinamento paralelo com várias placas. No entanto, de modo geral, as GPUs continuam sendo a opção de hardware recomendada para a execução do WeClone.
Essa resposta foi extraída do artigoWeClone: treinamento de doppelgangers digitais com registros de bate-papo e vozes do WeChatO































