Os requisitos de hardware do WeClone dependem do cenário de uso específico:
- operação básicaGPUs com pelo menos 16 GB de memória de vídeo (por exemplo, RTX3090) são necessárias ao usar o modelo padrão ChatGLM3-6B + ajuste fino de LoRA
- Programa Low ProfileCom QLoRA (quantificação de 4 bits), o modelo 7B requer um mínimo de 6 GB de memória de vídeo, que pode ser adaptada ajustando parâmetros como per_device_train_batch_size
- solução para vários cartõesSuporte para treinamento com vários cartões DeepSpeed, o modelo grande 70B requer 8 A100s (80 GB)
- Programas substitutosUse plataformas de nuvem, como o Colab, ou use os serviços de API da comunidade Magic Hitch quando estiver com pouca memória de vídeo!
Dados do mundo real: são necessárias cerca de 4 horas para treinar 20.000 dados em uma RTX4080 (16 GB). Se estiver fazendo apenas inferência (sem treinamento), 8 GB de memória de vídeo mal conseguem executar as funções básicas.
Essa resposta foi extraída do artigoWeClone: treinamento de doppelgangers digitais com registros de bate-papo e vozes do WeChatO





























