WeClone对硬件有明确的要求,特别是进行ChatGLM3-6B模型和LoRA微调时,推荐使用配备16GB以上显存的GPU。这种配置能够保证模型训练的效率和稳定性。
针对不同的使用场景和硬件条件,项目提供了多种可选方案:
- QLoRA(4位精度):最低6GB显存(7B模型)到48GB(70B模型)
- 全参数微调(16位):60GB(7B模型)到600GB(70B模型)
对于显存不足的用户,项目支持通过调整精度模式或使用多卡并行训练来优化资源使用。但总体而言,GPU仍然是运行WeClone的推荐硬件选择。
This answer comes from the articleWeClone: training digital doppelgangers with WeChat chats and voicesThe