仓库提供了基于Hugging Face TRL库和LoRA(Low-Rank Adaptation)技术的完整微调方案。用户可以使用预配置的LoraConfig(r=8, lora_alpha=32)对注意力层的q_proj和v_proj模块进行适配器训练。配套的Multilingual-Thinking多语言数据集支持英语、西班牙语、法语等跨语言推理任务。微调过程保留基础模型90%以上的原始性能,同时显著提升特定任务的准确率。
Essa resposta foi extraída do artigoColeção de scripts e tutoriais para ajuste fino dos modelos OpenAI GPT OSSO