SFT-LoRA微调完整流程
- 模型下载:通过modelscope获取基础模型
modelscope download --model Qwen/Qwen3-1.7B --local_dir ./Qwen3/Qwen3-1.7B
- 数据准备:将训练数据整理为项目要求的JSON格式,参考data/目录下的示例文件
- 启动训练:通过命令行运行训练脚本
python Supervised_FineTuning/train_sft_dirty.py --model_path ./Qwen3/Qwen3-1.7B --dataset_path data/dirty_chinese_dpo.json --sft_adapter_output_dir ./output/sft_adapter_demo
- 模型验证:训练完成后进行交互测试
python inference/inference_dirty_sft.py --model_path ./Qwen3/Qwen3-1.7B --adapter_path ./output/sft_adapter_demo --mode interactive
技术优势
LoRA技术通过低秩适配实现高效微调,相比全参数微调可节省50%以上的显存占用,同时保持约90%的模型性能,非常适合资源有限的开发场景。
本答案来源于文章《Qwen3-FineTuning-Playground:一个上手即用的Qwen3大模型微调代码库》