资源受限环境下的调优策略
针对 16GB 以下内存的设备,推荐以下优化组合:
- 模型选择
- 优先使用 8B 版本(需修改
inference.py
中的--model
参数) - 启用 8-bit 量化:安装
bitsandbytes
包后添加--load_in_8bit
参数
- 优先使用 8B 版本(需修改
- 计算加速
- 强制使用 Flash-Attention(安装时指定
--no-build-isolation
) - 限制推理批处理大小(设置
--batch_size 1
)
- 强制使用 Flash-Attention(安装时指定
- 内存管理
- 启用梯度检查点:在训练脚本中添加
gradient_checkpointing=True
- 使用混合精度训练:配置文件设置
fp16: true
- 启用梯度检查点:在训练脚本中添加
- 应急方案:当出现 OOM 错误时
- 尝试释放缓存:
torch.cuda.empty_cache()
- 降低图像分辨率(修改预处理代码中的 resize 参数)
- 尝试释放缓存:
实测数据:经过优化后,GTX 1060 显卡也能流畅运行基础推理任务。
本答案来源于文章《MM-EUREKA:探索视觉推理的多模态强化学习工具》