オーバーフィッティング・リスク
小さなデータセットで微調整を行う場合、モデルは一般的なパターンを学習するのではなく、訓練サンプルを記憶する傾向がある。
防護措置
- Unslothに組み込まれた正則化テクニックの使用TrainingArgumentsにweight_decay=0.01を設定する。
- 早期停止を適切に設定検証セットの損失を監視し、自動的にトレーニングを停止する。
- データ強化Unslothがサポートする長文処理による段落再編成
推奨チューニング
- 3~5エポックから試し始め、徐々にエポック数を増やしていく。
- 異なるランダムシードを使用した複数のトレーニングセッションの平均値
- ハギング・フェイス・エバリュエーションによる最終的な完全評価
この答えは記事から得たものである。Unsloth: 大規模言語モデルの効率的な微調整と学習のためのオープンソースツールについて































