モデルの性能は、以下の高度な設定で最適化できる:
- キューの最適化ループ増加
-r
パラメータ値(デフォルト1回)は、合成されたデータの品質を向上させることができる。-r 3
最適化は3ラウンド行われるが、トレーニングは延長される。 - エッジケースの生成デフォルトはオン
--generate-edge-cases
この関数は、各クラスに対して50個の複雑なサンプル(例えば、スペルミスを含むコメント)を生成し、モデルの頑健性を高める。 - データ量の調整スルー
--target-volume-per-class
単一クラスのサンプル数を増やす(例えば100に設定)が、トレーニング効率のバランスを取る必要がある。 - モデルの選択異なるベースLLM(例えばGrok-3-β)を設定ファイルで指定することができ、生成されるデータの多様性に影響を与えます。
このツールはまた、開発者がパラメーターの目標を定め、調整するのに役立つ詳細なトレーニングログ(精度、損失値など)を出力する。結果が満足のいくものでない場合は、GitHubコミュニティを通じて特定のケースについて議論することが推奨される。
この答えは記事から得たものである。WhiteLightning: 軽量なオフラインテキスト分類モデルをワンクリックで生成するオープンソースツールについて