多言語微調整のステップバイステップガイド
多言語推論を実装するには、以下のステップが必要です:
- データ準備HuggingFace 多言語データセットをロードする (
load_dataset('HuggingFaceH4/Multilingual-Thinking')
)、データセットには英語/スペイン語/フランス語のサンプルが含まれている。 - LoRAコンフィギュレーション設定
LoraConfig(r=8, lora_alpha=32)
チューニングに重点を置くアダプターのパラメーターを指定するq_proj
歌で応えるv_proj
とうしゃめん - モデルローディング使用
PeftModel
95%のパラメータを固定し、適応レイヤーのみを微調整したオリジナルモデルのパッケージング - トレーニング・コントロールTRLライブラリー
max_seq_length=2048
歌で応えるbatch_size=4
グラデーションチェックポイントの使用は、ビデオメモリを節約する。 - 言語指定推論時にシステムプロンプトに追加
'Reasoning language: Spanish'
アイソメトリック命令
完全な例はリポジトリにあります。finetune.ipynb
24GBのGPU1つで、全プロセスに約6時間かかる。
この答えは記事から得たものである。OpenAI GPT OSSモデルを微調整するためのスクリプトとチュートリアル集について