アンスロスを使った効率的な微調整には、次のような重要なプロセスがある:
- モデルローディングコンテキストウィンドウなどのパラメータを指定することができます:
model = AutoModelForCausalLM.from_pretrained("unslothai/llama-3.3", context_window=89000) - トレーニング構成動的な定量化を可能にするには、TrainingArgumentsを介してコアパラメータを設定することをお勧めします:
training_args = TrainingArguments(
output_dir="./results",
quantization="dynamic_4bit",
per_device_train_batch_size=4
) - トレーニング開始カプセル化されたTrainerクラスを使用してトレーニングプロセスを開始し、メモリと計算リソースを自動的に最適化します:
trainer = Trainer(model, args=training_args, train_dataset=dataset)
trainer.train() - モデル輸出HuggingFaceフォーマットなど、さまざまな業界標準フォーマットをサポート:
model.save_pretrained("./finetuned_model")
プロジェクトで提供されるJupyterノートブックには、完全なエンド・ツー・エンドの例が含まれており、ユーザーはこれらの生きた例を優先的に参照することが推奨される。
この答えは記事から得たものである。Unsloth: 大規模言語モデルの効率的な微調整と学習のためのオープンソースツールについて































