Eine effiziente Feinabstimmung mit Unsloth umfasst die folgenden Schlüsselprozesse:
- ModellbeladungLaden eines vortrainierten Modells über die Standard-Transformatorschnittstelle mit der Möglichkeit, Parameter wie das Kontextfenster anzugeben:
model = AutoModelForCausalLM.from_pretrained("unslothai/llama-3.3", context_window=89000) - Konfiguration der AusbildungDie Einstellung der Kernparameter über TrainingArguments wird empfohlen, um eine dynamische Quantifizierung zu ermöglichen:
training_args = TrainingArguments(
output_dir="./results",
quantization="dynamic_4bit",
per_device_train_batch_size=4
) - Beginn der AusbildungTrainingsprozess: Initiieren des Trainingsprozesses mit Hilfe der gekapselten Trainerklasse, die automatisch die Speicher- und Rechenressourcen optimiert:
trainer = Trainer(model, args=training_args, train_dataset=dataset)
trainer.train() - Modell ExportUnterstützt eine Vielzahl von Industriestandardformaten, wie z. B. das HuggingFace-Format:
model.save_pretrained("./finetuned_model")
Die Jupyter-Notebooks, die mit dem Projekt bereitgestellt werden, enthalten vollständige End-to-End-Beispiele, und den Benutzern wird empfohlen, sich vorrangig auf diese Live-Beispiele zu beziehen.
Diese Antwort stammt aus dem ArtikelUnsloth: ein Open-Source-Tool für die effiziente Feinabstimmung und das Training großer SprachmodelleDie































