Die Leistung des Modells kann mit den folgenden erweiterten Konfigurationen optimiert werden:
- Cue-Optimierungsschleife: Erhöhung
-r
Parameterwerte (Standardwert 1 Mal) können die Qualität der synthetisierten Daten verbessern, zum Beispiel-r 3
Es wird drei Optimierungsrunden geben, aber das Training wird verlängert. - Generierung von Randfällen: standardmäßig ein
--generate-edge-cases
Die Funktion erzeugt 50 komplexe Stichproben (z. B. Kommentare mit Rechtschreibfehlern) für jede Klasse, was die Robustheit des Modells erhöht. - Anpassung des Datenvolumens: durch
--target-volume-per-class
Erhöhen Sie die Anzahl der Einzelklassenproben (z. B. auf 100), aber achten Sie auf die Effizienz des Trainings. - Auswahl des ModellsVerschiedene Basis-LLMs (z.B. Grok-3-beta) können in der Konfigurationsdatei angegeben werden, was sich auf die Vielfalt der erzeugten Daten auswirkt.
Das Tool gibt auch detaillierte Trainingsprotokolle aus (z. B. Genauigkeit, Verlustwerte), um den Entwicklern bei der Ausrichtung und Anpassung der Parameter zu helfen. Wenn die Ergebnisse nicht zufriedenstellend sind, empfiehlt es sich, bestimmte Fälle in der GitHub-Community zu diskutieren.
Diese Antwort stammt aus dem ArtikelWhiteLightning: ein Open-Source-Tool zur Erstellung von leichtgewichtigen Offline-Textklassifikationsmodellen mit einem KlickDie