WhiteLightning bietet mehrere erweiterte Konfigurationsparameter zur Optimierung der Modellleistung:
- Cue-Optimierungsschleife: durch
-r 3Parameter erhöhen die Anzahl der Optimierungen (Standardwert 1), um die Qualität der synthetischen Daten zu verbessern - Generierung von Randfällen: standardmäßig ein (
--generate-edge-cases True), wobei 50 Randfälle pro Klasse erzeugt werden, um die Robustheit des Modells zu erhöhen - Datenerweiterung: Verwendung
--target-volume-per-class 100Erhöhen Sie die Menge der Trainingsdaten pro Klasse - LLM-OptionenVerschiedene groß angelegte Sprachmodelle wie Grok-3-beta oder GPT-4o-mini können in der Konfigurationsdatei angegeben werden, um Daten zu erzeugen.
Es wird empfohlen, die Genauigkeit und die Verlustwerte anhand von Protokollen zu überwachen (z. B. Accuracy: 1.0000), und passen Sie die Parameter schrittweise an. Komplexe Klassifizierungsaufgaben können mehr Trainingsdaten und Optimierungsschleifen erfordern.
Diese Antwort stammt aus dem ArtikelWhiteLightning: ein Open-Source-Tool zur Erstellung von leichtgewichtigen Offline-Textklassifikationsmodellen mit einem KlickDie































