WhiteLightning bietet eine Lösung aus einer Hand mit einem einzigen Befehl. Die Schritte sind wie folgt:
- Installieren Sie Docker und ziehen Sie das WhiteLightning-Image:
docker pull ghcr.io/inoxoft/whitelightning:latest
- Konfigurieren Sie den OpenRouter-API-Schlüssel:
export OPEN_ROUTER_API_KEY="sk-..."
(nur Ausbildungsphase) - Ausführen von Befehlen zur Erstellung von Modellen, z. B. von Modellen zur Stimmungsanalyse:
docker run --rm -e OPEN_ROUTER_API_KEY="sk-..." -v "$(pwd)":/app/models ghcr.io/inoxoft/whitelightning:latest python -m text_classifier.agent -p "Categorize customer reviews as positive, neutral, or negative"
Das Tool automatisiert die Generierung synthetischer Daten, das Modelltraining und die Optimierung und liefert ONNX-Modelle mit einer Größe von weniger als 1 MB in 10-15 Minuten, die vollständig offline laufen und mehrsprachige Implementierungen unterstützen.
Diese Antwort stammt aus dem ArtikelWhiteLightning: ein Open-Source-Tool zur Erstellung von leichtgewichtigen Offline-Textklassifikationsmodellen mit einem KlickDie