Das generierte ONNX-Modell kann auf folgende Weise eingesetzt und ausgeführt werden:
- Python-Beispiele: Einbau
onnxruntimeSobald die Bibliothek geladen ist, wird die Modelldatei geladen und Text eingegeben, um Klassifizierungsergebnisse zu erhalten, wie z. B. die Ergebnisse der Stimmungsanalyse.['positive']. - sprachenübergreifende UnterstützungDas Modell ist kompatibel mit Rust, Swift und anderen Sprachen und muss mit Bezug auf die ONNX-Laufzeitdokumentation implementiert werden, z.B. unter Verwendung der Swift-Version der ONNX-Laufzeit für die mobile Integration.
- Einsatz von Edge-GerätenModelldateien, die kleiner als 1 MB sind, können direkt in Geräte wie den Raspberry Pi eingebettet werden, um Texteingaben in Echtzeit zu verarbeiten (z. B. Protokollanalyse).
- kontinuierliche IntegrationAutomatisieren Sie Schulungs- und Bereitstellungsprozesse mit GitHub Actions für die Zusammenarbeit im Team.
Das Modell läuft vollständig offline, ohne dass eine Internetverbindung erforderlich ist, wodurch es sich besonders für datenschutzsensible Szenarien wie die Verarbeitung medizinischer Daten eignet. Das Tool bietet auch einen Online-Playground für eine schnelle Validierung.
Diese Antwort stammt aus dem ArtikelWhiteLightning: ein Open-Source-Tool zur Erstellung von leichtgewichtigen Offline-Textklassifikationsmodellen mit einem KlickDie































