Bonsai zeigt drei Hauptunterscheidungsmerkmale des leichtgewichtigen Sprachmodells auf:
Vorteile der technischen Architektur
- Dreistufiges Kompressionsverhältnis1/5-1/8 der Modellgröße eines Modells der gleichen Parametergröße.
- Llama-Mistral-HybridarchitekturLlama: Kombination der strukturellen Stabilität von Llama mit der Effizienz des Mistral-Klassifikators
Leistung
In offiziellen Benchmarks:
- MobiLlama 0.5B (44.25) und Qwen 0.5B (45.61) mit einer Durchschnittsnote von 46.96 überholt
- Aufgaben zum logischen Denken wie ARC-c (33,36) und PiQA (70,24) waren besonders leistungsstark.
Anwendungsmerkmale
- Kompatibilität der KantenReasoning: Bis zu 18 Token/Sekunde auf Raspberry Pi 4B
- Effizienz der DatenSOTA Level mit nur 5B Token Trainingsdaten
- Open-Source-freundlichBereitstellung eines vollständigen Trainingscodes für die Modellkomprimierung, Unterstützung der Sekundärentwicklung
Diese Eigenschaften machen es zu einem der besten Open-Source-Sprachmodelle, die für den eingebetteten Einsatz verfügbar sind.
Diese Antwort stammt aus dem ArtikelBonsai: Ein dreiwertiges gewichtetes Sprachmodell, das für den Einsatz auf Randgeräten geeignet istDie































