Am 30. Juli (Ortszeit) wird das beliebte native Large Language Model (LLM) Laufzeit-Framework für Entwickler Ollama
hat offiziell sein neues macOS
im Gesang antworten Windows
Desktop-Anwendungen. Dieser Schritt markiert die Ollama
Ein entscheidender Schritt von einem Befehlszeilentool für Entwickler zu einer grafischen Plattform, die für den durchschnittlichen Benutzer leicht zu bedienen ist und den Bedarf an Bereitstellung und Nutzung drastisch reduziert LLM
Die Schwelle.
Für Benutzer, die Datenschutz, Offline-Zugriff und niedrige Kosten wünschen, ist der Betrieb einer lokalen LLM
war schon immer die ideale Wahl. Allerdings ist die Komplexität der Konfiguration der Umgebung und der Befehlszeilenoperationen oft unerschwinglich.Ollama
Die neu eingeführte Desktop-Anwendung wurde entwickelt, um dieses Problem zu lösen.
Vereinfachte Interaktion mit dem Modell
Diese neue Anwendung bietet eine intuitive Chat-Schnittstelle, die es den Nutzern ermöglicht, mit einer Vielzahl von lokal laufenden Open-Source-Modellen zu kommunizieren, als ob sie einen Online-Chatbot verwenden würden. Vom Herunterladen neuer Modelle bis hin zum Umschalten zwischen verschiedenen Modellen können alle Vorgänge über die grafische Oberfläche ausgeführt werden, so dass umständliche Terminalbefehle überflüssig werden.
Leistungsstarke Dokumenten- und multimodale Verarbeitung
Einer der Höhepunkte der neuen App sind ihre leistungsstarken Funktionen zur Dateiverarbeitung. Die Nutzer können jetzt Textdateien, PDFs oder sogar Codedateien direkt in das Chatfenster ziehen und das Modell auf der Grundlage des Dateiinhalts analysieren, zusammenfassen oder Fragen beantworten lassen. Dies ist eine große Erleichterung bei der Arbeit mit langen Berichten, beim Lesen von Papieren oder beim Verstehen komplexer Code-Basen.
Um Dokumente zu verarbeiten, die viele Informationen enthalten, können die Benutzer die Kontextlänge des Modells in den Einstellungen erhöhen. Dabei ist zu beachten, dass höhere Kontextlängen mehr Speicherressourcen des Computers beanspruchen.
Darüber hinaus integriert die App Ollama
Die neueste multimodale Engine, die es ermöglicht, Bildeingaben zu verarbeiten. Benutzer können eine multimodale Engine an Modelle senden, die visuelle Funktionen unterstützen (z. B. Google DeepMind
(in Form eines Nominalausdrucks) Gemma 3
), um Bilder zu senden und Fragen zu stellen oder über den Inhalt der Bilder zu diskutieren. Diese Funktion bietet lokale LLM
Anwendungsszenarien eröffnen neue Möglichkeiten, von der Erkennung von Objekten in Bildern bis hin zur Interpretation von grafischen Daten, und das alles in einer vollständigen Offline-Umgebung.
Code-Hilfe für Entwickler
Für Softwareentwickler bietet die neue Anwendung eine ebenso leistungsstarke Unterstützung. Durch die Bereitstellung von Codedateien für das Modell können Entwickler schnell auf Code-Erklärungen, Dokumentationsvorschläge oder Refactoring-Lösungen zugreifen, was die Produktivität erheblich steigern kann.
Wie man anfängt
Die Benutzer können nun die Ollama
Der Download von der offiziellen Website gilt für macOS
im Gesang antworten Windows
der neuen Version der Anwendung. Für erfahrene Benutzer, die immer noch die Kommandozeile bevorzugen, ist dieOllama
Die Fortsetzung der GitHub
Eine Standalone-Version, die nur auf der Kommandozeile läuft, ist auf der Release-Seite verfügbar.