Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Nachrichten

Ollama veröffentlicht Desktop-App: Lokale große Modellläufe einfacher als je zuvor

2025-07-31 406

Ollama 发布桌面应用:让本地大模型运行变得前所未有的简单-1

Am 30. Juli (Ortszeit) wird das beliebte native Large Language Model (LLM) Laufzeit-Framework für Entwickler Ollama hat offiziell sein neues macOS im Gesang antworten Windows Desktop-Anwendungen. Dieser Schritt markiert die Ollama Ein entscheidender Schritt von einem Befehlszeilentool für Entwickler zu einer grafischen Plattform, die für den durchschnittlichen Benutzer leicht zu bedienen ist und den Bedarf an Bereitstellung und Nutzung drastisch reduziert LLM Die Schwelle.

Für Benutzer, die Datenschutz, Offline-Zugriff und niedrige Kosten wünschen, ist der Betrieb einer lokalen LLM war schon immer die ideale Wahl. Allerdings ist die Komplexität der Konfiguration der Umgebung und der Befehlszeilenoperationen oft unerschwinglich.Ollama Die neu eingeführte Desktop-Anwendung wurde entwickelt, um dieses Problem zu lösen.

Ollama 发布桌面应用:让本地大模型运行变得前所未有的简单-2

Vereinfachte Interaktion mit dem Modell

Diese neue Anwendung bietet eine intuitive Chat-Schnittstelle, die es den Nutzern ermöglicht, mit einer Vielzahl von lokal laufenden Open-Source-Modellen zu kommunizieren, als ob sie einen Online-Chatbot verwenden würden. Vom Herunterladen neuer Modelle bis hin zum Umschalten zwischen verschiedenen Modellen können alle Vorgänge über die grafische Oberfläche ausgeführt werden, so dass umständliche Terminalbefehle überflüssig werden.

Leistungsstarke Dokumenten- und multimodale Verarbeitung

Einer der Höhepunkte der neuen App sind ihre leistungsstarken Funktionen zur Dateiverarbeitung. Die Nutzer können jetzt Textdateien, PDFs oder sogar Codedateien direkt in das Chatfenster ziehen und das Modell auf der Grundlage des Dateiinhalts analysieren, zusammenfassen oder Fragen beantworten lassen. Dies ist eine große Erleichterung bei der Arbeit mit langen Berichten, beim Lesen von Papieren oder beim Verstehen komplexer Code-Basen.

Um Dokumente zu verarbeiten, die viele Informationen enthalten, können die Benutzer die Kontextlänge des Modells in den Einstellungen erhöhen. Dabei ist zu beachten, dass höhere Kontextlängen mehr Speicherressourcen des Computers beanspruchen.

Ollama 发布桌面应用:让本地大模型运行变得前所未有的简单-3

Darüber hinaus integriert die App Ollama Die neueste multimodale Engine, die es ermöglicht, Bildeingaben zu verarbeiten. Benutzer können eine multimodale Engine an Modelle senden, die visuelle Funktionen unterstützen (z. B. Google DeepMind (in Form eines Nominalausdrucks) Gemma 3), um Bilder zu senden und Fragen zu stellen oder über den Inhalt der Bilder zu diskutieren. Diese Funktion bietet lokale LLM Anwendungsszenarien eröffnen neue Möglichkeiten, von der Erkennung von Objekten in Bildern bis hin zur Interpretation von grafischen Daten, und das alles in einer vollständigen Offline-Umgebung.

Code-Hilfe für Entwickler

Für Softwareentwickler bietet die neue Anwendung eine ebenso leistungsstarke Unterstützung. Durch die Bereitstellung von Codedateien für das Modell können Entwickler schnell auf Code-Erklärungen, Dokumentationsvorschläge oder Refactoring-Lösungen zugreifen, was die Produktivität erheblich steigern kann.

Wie man anfängt

Die Benutzer können nun die Ollama Der Download von der offiziellen Website gilt für macOS im Gesang antworten Windows der neuen Version der Anwendung. Für erfahrene Benutzer, die immer noch die Kommandozeile bevorzugen, ist dieOllama Die Fortsetzung der GitHub Eine Standalone-Version, die nur auf der Kommandozeile läuft, ist auf der Release-Seite verfügbar.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch