Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie konfiguriere ich Crush so, dass es mein lokales Ollama-Modell verwendet?

2025-08-19 326

Die folgenden Schritte sind erforderlich, um ein lokales Ollama-Modell zu konfigurieren:

  1. Stellen Sie sicher, dass der Ollama-Dienst gestartet ist (Standard-Port 11434)
  2. Erstellen von Konfigurationsdateien ~/.crush/config.jsonfügen Sie Folgendes hinzu:
    {
    "providers": {
    "ollama": {
    "type": "openai",
    "base_url": "http://127.0.0.1:11434/v1",
    "api_key": "ollama"
    }
    }
    }
  3. in Bewegung sein crush model switch ollama Modelle umschalten
  4. passabel crush code Funktion zur Erzeugung von Testcode

Diese Konfiguration ermöglicht es Crush, in datenschutzsensiblen Szenarien vollständig offline zu laufen.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch