Die folgenden Schritte sind erforderlich, um ein lokales Ollama-Modell zu konfigurieren:
- Stellen Sie sicher, dass der Ollama-Dienst gestartet ist (Standard-Port 11434)
- Erstellen von Konfigurationsdateien
~/.crush/config.json
fügen Sie Folgendes hinzu:{
"providers": {
"ollama": {
"type": "openai",
"base_url": "http://127.0.0.1:11434/v1",
"api_key": "ollama"
}
}
} - in Bewegung sein
crush model switch ollama
Modelle umschalten - passabel
crush code
Funktion zur Erzeugung von Testcode
Diese Konfiguration ermöglicht es Crush, in datenschutzsensiblen Szenarien vollständig offline zu laufen.
Diese Antwort stammt aus dem ArtikelCrush: KI-Programmierassistent für Endgeräte mit integrierter LSP- und Multimodell-UmschaltungDie