Die folgenden Schritte sind erforderlich, um ein lokales Ollama-Modell zu konfigurieren:
- Stellen Sie sicher, dass der Ollama-Dienst gestartet ist (Standard-Port 11434)
- Erstellen von Konfigurationsdateien
~/.crush/config.jsonfügen Sie Folgendes hinzu:{
"providers": {
"ollama": {
"type": "openai",
"base_url": "http://127.0.0.1:11434/v1",
"api_key": "ollama"
}
}
} - in Bewegung sein
crush model switch ollamaModelle umschalten - passabel
crush codeFunktion zur Erzeugung von Testcode
Diese Konfiguration ermöglicht es Crush, in datenschutzsensiblen Szenarien vollständig offline zu laufen.
Diese Antwort stammt aus dem ArtikelCrush: KI-Programmierassistent für Endgeräte mit integrierter LSP- und Multimodell-UmschaltungDie































