ローカルの Ollama モデルを設定するには、以下の手順が必要です:
- Ollamaサービスが開始されていることを確認してください(デフォルトポート11434)。
- 設定ファイルの作成
~/.crush/config.json
以下を追加する:{
"providers": {
"ollama": {
"type": "openai",
"base_url": "http://127.0.0.1:11434/v1",
"api_key": "ollama"
}
}
} - うごきだす
crush model switch ollama
モデルの切り替え - 可
crush code
テストコード生成機能
この構成により、プライバシーに配慮したシナリオのために、Crushを完全にオフラインで実行することができる。
この答えは記事から得たものである。クラッシュ:LSPとマルチモデルスイッチングを統合したエンドポイントAIプログラミングアシスタントについて