海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする
現在の場所図頭 " AIアンサー

CrushがローカルのOllamaモデルを使用するように設定するには?

2025-08-19 325

ローカルの Ollama モデルを設定するには、以下の手順が必要です:

  1. Ollamaサービスが開始されていることを確認してください(デフォルトポート11434)。
  2. 設定ファイルの作成 ~/.crush/config.json以下を追加する:
    {
    "providers": {
    "ollama": {
    "type": "openai",
    "base_url": "http://127.0.0.1:11434/v1",
    "api_key": "ollama"
    }
    }
    }
  3. うごきだす crush model switch ollama モデルの切り替え
  4. crush code テストコード生成機能

この構成により、プライバシーに配慮したシナリオのために、Crushを完全にオフラインで実行することができる。

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る

ja日本語