海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

如何配置 Crush 使用本地 Ollama 模型?

2025-08-19 322

配置本地 Ollama 模型需要以下步骤:

  1. 确保 Ollama 服务已启动(默认端口 11434)
  2. 创建配置文件 ~/.crush/config.json,添加如下内容:
    {
    "providers": {
    "ollama": {
    "type": "openai",
    "base_url": "http://127.0.0.1:11434/v1",
    "api_key": "ollama"
    }
    }
    }
  3. 运行 crush model switch ollama 切换模型
  4. 可通过 crush code 测试代码生成功能

此配置使 Crush 完全离线运行,适合隐私敏感场景。

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文