配置本地 Ollama 模型需要以下步骤:
- 确保 Ollama 服务已启动(默认端口 11434)
- 创建配置文件
~/.crush/config.json
,添加如下内容:{
"providers": {
"ollama": {
"type": "openai",
"base_url": "http://127.0.0.1:11434/v1",
"api_key": "ollama"
}
}
} - 运行
crush model switch ollama
切换模型 - 可通过
crush code
测试代码生成功能
此配置使 Crush 完全离线运行,适合隐私敏感场景。
本答案来源于文章《Crush:终端AI编程助手,集成LSP与多模型切换》