As etapas a seguir são necessárias para configurar um modelo Ollama local:
- Certifique-se de que o serviço Ollama seja iniciado (porta padrão 11434)
- Criação de arquivos de configuração
~/.crush/config.json
Adicione o seguinte:{
"providers": {
"ollama": {
"type": "openai",
"base_url": "http://127.0.0.1:11434/v1",
"api_key": "ollama"
}
}
} - estar em movimento
crush model switch ollama
Modelos de comutação - aceitável
crush code
Função de geração de código de teste
Essa configuração permite que o Crush seja executado completamente off-line em cenários sensíveis à privacidade.
Essa resposta foi extraída do artigoCrush: assistente de programação de IA de endpoint com LSP integrado e comutação de vários modelosO