Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como faço para configurar o Crush para usar meu modelo Ollama local?

2025-08-19 323

As etapas a seguir são necessárias para configurar um modelo Ollama local:

  1. Certifique-se de que o serviço Ollama seja iniciado (porta padrão 11434)
  2. Criação de arquivos de configuração ~/.crush/config.jsonAdicione o seguinte:
    {
    "providers": {
    "ollama": {
    "type": "openai",
    "base_url": "http://127.0.0.1:11434/v1",
    "api_key": "ollama"
    }
    }
    }
  3. estar em movimento crush model switch ollama Modelos de comutação
  4. aceitável crush code Função de geração de código de teste

Essa configuração permite que o Crush seja executado completamente off-line em cenários sensíveis à privacidade.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil