Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como posso usar um modelo local de idioma grande no Sim?

2025-08-19 154

As etapas a seguir são necessárias para integrar um modelo de idioma local grande usando o Sim:

  1. Primeiro, puxe o modelo desejado pelo script:./apps/sim/scripts/ollama_docker.sh pull <model_name>
  2. Selecione o método de inicialização de acordo com o ambiente de hardware:
    • Ambiente de GPU:docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
    • Ambiente da CPU:docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
  3. Seleção de modelos locais extraídos na configuração do fluxo de trabalho
  4. Especifique o modo GPU ou CPU conforme necessário
  5. Teste a resposta do modelo para garantir que o fluxo de trabalho esteja funcionando corretamente

Observe que os modelos locais exigem mais espaço de armazenamento e recursos computacionais, especialmente porque os ambientes de GPU oferecem melhor desempenho.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil