Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como faço para implantar o Sim Studio em meu computador local e me conectar ao LLM local?

2025-08-23 2.1 K

A implantação via Docker é a solução recomendada, que é feita em três etapas:

  1. Preparação do ambiente básico::
    • Instalação do Docker Desktop e do Docker Compose
    • aprovar (um projeto de lei ou inspeção etc.)git cloneObtenha a base de código mais recente
    • Configure a chave de autenticação e os parâmetros do banco de dados no arquivo .env
  2. Integração da Ollama::
    • Modifique o docker-compose.yml para adicionarextra_hostsmapa (matemática)
    • configurarOLLAMA_HOST=http://host.docker.internal:11434
    • Puxe o modelo desejado pelo script:./scripts/ollama_docker.sh pull llama3
  3. Início dos serviços::
    • Modo acelerado por GPU:docker compose up --profile local-gpu -d --build
    • Modo CPU puro:docker compose up --profile local-cpu -d --build
    • entrevistashttp://localhost:3000Plataforma

Observação: recomenda-se 16 GB ou mais de RAM para a operação local do LLM, e as GPUs NVIDIA podem melhorar significativamente o desempenho. Os registros podem ser acessados por meio dodocker compose logsVisualização ao vivo.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo