Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

如何在本地机器上部署Sim Studio并连接本地LLM?

2025-08-23 1.8 K

通过Docker部署是推荐方案,具体分三步完成:

  1. Preparação do ambiente básico::
    • 安装Docker Desktop和Docker Compose
    • aprovar (um projeto de lei ou inspeção etc.)git clone获取最新代码库
    • 配置.env文件中的认证密钥和数据库参数
  2. Ollama集成::
    • 修改docker-compose.yml添加extra_hosts映射
    • configurarOLLAMA_HOST=http://host.docker.internal:11434
    • 通过脚本拉取所需模型:./scripts/ollama_docker.sh pull llama3
  3. Início dos serviços::
    • GPU加速模式:docker compose up --profile local-gpu -d --build
    • 纯CPU模式:docker compose up --profile local-cpu -d --build
    • entrevistashttp://localhost:3000Plataforma

注意:本地LLM运行建议16GB以上内存,NVIDIA GPU可显著提升性能。日志可通过docker compose logs实时查看。

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil