As etapas a seguir são necessárias para implantar um ambiente local do Lemon AI:
- Preparação ambientalInstale o Docker (o WSL precisa estar ativado para Windows) e verifique se o dispositivo atende à configuração mínima de 8 GB de RAM e CPU de 4 núcleos.
- Obter códigoClonagem de repositórios via Git (
git clone https://github.com/hexdocom/lemonai.git) ou faça o download do pacote ZIP diretamente. - inicialização do contêinerVá para o diretório do projeto e execute
docker-compose up -dO sistema de gerenciamento de imagens, que é o mais recente, extrai automaticamente a imagem e inicia o serviço. - Configuração do modeloPuxe o modelo de destino depois de instalar o Ollama (por exemplo
ollama pull deepseek), vincule o caminho do modelo na tela Lemon AI Settings. - Execuções de verificação: Acesso
http://localhost:3000Verificação do status da interface, teste de funções básicas, como geração de código ou análise de dados.
Observação: se estiver usando o Windows, é recomendável operar por meio do terminal WSL; verifique o status do serviço Ollama quando o modelo estiver carregando de forma anormal; verifique regularmente se há atualizações na página de versões do GitHub.
Essa resposta foi extraída do artigoLemon AI: uma estrutura de corpo de inteligência de IA de código aberto executada localmenteO
































