O DeepResearch oferece suporte à implementação local via Docker. Aqui estão as etapas detalhadas de instalação:
- armazém de clones: Implementação
git clone https://github.com/cat3399/deepresearch.gitObter código-fonte - Configuração de variáveis de ambienteCrie o arquivo .env no diretório raiz do projeto, adicione a chave de API (Observe a distinção entre os principais formatos de configuração de diferentes provedores de serviços)
- Item indispensável: chaves de API para Google e OpenAI
- Opcional: Configuração do OpenRouter/Azure/Ollama e outros serviços
- Início dos serviços: Executar
docker-compose upExtrai automaticamente a imagem e inicia o serviço - Verificar a instalação: Acesso
http://localhost:8000Confirmação do status do serviço
É necessário ter cuidado durante a instalação:
- O Docker e o Docker Compose precisam ser instalados com antecedência.
- As chaves de API precisam garantir a validade
- O modelo Ollama local usa a porta 11434 por padrão
- A instalação completa geralmente leva de 5 a 10 minutos (dependendo da velocidade da Internet)
Essa resposta foi extraída do artigoDeepResearch: um assistente de IA de código totalmente aberto para pesquisa profunda automatizadaO































