O DeepResearch estabeleceu uma estrutura de compatibilidade perfeita para grandes modelos de linguagem, e seu recurso de suporte a vários modelos abrange dois cenários principais: serviço em nuvem e implementação local. O sistema é pré-configurado com uma variedade de opções, incluindo Google Gemini, OpenAI Family Bucket (GPT-3.5/4, etc.), OpenRouter Aggregation Platform e modelos locais Ollama. Esse design alcança um equilíbrio entre a economia e a segurança da solução de pesquisa: para pesquisas abertas sensíveis ao tempo, o modelo mais avançado baseado em nuvem pode ser escolhido, enquanto os dados confidenciais podem ser processados off-line usando o modelo local.
Em termos de implementação técnica, o sistema protege as diferenças entre os diferentes modelos por meio de uma camada de interface de API padronizada, e o pesquisador só precisa definir a chave de API correspondente no arquivo de configuração .env para alternar sem problemas. Os dados de teste mostram que, ao usar o modelo GPT-4, a precisão da pesquisa de problemas complexos pode chegar a 82%, enquanto a mudança para o modelo local Llama2-70B ainda pode manter o desempenho de referência de 76%. Essa estratégia flexível de adaptação de modelos permite que o DeepResearch se adapte a uma ampla variedade de cenários de aplicativos, desde a exploração acadêmica até a análise de negócios.
Essa resposta foi extraída do artigoDeepResearch: um assistente de IA de código totalmente aberto para pesquisa profunda automatizadaO