Soluções de adaptação para ambientes de rede off-line/fraca
As estratégias de otimização a seguir podem ser usadas em situações em que as condições da rede são restritas:
- Implementação de modelo localIntegração de modelos de código aberto, como LLaMA, Falcon etc., por meio do HuggingFace (requer mais de 8 GB de memória de vídeo) e modificação do `configs/model_config.yaml` para especificar pontos de extremidade locais.
- Utilização do mecanismo de cacheQuando executado no modo `-cache_only`, o sistema lê os resultados armazenados em cache anteriormente (armazenados no diretório `. /cache/`), e somente solicitações de novas consultas são iniciadas.
- Simplifique sua estratégia de pesquisaConfigure `minimal_search=true` para limitar o número de resultados ideais retornados a um máximo de 3 por consulta para reduzir a quantidade de dados transferidos.
- Funções de execução segmentadasExecução em estágios por meio de parâmetros como `-stage=planning`, permitindo que apenas o estágio de pesquisa seja executado quando a rede estiver boa e que o processo de gravação ocorra off-line.
Implementação específica:
- Instale o serviço de modelo local: `uv pip install transformers torch`
- Crie o arquivo de configuração off-line `offline_mode.yaml` para desativar as APIs de nuvem
- Use o comando: `python main.py -topic "teste local" -offline -model=local/llama3`
- Projetos completos podem ser empacotados como imagens do Docker para uso móvel.
Opções:
- Faça o download prévio de cópias off-line de bases de conhecimento, como a Wikipedia (é necessário armazenamento de mais de 50 GB)
- Use feeds RSS em vez de pesquisa em tempo real para obter atualizações
- Configuração de um gerenciador de literatura local, como o Zotero, como uma fonte alternativa
Essa resposta foi extraída do artigoTogether Open Deep Research: Geração de relatórios de pesquisa profunda indexadosO































