Guia de implantação rápida para ambientes de recuperação de desastres
Dois cenários de implantação de emergência são oferecidos para atender às necessidades de gerenciamento de conhecimento durante emergências:
- Implantação leve (programa de 30 minutos)::
- Use uma imagem pré-criada do Docker:
docker pull notebookllama/mini - Somente os serviços principais são iniciados:
- Contêiner do PostgreSQL (parâmetro -core-db)
- Microsserviços de processamento de texto (desative o módulo de áudio/visualização)
- Configurar um grupo mínimo de chaves de API (somente LlamaCloud Basic)
- Use uma imagem pré-criada do Docker:
- Programa de implantação off-line::
- Faça o download de um instantâneo do modelo (aprox. 8,7 GB) com antecedência:
wget model.mirror/notebookllama.snapshot - Use LLM nativo em vez de APIs de nuvem:
- Modifique o config.py para definir o parâmetro LOCAL_LLM_PATH
- Recomendado para ser emparelhado com uma estrutura de inferência nativa, como llama.cpp
- Faça o download de um instantâneo do modelo (aprox. 8,7 GB) com antecedência:
Exemplo prático: A organização Médicos Sem Fronteiras usou esse programa para estabelecer um sistema de resposta de documentação médica em hospitais de campanha em um prazo de 72 horas.
Essa resposta foi extraída do artigoNotebookLlama: ferramenta de geração de áudio e gerenciamento de conhecimento de documentos de código abertoO































