A implementação do RAGLight para habilitar as perguntas e respostas da base de conhecimento local requer quatro etapas principais:
- Preparação ambientalInstale o Python 3.8+, execute o comando
pip install raglight
Instale as bibliotecas principais; se você usar o HuggingFace, precisará instalar as bibliotecas adicionaissentence-transformers
- Configuração do modeloPuxe o modelo desejado por meio do Ollama (por exemplo
ollama pull llama3
) para garantir que os serviços locais estejam funcionando adequadamente - Carregamento de dados: Uso
FolderSource
Especifique o caminho da pasta local (compatível com PDF/TXT e outros formatos) ou configure-o no código.GitHubSource
Importação de repositórios públicos - construção de dutosInicialização
RAGPipeline
pós-chamadabuild()
gera o índice do vetor e, por fim, passa ogenerate()
Digite uma pergunta para obter uma resposta
Deve-se prestar atenção especial aos exemplos típicos de código: o caminho para a base de conhecimento deve ser substituído pelo endereço real da pasta, o nome do modelo deve ser o mesmo que o carregado no Ollama e o número padrão de documentos recuperados, k=5, pode ser ajustado conforme necessário.
Essa resposta foi extraída do artigoRAGLight: biblioteca Python de geração de aumento de recuperação leveO