Com a visualização do Trace da Langfuse, é possível obter cinco camadas de otimização para o processo RAG:
- diagnóstico de recall::
- Veja os resultados do Keyword Recall vs. Vector Recall na página de detalhes do Trace
- Analisar a proporção de tempo gasto em cada estágio (por exemplo, proporção vetorizada de tempo gasto)
- Validação de dados::
- Crie um conjunto de dados "golden set" para armazenar a resposta ideal.
- aprovar (um projeto de lei ou inspeção etc.)
langfuse.score()Avaliação automatizada da relevância do recall
- Comparação de versões::
- Executar simultaneamente as estratégias de recall antigas e novas
- Compare as métricas de avaliação (taxa de quase chamada/latência de resposta) na página Datasets
- agrupamento de problemas::
- Análise de padrões de problemas de alta frequência com a função Sessions
- Otimização direcionada da qualidade de incorporação para os blocos correspondentes
- Teste AB::
- Teste de diferentes comandos do sistema com o controle de versão do Prompt
- Exemplo: Compare a diferença de eficácia entre uma "resposta concisa" e uma "fonte citada".
Recomenda-se que os relatórios de eficácia do recall sejam gerados semanalmente, com foco nas taxas de resolução de problemas de cauda longa.
Essa resposta foi extraída do artigoLangfuse: Plataforma de observação e depuração de código aberto para aplicativos LLMO




























