Programa completo para o gerenciamento estruturado do diálogo
O Core foi projetado especificamente para tratar desse problema e é implementado em três níveis:
- Configuração básicaAo criar regras de diálogo em Configurações, certifique-se de definir um sessionId exclusivo (recomenda-se o uso de um gerador de UUID) para que você possa encadear um único diálogo completo.
- Otimização de armazenamentoPara diálogos longos, é recomendável ativar a função "chunk storage", que gera um nó filho para cada 5 rodadas de diálogos para evitar nós de memória muito grandes.
- Aplicações analíticasUsando a exibição de agrupamento na página Graph, o sistema agrupa automaticamente as conversas por tempo/tópico e, ao clicar em um nó, você pode ver o conteúdo específico do prompt e da resposta
Observação: O modelo atual do Llama requer configuração adicional de middleware para converter o formato de dados, portanto, recomenda-se usar o modelo da série GPT por enquanto para obter a melhor compatibilidade.
Essa resposta foi extraída do artigoCore: uma ferramenta para armazenamento de memória personalizado para modelos grandesO





























