Criação de um sistema de verificação de fatos em vários níveis
A Open Deep Research criou os seguintes mecanismos de proteção para lidar com os possíveis riscos de precisão do conteúdo gerado por IA:
- Fluxo de trabalho de validação cruzadaPor padrão, o sistema executará três rodadas de validação para cada ponto de fato (aquisição inicial → reflexão de questionamento → confirmação final), o que reduz a taxa de erro em mais de 60% em comparação com uma única geração.
- estratégia de priorização de fontes confiáveisConfigurando o arquivo `source_priority.yaml`, é possível definir o peso de fontes confiáveis, como revistas acadêmicas, sites governamentais etc., e o sistema priorizará automaticamente o uso de fontes de alta credibilidade.
- Função de rastreabilidade de metadadosCada afirmação no relatório é rotulada com um URL de origem específico e um registro de data e hora para facilitar a revisão manual.
- Sistema de rotulagem de confiançaNo final do relatório, uma "tabela de verificação de fatos" é gerada, indicando as pontuações de confiança (com base no número de fontes e na consistência) para cada conclusão.
Etapas de implementação:
- Crie o arquivo `reliable_sources.txt` no diretório raiz do projeto para listar os sites na lista de permissões
- Execute o comando para adicionar parâmetros de validação: `python main.py -topic "gene editing ethics" -verify_level strict`
- Verificação do material original no diretório `_sources/` gerado
- Aumento da precisão da inferência com modelos de maior desempenho, como `-model=gpt-4`
Recomendação especial: para áreas de alto risco, como saúde e finanças, certifique-se de ativar o modo de revisão humana (adicione o parâmetro `-human_review=true`).
Essa resposta foi extraída do artigoTogether Open Deep Research: Geração de relatórios de pesquisa profunda indexadosO































