O desempenho do modelo pode ser otimizado com as seguintes configurações avançadas:
- Loop de otimização de dicas: Aumentar
-r
Os valores dos parâmetros (padrão 1 vez) podem melhorar a qualidade dos dados sintetizados, por exemplo-r 3
Haverá três rodadas de otimização, mas o treinamento será estendido. - Geração de casos de bordaPadrão: ligado
--generate-edge-cases
A função gera 50 amostras complexas (por exemplo, comentários com erros de ortografia) para cada classe, aumentando a robustez do modelo. - Ajuste do volume de dados: através de
--target-volume-per-class
Aumentar o número de amostras de classe única (por exemplo, definir para 100), mas é preciso equilibrar a eficiência do treinamento. - Seleção de modelosLLMs de base diferentes (por exemplo, Grok-3-beta) podem ser especificados no arquivo de configuração, afetando a diversidade dos dados gerados.
A ferramenta também produzirá registros de treinamento detalhados (por exemplo, precisão, valores de perda) para ajudar os desenvolvedores a direcionar e ajustar os parâmetros. Se os resultados não forem satisfatórios, é recomendável discutir casos específicos na comunidade do GitHub.
Essa resposta foi extraída do artigoWhiteLightning: uma ferramenta de código aberto para gerar modelos leves de classificação de texto off-line em um cliqueO