O WhiteLightning oferece vários parâmetros avançados de configuração para otimizar o desempenho do modelo:
- Loop de otimização de dicas: através de
-r 3
Os parâmetros aumentam o número de otimizações (padrão 1) para melhorar a qualidade dos dados sintéticos - Geração de casos de bordapadrão em (
--generate-edge-cases True
), gerando 50 casos extremos por classe para aumentar a robustez do modelo - Extensão de dados: Uso
--target-volume-per-class 100
Aumentar a quantidade de dados de treinamento por classe - Seleção do LLMModelos de linguagem em larga escala diferentes, como o Grok-3-beta ou o GPT-4o-mini, podem ser especificados no arquivo de configuração para gerar dados.
Recomenda-se monitorar a precisão e os valores de perda por meio de registros (por exemplo Accuracy: 1.0000
) e ajustar gradualmente os parâmetros. Tarefas de classificação complexas podem exigir mais dados de treinamento e loops de otimização.
Essa resposta foi extraída do artigoWhiteLightning: uma ferramenta de código aberto para gerar modelos leves de classificação de texto off-line em um cliqueO