A geração de modelos usando o WhiteLightning é dividida nas seguintes etapas principais:
- Instalação do DockerCertifique-se de que o Docker esteja instalado em seu sistema, passando o parâmetro
docker --versionVerifique a instalação. - Puxando espelhos: Implementação
docker pull ghcr.io/inoxoft/whitelightning:latestObtenha a imagem mais recente da ferramenta. - Configuração da chave de APIConfiguração de variáveis de ambiente
OPEN_ROUTER_API_KEYpara chamar grandes modelos de linguagem para gerar dados (necessários apenas para a fase de treinamento). - Execução de contêineresGeração de modelos: inicie a geração de modelos por meio de comandos do Docker, por exemplo, para categorizar avaliações de clientes:
docker run --rm -e OPEN_ROUTER_API_KEY=... -v "$(pwd)":/app/models ghcr.io/inoxoft/whitelightning:latest python -m text_classifier.agent -p "分类任务描述". - Verificar a saídaGerar o arquivo do modelo ONNX após cerca de 10 minutos e verificar os registros para confirmar a precisão do treinamento (por exemplo
Accuracy: 1.0000).
Todo o processo não requer preparação manual de dados, os usuários do Windows precisam prestar atenção à formatação do caminho.
Essa resposta foi extraída do artigoWhiteLightning: uma ferramenta de código aberto para gerar modelos leves de classificação de texto off-line em um cliqueO































