O WhiteLightning oferece uma solução completa com um único comando. As etapas são as seguintes:
- Instale o Docker e extraia a imagem do WhiteLightning:
docker pull ghcr.io/inoxoft/whitelightning:latest
- Configure a chave da API do OpenRouter:
export OPEN_ROUTER_API_KEY="sk-..."
(Somente na fase de treinamento) - Executar comandos para gerar modelos, como modelos de análise de sentimentos:
docker run --rm -e OPEN_ROUTER_API_KEY="sk-..." -v "$(pwd)":/app/models ghcr.io/inoxoft/whitelightning:latest python -m text_classifier.agent -p "Categorize customer reviews as positive, neutral, or negative"
A ferramenta automatiza a geração de dados sintéticos, o treinamento e a otimização de modelos, fornecendo modelos ONNX de menos de 1 MB em 10 a 15 minutos, executados totalmente off-line e com suporte a implantações em vários idiomas.
Essa resposta foi extraída do artigoWhiteLightning: uma ferramenta de código aberto para gerar modelos leves de classificação de texto off-line em um cliqueO