O WhiteLightning usa o formato ONNX e vários esquemas de adaptação para garantir a compatibilidade da implementação:
- tempo de execução unificado (computação)Exportação unificada de todos os modelos para o formato ONNX (menos de 1 MB), compatível com o ONNX Runtime para operação em várias plataformas.
- Suporte a vários idiomasFornecer exemplos para Python, Rust, Swift, Node.js, Dart, etc. (por exemplo, o Python precisa estar instalado).
onnxruntimepacote) - adaptação de hardwareFornece opções de quantificação para dispositivos como o Raspberry Pi, que pode ser implantado por meio de contêineres do Docker para garantir a consistência do ambiente.
- Verificação off-lineUso antes da implementação
ort.InferenceSessionTestes de modelos de carga para garantir a correspondência dos formatos de entrada e saída
Se ainda estiver com problemas, verifique se a arquitetura do dispositivo é compatível com o ONNX Runtime ou obtenha guias de implantação específicos do dispositivo na comunidade do GitHub.
Essa resposta foi extraída do artigoWhiteLightning: uma ferramenta de código aberto para gerar modelos leves de classificação de texto off-line em um cliqueO









