WhiteLightning 采用 ONNX 格式和多种适配方案确保部署兼容性:
- 统一运行时:所有模型统一输出为 ONNX 格式(小于1MB),支持 ONNX Runtime 跨平台运行
- 多语言支持:提供 Python、Rust、Swift、Node.js、Dart 等语言的运行示例(如 Python 需安装
onnxruntime
包) - 硬件适配:针对树莓派等设备提供量化选项,可通过 Docker 容器部署保证环境一致性
- 离线验证:部署前使用
ort.InferenceSession
加载模型测试,确保输入输出格式匹配
若仍遇到问题,可检查设备架构是否支持 ONNX Runtime,或通过 GitHub 社区获取特定设备的部署指南。
本答案来源于文章《WhiteLightning:一键生成轻量级离线文本分类模型的开源工具》