使用WhiteLightning生成模型分为以下关键步骤:
- 安装Docker:确保系统已安装Docker,通过
docker --version
验证安装。 - 拉取镜像:执行
docker pull ghcr.io/inoxoft/whitelightning:latest
获取最新工具镜像。 - 配置API密钥:设置环境变量
OPEN_ROUTER_API_KEY
以调用大型语言模型生成数据(仅训练阶段需要)。 - 运行容器:通过Docker命令启动模型生成,例如分类客户评论:
docker run --rm -e OPEN_ROUTER_API_KEY=... -v "$(pwd)":/app/models ghcr.io/inoxoft/whitelightning:latest python -m text_classifier.agent -p "分类任务描述"
。 - 验证输出:约10分钟后生成ONNX模型文件,检查日志确认训练精度(如
Accuracy: 1.0000
)。
整个过程无需手动准备数据,Windows用户需注意路径格式调整。
本答案来源于文章《WhiteLightning:一键生成轻量级离线文本分类模型的开源工具》