WhiteLightningを使用したモデル生成は、以下の主要なステップに分けられます:
- Dockerのインストールを渡すことで、Dockerがシステムにインストールされていることを確認します。
docker --versionインストールを確認する。 - プルミラー実施
docker pull ghcr.io/inoxoft/whitelightning:latest最新のツールイメージを入手する。 - APIキーの設定環境変数の設定
OPEN_ROUTER_API_KEY大規模な言語モデルを呼び出してデータを生成する(トレーニング段階でのみ必要)。 - 実行中のコンテナ例えば、カスタマーレビューを分類するために、Dockerコマンドでモデル生成を開始します:
docker run --rm -e OPEN_ROUTER_API_KEY=... -v "$(pwd)":/app/models ghcr.io/inoxoft/whitelightning:latest python -m text_classifier.agent -p "分类任务描述". - 出力を確認する約10分後にONNXモデルファイルを生成し、ログをチェックして学習精度を確認する。
Accuracy: 1.0000).
全プロセスにおいて、手動でデータを準備する必要はないが、Windowsユーザーはパスのフォーマットに注意を払う必要がある。
この答えは記事から得たものである。WhiteLightning: 軽量なオフラインテキスト分類モデルをワンクリックで生成するオープンソースツールについて































