GPUアクセラレーションの状態は、以下の手順で確認できます:
- NVIDIA GPUの方法で依存関係がインストールされていることを確認します:
pip install onnxruntime-gpu
と対応するバージョンのPyTorch - 起動した仮想環境でdetectコマンドを実行する:
python -c "import torch; print(f'CUDA available: {torch.cuda.is_available()}')"
- 出力
CUDA available: True
コンフィギュレーションが成功するのは - 実際の実行は、タスクマネージャー(Windows)を開くか、または
nvidia-smi
コマンド(Linux) GPU使用率の監視
警告だ:
- Falseと表示された場合は、CUDAドライバのバージョンがPyTorchのバージョンと一致しているかどうかを確認してください。
- Dockerデプロイメント用にインストールされたNVIDIA Container Toolkit
- 初回実行時のCUDAコンテキストの初期化に時間がかかる場合があります。
この答えは記事から得たものである。Kitten-TTS-Server: セルフデプロイ可能な軽量音声合成サービスについて