O status da aceleração da GPU pode ser verificado seguindo as etapas abaixo:
- Certifique-se de que as dependências tenham sido instaladas na forma de GPU NVIDIA:
pip install onnxruntime-gpue a versão correspondente do PyTorch - Execute o comando detect em um ambiente virtual ativado:
python -c "import torch; print(f'CUDA available: {torch.cuda.is_available()}')" - Quando a saída
CUDA available: TrueA configuração é bem-sucedida quando - A execução real pode ser feita abrindo o Gerenciador de Tarefas (Windows) ou usando o comando
nvidia-smiComando (Linux) Observe a utilização da GPU
Advertências:
- Se False for exibido, verifique se a versão do driver CUDA corresponde à versão do PyTorch
- NVIDIA Container Toolkit instalado para implantação do Docker
- Pode haver um atraso na inicialização do contexto CUDA para a primeira execução
Essa resposta foi extraída do artigoKitten-TTS-Server: um serviço de conversão de texto em fala leve e autoimplantávelO

































