A API de pipeline é um dos principais recursos do Transformers, e o processo de utilização é o seguinte:
1. exemplos de geração de texto:
from transformers import pipeline
generator = pipeline(task="text-generation", model="Qwen/Qwen2.5-1.5B")
result = generator("The secret to baking a really good cake is")
print(result[0]["generated_text"])
2. exemplos de reconhecimento de fala:
asr = pipeline(task="automatic-speech-recognition", model="openai/whisper-large-v3")
result = asr("https://huggingface.co/datasets/Narsil/asr_dummy/resolve/main/mlk.flac")
print(result["text"])
Pontos principais:
- Os modelos são baixados automaticamente e armazenados em cache em ~/.cache/huggingface/hub
- O caminho do cache pode ser modificado por meio da variável de ambiente TRANSFORMERS_CACHE
- Suporta arquivos de áudio locais ou URLs como entrada
Essa resposta foi extraída do artigoTransformers: estrutura de modelagem de aprendizado de máquina de código aberto com suporte para tarefas de texto, imagem e multimodaisO































