Die Pipeline-API ist eine der wichtigsten Funktionen von Transformers, und der Prozess ihrer Verwendung ist wie folgt:
1 Beispiele für die Texterstellung:
from transformers import pipeline
generator = pipeline(task="text-generation", model="Qwen/Qwen2.5-1.5B")
result = generator("The secret to baking a really good cake is")
print(result[0]["generated_text"])
2) Beispiele für Spracherkennung:
asr = pipeline(task="automatic-speech-recognition", model="openai/whisper-large-v3")
result = asr("https://huggingface.co/datasets/Narsil/asr_dummy/resolve/main/mlk.flac")
print(result["text"])
Wichtige Punkte:
- Modelle werden automatisch heruntergeladen und in ~/.cache/huggingface/hub zwischengespeichert.
- Der Cache-Pfad kann über die Umgebungsvariable TRANSFORMERS_CACHE geändert werden
- Unterstützt lokale Audiodateien oder URLs als Eingabe
Diese Antwort stammt aus dem ArtikelTransformers: Open Source Framework für maschinelles Lernen mit Unterstützung für Text-, Bild- und multimodale AufgabenDie































