Lokaler Einsatz GLM-4.5V muss erfüllt werden:
- Hardware:Leistungsstarke NVIDIA-GPUs (z. B. A100/H100) mit großem Videospeicher zur Unterstützung der Modellläufe.
- Abhängige Installation:vollziehen
pip install transformers torch accelerate Pillow
Installieren Sie die erforderlichen Bibliotheken.
Schritte für die Bereitstellung:
- Modelle von Hugging Face Hub herunterladen
zai-org/GLM-4.5V
. - ausnutzen
AutoProcessor
im Gesang antwortenAutoModelForCausalLM
Laden Sie das Modell, setzen Sie aufeval()
Modus und die Migration zur GPU. - Kombinieren Sie Bilder und Texteingabeaufforderungen als Eingaben über die
apply_chat_template
Verarbeitung, eingehende Modelle erzeugen Antworten. - Passen Sie die Generierungsparameter an (z. B.
max_new_tokens
undtemperature
) steuern den Ausgangseffekt.
Diese Antwort stammt aus dem ArtikelGLM-4.5V: Ein multimodales Dialogmodell, das Bilder und Videos versteht und Code erzeugtDie