A implantação local do GLM-4.5V precisa ser atendida:
- Hardware:GPUs NVIDIA de alto desempenho (por exemplo, A100/H100) com grande memória de vídeo para suportar execuções de modelos.
- Instalação dependente:realizar
pip install transformers torch accelerate Pillow
Instale as bibliotecas necessárias.
Etapas de implantação:
- Baixar modelos do Hugging Face Hub
zai-org/GLM-4.5V
. - fazer uso de
AutoProcessor
responder cantandoAutoModelForCausalLM
Carregar o modelo, definido comoeval()
e migrar para a GPU. - Combine imagens e prompts de texto como entradas por meio do
apply_chat_template
Processamento, modelos de entrada geram respostas. - Ajuste os parâmetros de geração (por exemplo
max_new_tokens
etemperature
) controlam o efeito de saída.
Essa resposta foi extraída do artigoGLM-4.5V: um modelo de diálogo multimodal capaz de compreender imagens e vídeos e gerar códigoO