Você pode experimentar rapidamente a geração de código seguindo as etapas abaixo:
- Preparação ambiental: crie um ambiente virtual Python e instale a versão especificada da biblioteca de transformadores (recomenda-se a versão 4.48.3)
- Modelos de carregamento: Carregando o tokenizador e o modelo GLM-4.5-Air da Hugging Face
from transformers import AutoTokenizer, AutoModel model = AutoModel.from_pretrained("zai-org/GLM-4.5-Air").half().cuda() - iniciar uma solicitaçãoDescrição dos requisitos de código usando a interface de bate-papo
response, _ = model.chat(tokenizer, "写Python函数计算斐波那契数列")
- Otimização iterativaRefinar o código por meio de várias rodadas de diálogo, por exemplo, requisitos adicionais: "Adicionar anotações de tipo e tratamento de exceções".
O uso avançado pode ser combinado com o Gradio para criar interfaces visuais ou implantado como serviços de API via vLLM.
Essa resposta foi extraída do artigoGLM-4.5: grandes modelos multimodais de código aberto que suportam raciocínio inteligente e geração de códigoO































