Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como implementar rapidamente um serviço de modelo usando o modo de linha de comando do vllm-cli?

2025-08-21 47

O modo de linha de comando do vllm-cli facilita muito a implementação automatizada com as seguintes etapas básicas:

  1. Comandos básicos de implantação::
    vllm-cli serve <MODEL_NAME>
    Um exemplo é a implantação do modelo Qwen:
    vllm-cli serve Qwen/Qwen2-1.5B-Instruct
  2. Uso de configurações predefinidas::
    vllm-cli serve <MODEL_NAME> --profile high_throughput
  3. Parâmetros personalizados::
    Suporta a passagem de parâmetros arbitrários compatíveis com vLLM, por exemplo:
    vllm-cli serve <MODEL_NAME> --quantization awq --tensor-parallel-size 2
  4. Verificar o status do serviço::
    fazer uso devllm-cli statusVerificação dos serviços em execução
  5. Descontinuação de serviços::
    vllm-cli stop --port 8000

Para facilitar a integração do script, esses comandos suportam o modo silencioso (--quiet) e o formato de saída JSON (--json).

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil