Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann man einen Modelldienst schnell über den Befehlszeilenmodus von vllm-cli bereitstellen?

2025-08-21 48

Der Befehlszeilenmodus von vllm-cli erleichtert die automatisierte Bereitstellung mit den folgenden grundlegenden Schritten erheblich:

  1. Grundlegende Einsatzbefehle::
    vllm-cli serve <MODEL_NAME>
    Ein Beispiel ist der Einsatz des Qwen-Modells:
    vllm-cli serve Qwen/Qwen2-1.5B-Instruct
  2. Voreingestellte Konfigurationen verwenden::
    vllm-cli serve <MODEL_NAME> --profile high_throughput
  3. Benutzerdefinierte Parameter::
    Unterstützt die Übergabe beliebiger vLLM-unterstützter Parameter, zum Beispiel:
    vllm-cli serve <MODEL_NAME> --quantization awq --tensor-parallel-size 2
  4. Überprüfen des Dienststatus::
    ausnutzenvllm-cli statusÜberprüfung der laufenden Dienste
  5. Einstellung von Dienstleistungen::
    vllm-cli stop --port 8000

Um die Integration von Skripten zu erleichtern, unterstützen diese Befehle den stillen Modus (--quiet) und JSON-Ausgabeformat (--json).

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch