Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann man gpt-oss-Modelle schnell über vLLM oder Ollama bereitstellen?

2025-08-14 168

Das Repository unterstützt die schnelle Bereitstellung von Modellen über vLLM und Ollama:

  • vLLM-Bereitstellung::
    1. So installieren Sie vLLM: Führen Sieuv pip install --pre vllm==0.10.1+gptoss --extra-index-url https://wheels.vllm.ai/gpt-oss/.
    2. Starten Sie den Server: Ausführenvllm serve openai/gpt-oss-20bund bietet OpenAI-kompatible API-Dienste an.
  • Ollama-Einsatz::
    1. Pull-Modell: Laufollama pull gpt-oss:20bLaden Sie das Modell herunter.
    2. Start-up-Modell: Umsetzungollama run gpt-oss:20bModelle, die auf Hardware der Verbraucherklasse laufen.

Diese beiden Ansätze eignen sich für unterschiedliche Szenarien. vLLM ist für die API-Bereitstellung in Produktionsumgebungen geeignet, während Ollama für lokale Tests und Entwicklung geeignet ist.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch