Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann das Modell MiMo-7B-RL in einer lokalen Umgebung eingesetzt werden?

2025-08-23 1.6 K

MiMo-7B-RL Leitfaden für den Einsatz

Anforderungen an die ökologische BereitschaftErfordert Python 3.8+ und mehr als 14 GB Speicherplatz; eine virtuelle Umgebung wird empfohlen.

Detaillierte Schritte:

  1. Erstellen einer virtuellen Umgebung::
    python3 -m venv mimo_env
    source mimo_env/bin/activate
  2. Installation der Inferenzmaschine(fakultativ):
    • vLLM (empfohlen)::pip install "vllm @ git+https://github.com/XiaomiMiMo/vllm.git@feat_mimo_mtp_stable_073"
    • SGLang::python3 -m pip install "sglang[all] @ git+https://github.com/sgl-project/sglang.git@main#egg=sglang&subdirectory=python"
  3. Modelle herunterladen::
    from transformers import AutoModelForCausalLM, AutoTokenizer
    model_id = "XiaomiMiMo/MiMo-7B-RL"
    model = AutoModelForCausalLM.from_pretrained(model_id, trust_remote_code=True)
  4. Neue Dienste::
    python3 -m vllm.entrypoints.api_server --model XiaomiMiMo/MiMo-7B-RL --host 0.0.0.0

zur Kenntnis nehmenEmpfohlen: NVIDIA A100 40GB GPU, CPU benötigt mindestens 32GB RAM. Beim ersten Durchlauf werden automatisch etwa 14 GB an Modelldateien heruntergeladen.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang