Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann ich ein lokales großes Sprachmodell in Sim verwenden?

2025-08-19 153

Die folgenden Schritte sind erforderlich, um ein lokales großes Sprachmodell mit Sim zu integrieren:

  1. Ziehen Sie zunächst das gewünschte Modell durch das Skript:./apps/sim/scripts/ollama_docker.sh pull <model_name>
  2. Wählen Sie die Bootmethode entsprechend der Hardwareumgebung:
    • GPU-Umgebung:docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
    • CPU-Umgebung:docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
  3. Auswahl der gezogenen lokalen Modelle in der Workflow-Konfiguration
  4. Geben Sie je nach Bedarf den GPU- oder CPU-Modus an.
  5. Testen Sie die Reaktion des Modells, um sicherzustellen, dass der Arbeitsablauf ordnungsgemäß funktioniert.

Beachten Sie, dass lokale Modelle mehr Speicherplatz und Rechenressourcen benötigen, zumal GPU-Umgebungen eine bessere Leistung bieten.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch