Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann ich Sim Studio auf meinem lokalen Rechner einsetzen und eine Verbindung zu meinem lokalen LLM herstellen?

2025-08-23 2.1 K

Die empfohlene Lösung ist die Bereitstellung über Docker, die in drei Schritten erfolgt:

  1. Vorbereitung der Basisumgebung::
    • Installation von Docker Desktop und Docker Compose
    • passieren (eine Rechnung oder Inspektion etc.)git cloneHolen Sie sich die neueste Codebasis
    • Konfigurieren Sie den Authentifizierungsschlüssel und die Datenbankparameter in der .env-Datei
  2. Ollama-Integration::
    • Ändern Sie docker-compose.yml, um Folgendes hinzuzufügenextra_hostsKarte (math.)
    • aufstellenOLLAMA_HOST=http://host.docker.internal:11434
    • Ziehen Sie das gewünschte Modell durch das Skript:./scripts/ollama_docker.sh pull llama3
  3. Neue Dienste::
    • GPU-beschleunigter Modus:docker compose up --profile local-gpu -d --build
    • Reiner CPU-Modus:docker compose up --profile local-cpu -d --build
    • Interviewshttp://localhost:3000Plattform

Hinweis: Für den lokalen LLM-Betrieb werden 16 GB oder mehr RAM empfohlen, und NVIDIA-GPUs können die Leistung erheblich verbessern. Auf die Protokolle kann über diedocker compose logsLive-Ansicht.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang