Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann Vexa lokal eingesetzt werden und welche Hardware ist erforderlich?

2025-08-24 1.6 K

Als Open-Source-Projekt unterstützt Vexa den lokalen Einsatz und eignet sich für Unternehmen oder Einzelanwender mit technischen Kenntnissen. Nachstehend finden Sie die detaillierten Einrichtungsschritte und Hardware-Anforderungen:

Prozess der Bereitstellung

  1. Klon-Lagerhaus:
    git clone https://github.com/Vexa-ai/vexa.git
    cd vexa
  2. Initialisieren Sie das Submodul:
    make submodules
  3. Konfigurieren Sie die Umgebungsvariablen:
    make env

    Bearbeiten Sie die .env-Datei, um Parameter festzulegen (z. B. ADMIN_API_TOKEN usw.).

  4. Laden Sie das Modell Whisper herunter:
    make download-model
  5. Erstellen Sie das Docker-Image:
    docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
  6. Starten Sie den Dienst:
    docker compose build
    docker compose up -d

Hardware-Voraussetzung

  • Empfohlene KonfigurationenServer mit NVIDIA-GPUs
  • Mindestanforderung16GB RAM + 4-Kern-CPU
  • SpeicherplatzAusreichend Speicherplatz für Whisper-Modelle muss reserviert werden (standardmäßig im Verzeichnis . /hub Verzeichnis)

Sobald der Dienst gestartet ist, läuft das API-Gateway unter http://localhost:8056 und die Verwaltungsschnittstelle befindet sich unter http://localhost:8057. Ein git pull und docker compose up -build müssen regelmäßig ausgeführt werden, um die neuesten Funktionen zu erhalten.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang