Als Open-Source-Projekt unterstützt Vexa den lokalen Einsatz und eignet sich für Unternehmen oder Einzelanwender mit technischen Kenntnissen. Nachstehend finden Sie die detaillierten Einrichtungsschritte und Hardware-Anforderungen:
Prozess der Bereitstellung
- Klon-Lagerhaus:
git clone https://github.com/Vexa-ai/vexa.git cd vexa
- Initialisieren Sie das Submodul:
make submodules
- Konfigurieren Sie die Umgebungsvariablen:
make env
Bearbeiten Sie die .env-Datei, um Parameter festzulegen (z. B. ADMIN_API_TOKEN usw.).
- Laden Sie das Modell Whisper herunter:
make download-model
- Erstellen Sie das Docker-Image:
docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
- Starten Sie den Dienst:
docker compose build docker compose up -d
Hardware-Voraussetzung
- Empfohlene KonfigurationenServer mit NVIDIA-GPUs
- Mindestanforderung16GB RAM + 4-Kern-CPU
- SpeicherplatzAusreichend Speicherplatz für Whisper-Modelle muss reserviert werden (standardmäßig im Verzeichnis . /hub Verzeichnis)
Sobald der Dienst gestartet ist, läuft das API-Gateway unter http://localhost:8056 und die Verwaltungsschnittstelle befindet sich unter http://localhost:8057. Ein git pull und docker compose up -build müssen regelmäßig ausgeführt werden, um die neuesten Funktionen zu erhalten.
Diese Antwort stammt aus dem ArtikelVexa: ein Tool zur Echtzeit-Transkription von Sitzungen und zur intelligenten WissensextraktionDie































