Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

如何本地部署Vexa?需要哪些硬件条件?

2025-08-24 1.1 K

Vexa作为一个开源项目,支持本地部署,适合具备技术能力的企业或个人用户。以下是详细的部署步骤和硬件要求:

Prozess der Bereitstellung

  1. Klon-Lagerhaus:
    git clone https://github.com/Vexa-ai/vexa.git
    cd vexa
  2. 初始化子模块:
    make submodules
  3. Konfigurieren Sie die Umgebungsvariablen:
    make env

    编辑.env文件设置参数(如ADMIN_API_TOKEN等)。

  4. Laden Sie das Modell Whisper herunter:
    make download-model
  5. Erstellen Sie das Docker-Image:
    docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
  6. Starten Sie den Dienst:
    docker compose build
    docker compose up -d

Hardware-Voraussetzung

  • Empfohlene Konfigurationen:配备NVIDIA GPU的服务器
  • Mindestanforderung:16GB RAM + 4核CPU
  • Speicherplatz:需预留足够空间存放Whisper模型(默认存储在./hub目录)

服务启动后,API网关运行在http://localhost:8056,管理接口位于http://localhost:8057。需定期执行git pull和docker compose up –build以获取最新功能。

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch