海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

如何本地部署Vexa?需要哪些硬件条件?

2025-08-24 1.1 K

Vexa作为一个开源项目,支持本地部署,适合具备技术能力的企业或个人用户。以下是详细的部署步骤和硬件要求:

部署流程

  1. 克隆仓库:
    git clone https://github.com/Vexa-ai/vexa.git
    cd vexa
  2. 初始化子模块:
    make submodules
  3. 配置环境变量:
    make env

    编辑.env文件设置参数(如ADMIN_API_TOKEN等)。

  4. 下载Whisper模型:
    make download-model
  5. 构建Docker镜像:
    docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
  6. 启动服务:
    docker compose build
    docker compose up -d

硬件要求

  • 推荐配置:配备NVIDIA GPU的服务器
  • 最低要求:16GB RAM + 4核CPU
  • 存储空间:需预留足够空间存放Whisper模型(默认存储在./hub目录)

服务启动后,API网关运行在http://localhost:8056,管理接口位于http://localhost:8057。需定期执行git pull和docker compose up –build以获取最新功能。

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文