Vexa作为一个开源项目,支持本地部署,适合具备技术能力的企业或个人用户。以下是详细的部署步骤和硬件要求:
部署流程
- 克隆仓库:
git clone https://github.com/Vexa-ai/vexa.git cd vexa
- 初始化子模块:
make submodules
- 配置环境变量:
make env
编辑.env文件设置参数(如ADMIN_API_TOKEN等)。
- 下载Whisper模型:
make download-model
- 构建Docker镜像:
docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
- 启动服务:
docker compose build docker compose up -d
硬件要求
- 推荐配置:配备NVIDIA GPU的服务器
- 最低要求:16GB RAM + 4核CPU
- 存储空间:需预留足够空间存放Whisper模型(默认存储在./hub目录)
服务启动后,API网关运行在http://localhost:8056,管理接口位于http://localhost:8057。需定期执行git pull和docker compose up –build以获取最新功能。
本答案来源于文章《Vexa:实时会议转录与智能知识提取工具》