O Vexa, como um projeto de código aberto, oferece suporte à implantação local e é adequado para empresas ou usuários individuais com habilidades técnicas. Veja abaixo as etapas detalhadas de implementação e os requisitos de hardware:
Processo de implantação
- Armazém de Clonagem:
git clone https://github.com/Vexa-ai/vexa.git cd vexa
- Inicializar o submódulo:
make submodules
- Configurar variáveis de ambiente:
make env
Edite o arquivo .env para definir parâmetros (por exemplo, ADMIN_API_TOKEN, etc.).
- Faça o download do modelo Whisper:
make download-model
- Crie a imagem do Docker:
docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
- Inicie o serviço:
docker compose build docker compose up -d
Requisitos de hardware
- Configurações recomendadasServidores com GPUs NVIDIA
- requisito mínimoCPU de 16 GB de RAM e 4 núcleos
- espaço de armazenamentoEspaço suficiente precisa ser reservado para armazenar os modelos do Whisper (armazenados por padrão no diretório . /hub)
Depois que o serviço é iniciado, o gateway de API é executado em http://localhost:8056 e a interface de gerenciamento está localizada em http://localhost:8057. Um git pull e um docker compose up -build precisam ser executados periodicamente para obter a funcionalidade mais recente.
Essa resposta foi extraída do artigoVexa: uma ferramenta inteligente de extração de conhecimento e transcrição de reuniões em tempo realO































