Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como implantar o Vexa localmente e qual hardware é necessário?

2025-08-24 1.6 K

O Vexa, como um projeto de código aberto, oferece suporte à implantação local e é adequado para empresas ou usuários individuais com habilidades técnicas. Veja abaixo as etapas detalhadas de implementação e os requisitos de hardware:

Processo de implantação

  1. Armazém de Clonagem:
    git clone https://github.com/Vexa-ai/vexa.git
    cd vexa
  2. Inicializar o submódulo:
    make submodules
  3. Configurar variáveis de ambiente:
    make env

    Edite o arquivo .env para definir parâmetros (por exemplo, ADMIN_API_TOKEN, etc.).

  4. Faça o download do modelo Whisper:
    make download-model
  5. Crie a imagem do Docker:
    docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
  6. Inicie o serviço:
    docker compose build
    docker compose up -d

Requisitos de hardware

  • Configurações recomendadasServidores com GPUs NVIDIA
  • requisito mínimoCPU de 16 GB de RAM e 4 núcleos
  • espaço de armazenamentoEspaço suficiente precisa ser reservado para armazenar os modelos do Whisper (armazenados por padrão no diretório . /hub)

Depois que o serviço é iniciado, o gateway de API é executado em http://localhost:8056 e a interface de gerenciamento está localizada em http://localhost:8057. Um git pull e um docker compose up -build precisam ser executados periodicamente para obter a funcionalidade mais recente.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo