Vexaはオープンソースプロジェクトであるため、ローカルでの展開をサポートし、企業や技術力のある個人ユーザーに適しています。以下は、詳細な導入手順とハードウェア要件です:
配備プロセス
- クローン倉庫
git clone https://github.com/Vexa-ai/vexa.git cd vexa
- サブモジュールを初期化する:
make submodules
- 環境変数を設定する:
make env
.envファイルを編集してパラメーターを設定する(ADMIN_API_TOKENなど)。
- ウィスパーモデルのダウンロード
make download-model
- Dockerイメージをビルドする:
docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
- サービスを開始する:
docker compose build docker compose up -d
ハードウェア要件
- 推奨構成NVIDIA GPU搭載サーバー
- 最低条件16GB RAM + 4コアCPU
- 収納スペースWhisperモデル(デフォルトでは ./hubディレクトリ)
サービスが開始されると、APIゲートウェイはhttp://localhost:8056、管理インターフェースはhttp://localhost:8057。最新の機能を利用するためには、git pullとdocker compose up -buildを定期的に実行する必要がある。
この答えは記事から得たものである。Vexa:リアルタイム会議記録・インテリジェント知識抽出ツールについて































