海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする
現在の場所図頭 " AIアンサー

Vexaをローカルに展開する方法と必要なハードウェアは?

2025-08-24 1.6 K

Vexaはオープンソースプロジェクトであるため、ローカルでの展開をサポートし、企業や技術力のある個人ユーザーに適しています。以下は、詳細な導入手順とハードウェア要件です:

配備プロセス

  1. クローン倉庫
    git clone https://github.com/Vexa-ai/vexa.git
    cd vexa
  2. サブモジュールを初期化する:
    make submodules
  3. 環境変数を設定する:
    make env

    .envファイルを編集してパラメーターを設定する(ADMIN_API_TOKENなど)。

  4. ウィスパーモデルのダウンロード
    make download-model
  5. Dockerイメージをビルドする:
    docker build -t vexa-bot:latest -f services/vexa-bot/core/Dockerfile ./services/vexa-bot/core
  6. サービスを開始する:
    docker compose build
    docker compose up -d

ハードウェア要件

  • 推奨構成NVIDIA GPU搭載サーバー
  • 最低条件16GB RAM + 4コアCPU
  • 収納スペースWhisperモデル(デフォルトでは ./hubディレクトリ)

サービスが開始されると、APIゲートウェイはhttp://localhost:8056、管理インターフェースはhttp://localhost:8057。最新の機能を利用するためには、git pullとdocker compose up -buildを定期的に実行する必要がある。

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る