環境準備
VLM-R1 を取り付けるには、以下の準備が必要です:
- Python環境Anacondaを使用してPython 3.10の仮想環境を作成することをお勧めします。
- クローンプロジェクトgit clone を使って VLM-R1 リポジトリを取得してください。
- 依存関係のインストールこのプロジェクトでは、必要な依存関係を自動的にインストールするためのsetup.shスクリプトを提供しています。
詳細なインストール手順
- condaで専用環境を作る: conda create -n vlm-r1 python=3.10
- アクティベーション環境: conda activate vlm-r1
- プロジェクトをクローンする: git clone https://github.com/om-ai-lab/VLM-R1.git
- プロジェクト・ディレクトリに移動: cd VLM-R1
- セットアップ・スクリプトを実行: bash setup.sh
setup.shスクリプトは、以下のコアの依存関係を自動的にインストールする:
- PyTorchディープラーニングフレームワーク
- トランスフォーマーライブラリー
- その他必要なPythonライブラリ
ほら
NVIDIA GPUを推奨します。CPUモードを使用した場合、パフォーマンスのボトルネックが発生する可能性があります。
この答えは記事から得たものである。VLM-R1:自然言語による画像ターゲットの位置決定のための視覚言語モデルについて































