Qwen 2.5-VL をローカルで実行するには、以下の手順に従ってインストールしてください:
- システム環境の準備:Python 3.8+とGitツールがインストールされていることを確認する。
- 入手コードGitHub リポジトリを Git 経由でクローンする
git clone https://github.com/QwenLM/Qwen2.5-VL.git - 依存的なインストール:transformers、accelerate、qwen-vl-utilsなど、特定のPythonライブラリのインストールが必要です。
- GPUサポート:NVIDIAグラフィックスカードを持っている場合は、CUDAをサポートするバージョンのPyTorchをインストールする必要があります。
ハードウェアの要件について:
- 3Bモデル:最低8GBのビデオメモリを推奨
- モデル7B:16GBのビデオメモリを推奨
- 32Bおよび72Bモデル:プロ用機器、24GB以上のビデオメモリに推奨
警告だ:
- Linux以外のユーザーは、ソースからdecordビデオ・ローディング・アクセラレーター・ライブラリーをインストールする必要がある。
- virtualenvまたはcondaを使用して、隔離されたPython環境を作成することをお勧めします。
- 最初の実行では、ハギング・フェイスからモデルの重みファイルを自動的にダウンロードする。
この答えは記事から得たものである。Qwen2.5-VL:画像・ビデオ文書解析のためのオープンソース・マルチモーダルラージモデルについて































