vllm-cliをインストールするには、以下のシステム要件を満たす必要があります:
- Python 3.11以降。
- CUDAをサポートするNVIDIA GPU
- vLLMコアパッケージのインストール
マウントには2種類ある:
- PyPIからのインストール(初心者にお勧め):
コマンド実行pip install vllm-cli
- ソースからのコンパイルとインストール(開発者向け):
git clone https://github.com/Chen-zexi/vllm-cli.git
cd vllm-cli
pip install -r requirements.txt
pip install -e .
依存関係の衝突を避けるため、仮想環境にインストールすることを推奨する。LoRAサポートを必要とするシナリオでは、hf-model-toolコンポーネントの追加設定が必要です。
この答えは記事から得たものである。vLLM CLI: vLLMで大規模言語モデルをデプロイするためのコマンドラインツールについて