要在本地运行Qwen2.5-VL,需按照以下步骤进行安装:
- 系统环境准备:确保已安装Python 3.8+和Git工具
- Code to get:通过Git克隆GitHub仓库
git clone https://github.com/QwenLM/Qwen2.5-VL.git - Dependent Installation:需要安装特定Python库,包括transformers、accelerate、qwen-vl-utils等
- GPU Support:如果有NVIDIA显卡,需安装支持CUDA的PyTorch版本
关于硬件要求:
- 3B模型:建议至少8GB显存
- 7B模型:建议16GB显存
- 32B和72B模型:建议专业设备,24GB以上显存
Caveats:
- 非Linux用户需从源码安装decord视频加载加速库
- 建议使用virtualenv或conda创建隔离的Python环境
- 首次运行会从Hugging Face自动下载模型权重文件
This answer comes from the articleQwen2.5-VL: an open source multimodal grand model supporting image-video document parsingThe