安装Lumina-mGPT-2.0需要按照以下步骤搭建专业环境:
- 获取代码:首先通过git克隆项目仓库
git clone https://github.com/Alpha-VLLM/Lumina-mGPT-2.0.git
,并进入项目目录 - 创建虚拟环境:使用Conda建立Python 3.10的独立环境避免依赖冲突
conda create -n lumina_mgpt_2 python=3.10 -y
- 安装依赖:依次执行
pip install -r requirements.txt
安装基础依赖,特别需要安装加速模块Flash Attention - 下载模型权重:需单独下载270M大小的MoVQGAN预训练权重文件,并放置到指定目录
- 验证安装:运行测试生成脚本确认环境配置正确,注意需要40GB以上显存的GPU支持
重要提示:安装过程中特别注意CUDA版本与torch的兼容性,推荐使用官方测试通过的CUDA 12+ torch 2.3环境。如遇依赖冲突,可尝试使用--no-deps
参数单独安装关键组件。
本答案来源于文章《Lumina-mGPT-2.0:处理多种图像生成任务的自回归图像生成模型》