离线环境下的替代部署方案
无法访问Hugging Face时可采用以下方法:
- 模型预下载:
在有网络的设备上使用huggingface-cli下载完整模型:
huggingface-cli download TheAhmadOsman/FLUX.1-Kontext-dev –local-dir ./models
将整个models目录打包移植到目标设备 - Docker化部署:
使用已包含模型的预构建镜像(需自行构建):
FROM python:3.12
COPY models /app/models
设置环境变量:
HF_HUB_OFFLINE=1 - 本地模型注册:
在代码中修改模型加载路径:
model = AutoModel.from_pretrained(‘./local/models’) - 企业代理方案:
如需在隔离网络使用,可搭建本地HF镜像服务器:
部署Text Generation WebUI作为模型中转站
重要提醒:需确保模型文件的完整性校验,离线使用时SHAd256值应与官方公布的一致。
本答案来源于文章《4o-ghibli-at-home:本地运行的Ghibli风格图像转换工具》