Opções alternativas de implementação em ambientes off-line
Os métodos a seguir podem ser usados quando não for possível acessar o Hugging Face:
- Pré-download do modelo:
Faça o download do modelo completo usando o huggingface-cli em um dispositivo com uma rede:
huggingface-cli download TheAhmadOsman/FLUX.1-Kontext-dev –local-dir ./models
Empacotamento e portabilidade de todo o catálogo de modelos para o dispositivo de destino - Implementação em Docker:
Use uma imagem pré-criada que já contenha o modelo (você mesmo precisa criá-la):
FROM python:3.12
COPY models /app/models
Configuração de variáveis de ambiente:
HF_HUB_OFFLINE=1 - Registro de modelo local:
Modifique o caminho de carregamento do modelo no código:
model = AutoModel.from_pretrained(‘./local/models’) - Programa de agência empresarial:
Se precisar usá-lo em uma rede isolada, você poderá configurar um servidor espelho de HF local:
Implementação da WebUI de geração de texto como um site de preparação de modelos
Observação importante: é necessário garantir a verificação da integridade do arquivo de modelo, e o valor SHAd256 deve ser o mesmo que o publicado oficialmente quando usado off-line.
Essa resposta foi extraída do artigo4o-ghibli-at-home: ferramenta de conversão de imagens no estilo Ghibli executada localmente》































