A tecnologia LoRA (Low-Rank Adaptation) permite que os desenvolvedores otimizem as características do modelo adicionando camadas de adaptação leves e mantendo inalterada a estrutura central dos modelos pré-treinados.
Os recursos relacionados ao LoRA fornecidos pelo conjunto de ferramentas incluem:
- Ferramentas de extração de recursos LoRA e LoCON
- Treinamento e otimização de modelos LoRA
- Adaptadores de treinamento para uso com os modelos FLUX.1
As funções de treinamento específicas da camada são mais refinadas:
- Opção para especificar camadas de rede neural para treinamento (por exemplo, transformer.single_transformer_blocks, etc.)
- Suporte para ajuste flexível dos pesos das camadas
- Controle preciso das faixas de treinamento por meio de perfis
Esses recursos melhoram muito a precisão e a eficiência do ajuste fino do modelo, permitindo que os desenvolvedores direcionem e otimizem o desempenho do modelo.
Essa resposta foi extraída do artigoKit de ferramentas de IA da Ostris: Difusão estável com o kit de ferramentas de treinamento de modelos FLUX.1O