As etapas para ajustar o modelo no gpt-oss-recipes são as seguintes:
- Baixar conjunto de dados: Uso
load_dataset
Carregando um conjunto de dados de inferência multilíngue (como oHuggingFaceH4/Multilingual-Thinking
). - Configuração de parâmetros LoRA: Definições
LoraConfig
(por exemplor=8
responder cantandotarget_modules=["q_proj", "v_proj"]
). - Modelos de carregamento: através de
AutoModelForCausalLM
Carregue o modelo básico e aplique a configuração LoRA. - ajuste finoUso de bibliotecas TRL (como a biblioteca
finetune.ipynb
(Exemplo) Concluir o treinamento. - Salvar o modeloModelos ajustados podem ser salvos e usados para tarefas específicas (por exemplo, raciocínio multilíngue).
Esse método, combinado com a tecnologia LoRA, reduz significativamente os requisitos de memória gráfica e é adequado para o ajuste fino eficiente de modelos grandes em hardware limitado.
Essa resposta foi extraída do artigoColeção de scripts e tutoriais para ajuste fino dos modelos OpenAI GPT OSSO