| Axolote | Uma estrutura para ajuste fino de modelos de linguagem | 
| Gemma | A mais recente implementação do Google do Big Language Model | 
| – finetune-gemma.ipynb–gemma-sft.py–Gemma_finetuning_notebook.ipynb | Ajuste fino de notebooks e scripts | 
| LLama2 | Modelo de linguagem grande de código aberto da Meta | 
| – generate_response_stream.py–Llama2_finetuning_notebook.ipynb–Llama_2_Fine_Tuning_using_QLora.ipynb | Diretrizes de implementação e ajuste fino | 
| Llama3 | Próximos experimentos com modelagem de linguagem metagrande | 
| – Llama3_finetuning_notebook.ipynb | Experimentos iniciais de ajuste fino | 
| LlamaFactory | Uma estrutura para treinamento e implementação de grandes modelos de linguagem | 
| LLMArchitecture/ParameterCount | Detalhes técnicos da arquitetura do modelo | 
| Mistral-7b | IA Mistral O modelo de 7 bilhões de parâmetros | 
| – LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb–Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb–notebooks_chatml_inference.ipynb–notebooks_DPO_fine_tuning.ipynb–notebooks_SFTTrainer TRL.ipynb–SFT.py | Caderno integrado para avaliação, ajuste fino e raciocínio | 
| Mixtral | Modelo de mistura de especialistas da Mixtral | 
| – Mixtral_fine_tuning.ipynb | Realização de ajustes finos | 
| VLM | modelo de linguagem visual | 
| – Florence2_finetuning_notebook.ipynb–PaliGemma_finetuning_notebook.ipynb | Implementação do modelo de linguagem visual |