| Axolotl | 用于微调语言模型的框架 | 
| Gemma | Google 最新的大语言模型实现 | 
| – finetune-gemma.ipynb–gemma-sft.py–Gemma_finetuning_notebook.ipynb | 微调笔记本和脚本 | 
| LLama2 | Meta 的开源大语言模型 | 
| – generate_response_stream.py–Llama2_finetuning_notebook.ipynb–Llama_2_Fine_Tuning_using_QLora.ipynb | 实现和微调指南 | 
| Llama3 | 即将推出的 Meta 大语言模型实验 | 
| – Llama3_finetuning_notebook.ipynb | 初始微调实验 | 
| LlamaFactory | 大语言模型的训练和部署框架 | 
| LLMArchitecture/ParameterCount | 模型架构的技术细节 | 
| Mistral-7b | Mistral AI 的 70 亿参数模型 | 
| – LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb–Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb–notebooks_chatml_inference.ipynb–notebooks_DPO_fine_tuning.ipynb–notebooks_SFTTrainer TRL.ipynb–SFT.py | 用于评估、微调和推理的综合笔记本 | 
| Mixtral | Mixtral 的专家混合模型 | 
| – Mixtral_fine_tuning.ipynb | 微调实现 | 
| VLM | 视觉语言模型 | 
| – Florence2_finetuning_notebook.ipynb–PaliGemma_finetuning_notebook.ipynb | 视觉语言模型的实现 |