| アホロートル | 言語モデルを微調整するフレームワーク | 
| ジェマ | グーグルのビッグ言語モデルの最新実装 | 
| – finetune-gemma.ipynb–gemma-sft.py–Gemma_finetuning_notebook.ipynb | ノートブックとスクリプトの微調整 | 
| ラマ2 | メタのオープンソース大規模言語モデル | 
| – generate_response_stream.py–Llama2_finetuning_notebook.ipynb–Llama_2_Fine_Tuning_using_QLora.ipynb | 実施と微調整のガイドライン | 
| ラマ3 | メタ大規模言語モデリングの今後の実験 | 
| – Llama3_finetuning_notebook.ipynb | 初期微調整実験 | 
| ラマファクトリー | 大規模言語モデルの学習と展開のためのフレームワーク | 
| LLMArchitecture/ParameterCount | モデル・アーキテクチャの技術的詳細 | 
| ミストラル-7b | ミストラルAI 70億パラメータモデル | 
| – LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb–Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb–notebooks_chatml_inference.ipynb–notebooks_DPO_fine_tuning.ipynb–notebooks_SFTTrainer TRL.ipynb–SFT.py | 評価、微調整、推論のための統合ノートブック | 
| ミクストラル | ミックストラルのエキスパート・ミキシング・モデル | 
| – Mixtral_fine_tuning.ipynb | 微調整の実現 | 
| ブイエルエム | 視覚言語モデル | 
| – Florence2_finetuning_notebook.ipynb–PaliGemma_finetuning_notebook.ipynb | 視覚言語モデルの実装 |