Qwen3-FineTuning-Playgroundは、大規模言語モデルのQwen3ファミリーのファインチューニングに特化した完全なコードベースを提供するオープンソースプロジェクトです。このプロジェクトの基本は、開発者や研究者が簡単に実践できるように、明確で専門的、かつ簡単に拡張できるファインチューニングのコード例を提供することです...
Verifiersは、強化学習(RL)環境を構築し、大規模言語モデリング(LLM)エージェントを訓練するためのモジュラーコンポーネントのライブラリである。 このプロジェクトの目標は、開発者がLLMエージェントを簡単に構築、訓練、評価できる信頼性の高いツール群を提供することである。 Verifiersは、強化学習(RL)環境と大規模言語モデリング(LLM)エージェントのトレーニングに基づくライブラリである。
Radalは、AIモデルの迅速な構築と最適化を支援するローコードプラットフォームです。直感的なインターフェースとAI支援機能により、深いプログラミングをすることなく大規模言語モデル(LLM)をトレーニングすることができます。業界の専門家と新興企業のチームによって開発されたこのプラットフォームは、効率的でカスタマイズされたAIソリューションを重視しています...
WhiteLightningはオープンソースのコマンドラインツールで、開発者が1行のコマンドで軽量なテキスト分類モデルを素早く生成できるように設計されている。このツールは、大規模な言語モデルを使用して合成データを生成し、教授陣の蒸留技術によって1MB未満のONNXモデルを学習し、完全なオフライン操作をサポートし、エッジデバイスに適しています...
FineTuningLLMs は、著者の dvgodoy さんの著書 A Hands-On Guide to Fine-Tuning LLMs with PyTorch and Hugging Face に基づいて作成された GitHub リポジトリです。このリポジトリは...
ReCallは、教師ありデータに頼らずに、強化学習によってツールの呼び出しと推論のための大規模言語モデル(LLM)を学習するために設計されたオープンソースのフレームワークです。ReCallは、複雑なタスクを解決するために、検索や計算機などの外部ツールを自律的に使用し、組み合わせることを可能にします。
GraphGenは、上海のAIラボであるOpenScienceLabによって開発されたオープンソースのフレームワークで、GitHubでホストされている。知識グラフを通して合成データ生成をガイドすることで、大規模言語モデル(LLM)の教師ありファインチューニングを最適化することに焦点を当てている。予想されるキャリブレーション誤差を利用して、ソーステキストからきめ細かな知識グラフを構築する。
MiniMind-VはGitHubでホスティングされているオープンソースプロジェクトで、わずか2600万個のパラメータを持つ軽量な視覚言語モデル(VLM)を1時間以内に学習できるように設計されています。MiniMind言語モデル、新しい視覚コーダーと特徴投影モジュール、画像とテキストの共同処理のサポートに基づいています。
DeepCoder-14B-Previewは、Agenticaチームによって開発され、Hugging Faceプラットフォームでリリースされたオープンソースのコード生成モデルです。DeepSeek-R1-Distilled-Qwen-14Bをベースに、分散強化学習(RL)技術によって最適化されています。
WeCloneはオープンソースのプロジェクトで、WeChatのチャットログと音声メッセージを大規模な言語モデルと音声合成技術と組み合わせることで、パーソナライズされたデジタル・ドッペルゲンガーを作成することができる。このプロジェクトは、モデルを訓練するためにユーザーのチャット習慣を分析することができ、また、少数の音声サンプルでリアルな声クローンを生成することができます。最終的には、デジタル...
Search-R1はPeterGriffinJinによってGitHub上で開発されたオープンソースプロジェクトで、veRLフレームワーク上に構築されている。強化学習(RL)技術を使って大規模言語モデル(LLM)を学習することで、モデルが自律的に推論を学習し、問題を解決するために検索エンジンを呼び出します。プロジェクト・サポート Qwen2....
OptexityはGitHub上のオープンソースプロジェクトで、Optexityチームによって開発されている。このプロジェクトの中核は、人間のデモデータを使用して、コンピュータタスク、特にウェブページ操作を完了するAIを訓練することである。このプロジェクトは、ComputerGYM、AgentAI、Playwrightの3つのコードライブラリで構成されている。
Bonsaiはdeepgrove-aiによって開発されたオープンソースの言語モデルで、パラメータサイズは5億、3項重みを使用する。LlamaアーキテクチャとMistral分類器設計をベースにしており、3項重みをサポートするように線形レイヤーが調整されています。このモデルでは、主に...
Second MeはMindverseチームによって開発されたオープンソースプロジェクトで、あなたのコンピューター上に「デジタル・ドッペルゲンガー」のような働きをするAIを作ることができ、あなたの言葉や記憶を通してあなたの話し方や習慣を学習し、あなたを理解するインテリジェントなアシスタントになる。その最大の特徴は、すべてのデータが...
Easy Datasetは、大規模モデル(LLM)の微調整のために特別に設計されたオープンソースツールで、GitHubでホストされています。ユーザーがファイルをアップロードし、コンテンツを自動的にセグメント化し、質問と回答を生成し、最終的にファインチューニングに適した構造化データセットを出力できる、使いやすいインターフェースを提供する。開発者のCona...
MM-EUREKAは、上海交通大学上海人工知能研究所とその他の関係者によって開発されたオープンソースプロジェクトです。ルールベースの強化学習技術により、テキスト推論機能をマルチモーダルシナリオに拡張し、モデルが画像とテキスト情報を処理できるようにする。このツールの主な目的は、画像やテキスト情報を処理するモデルを強化することである。
AI Toolkit by Ostrisは、Stable DiffusionとFLUX.1モデルの学習と画像生成タスクのサポートに焦点を当てたオープンソースのAIツールキットです。開発者のOstrisによって作成・保守され、GitHubでホストされているこのツールキットは、研究者や開発者に柔軟なモデリングを提供することを目的としています。
X-R1は、dhcode-cppチームによってGitHubでオープンソース化された強化学習フレームワークであり、エンドツーエンドの強化学習に基づくモデルをトレーニングするための低コストで効率的なツールを開発者に提供することを目的としている。DeepSeek-R1とopen-r1にインスパイアされたこのプロジェクトは、簡単な...
OpenManus-RLは、UIUC-UlabとMetaGPTコミュニティのOpenManusチームによって共同開発されたオープンソースプロジェクトで、GitHubでホストされている。このプロジェクトは、Deepseek-R1に基づく強化学習(RL)技術によって、大規模言語モデル(LLM)インテリジェンスの推論および意思決定能力を強化する。
トップに戻る