
LMCacheは、大規模言語モデル(LLM)の推論の効率を改善するために設計されたオープンソースのキーバリュー(KV)キャッシュ最適化ツールです。LMCacheは、モデルの中間計算結果(キーバリューキャッシュ)をキャッシュして再利用することで、推論時間とGPUリソースの消費量を大幅に削減します。.

FastDeployは、PaddlePaddleチームによって開発された、ディープラーニングモデルの迅速なデプロイに特化したオープンソースツールです。様々なハードウェアやフレームワークをサポートし、画像、ビデオ、テキスト、音声をカバーし、150以上の主流モデルを含む20以上のシナリオをサポートしています。.

Webはnuance-devによって開発され、GitHubでホストされているオープンソースのmacOSブラウザプロジェクトです。AppleのWebKitエンジンをベースに、SwiftUIとCombineフレームワークを使用し、MVVMアーキテクチャを採用している。

Transformersは、Hugging Faceによって開発されたオープンソースの機械学習フレームワークで、テキスト、画像、音声、マルチモーダルなタスクの推論と学習をサポートする高度なモデル定義を提供することに重点を置いている。モデルの使用プロセスを簡素化し、PyTorch、Tensor...などの多くの主流の深層学習フレームワークと互換性があります。.

Local LLM Notepadは、インターネット接続やインストールなしに、USBデバイスを介してWindowsコンピュータ上でLLM(Local Large Language Models)を実行できるオープンソースのオフラインアプリケーションです。ユーザーは、単一の実行ファイル(EXE)とモデルファイル(GGUF形式など)をUSBスティックにコピーするだけで、...

llm.pdfはLarge Language Models (LLM)をPDFファイルで直接実行できるオープンソースプロジェクトです。EvanZhouDevによって開発され、GitHubでホストされているこのプロジェクトは、Emscriptenを介してllama.cppをコンパイルするという革新的なアプローチを示しています。

Aana SDKはMobius Labsによって開発されたオープンソースのフレームワークで、マラヤーラム語のആന(象)にちなんで名付けられました。Aana SDKは、Ray Distributed Computing Frameworkをベースにしています。

BrowserAIは、ユーザーがブラウザ上でネイティブAIモデルを直接実行できるオープンソースツールである。Cloud-Code-AIチームによって開発され、Llama、DeepSeek、Kokoroなどの言語モデルをサポートしている。ユーザーは、サーバーや複雑なセットアップなしで、ブラウザからテキスト生成を行うことができる。

LitServeは、Lightning AIが提供するオープンソースのAIモデルサービスエンジンであり、FastAPI上に構築され、汎用AIモデル向けの推論サービスを迅速に展開することに重点を置いている。大規模言語モデル(LLM)、視覚モデル、音声モデルから古典的な機械学習モデルまで、幅広いシナリオをサポートし、バッチ...

Nexa AIは、ローカルで動作するマルチモーダルAIソリューションに特化したプラットフォームである。自然言語処理(NLP)、コンピュータ・ビジョン、音声認識・生成(ASRとTTS)を含む幅広いAIモデルを提供し、そのすべてをクラウド・サービスに依存することなく、デバイス上でローカルに実行することができる。これにより、データのプライバシーとセキュリティが向上するだけでなく...

vLLMは、Large Language Modelling (LLM)のために設計された、高スループットでメモリ効率の良い推論エンジンおよびサービスエンジンである。vLLMは、高速で使いやすく、費用対効果の高いL...

Transformers.jsはHugging Faceが提供するJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行できるように設計されている。このライブラリはHugging FaceのPython版トランスフォーマーと互換性があります。

Harborは、ローカルAI開発環境のデプロイと管理を簡素化することに焦点を当てた、画期的なコンテナ化LLMツールセットです。開発者は、簡潔なコマンドラインインターフェイス(CLI)とサポートアプリケーションを使用して、ワンクリックでLLMバックエンド、APIインターフェイス、フロントエンドインターフェイスを含むすべてのAIサービスコンポーネントを起動し、管理することができます。オープンソースプロジェクトとして、H...

Xorbits Inference(略してXinference)は、言語モデル、音声認識モデル、マルチモーダルモデルの分散デプロイと配信に特化した、強力で汎用性の高いライブラリです。Xorbits Inferenceを使用すると、ユーザーは独自のモデルやビルトインの高度なモデルを簡単にデプロイして提供することができます。

AI Dev Galleryは、Windows開発者向けに設計されたマイクロソフトのAI開発ツールアプリ(現在パブリックプレビュー中)です。開発者がAI機能をWindowsアプリケーションに簡単に統合するための包括的なプラットフォームを提供する。このツールの最大の特徴は、25以上のAI機能を提供することだ。.

LightLLMはPythonベースのLarge Language Model(LLM)推論・サービスフレームワークで、軽量設計、拡張の容易さ、効率的なパフォーマンスで知られている。このフレームワークは、FasterTransformer、TGI、vLLM、FlashAtten...などの有名なオープンソースの実装を活用しています。

Transformers.jsは、Hugging Face社によって開発されたJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行することを可能にする。このライブラリはHugging FaceのPython Transformers.jsと互換性があります。

GLM-Edgeは、清華大学(Smart Spectrum Light Language)のエンドサイドデバイス用に設計された大規模言語モデルとマルチモーダル理解モデルのシリーズです。これらのモデルには、GLM-Edge-1.5B-Chat、GLM-Edge-4B-Chat、GLM-Edge-V-2B、GLM-Edge-V-5...が含まれます。

Exoは、身近なデバイス(iPhone、iPad、Android、Mac、Linuxなど)を使って独自のAIクラスターを実行することを目的としたオープンソースプロジェクトである。動的なモデル分割とデバイスの自動検出により、Exoは複数のデバイスを単一の強力なGPUに統合することができ、LLaMA、Mistral...などの複数のモデルをサポートしています。
トップに戻る

