LMCacheは、大規模言語モデル(LLM)の推論の効率を改善するために設計されたオープンソースのキー値(KV)キャッシュ最適化ツールです。モデルの中間計算結果をキャッシュして再利用する(キーバリューキャッシュ)ことで、推論時間とGPUリソース消費を大幅に削減します。
FastDeployは、PaddlePaddleチームによって開発されたオープンソースツールで、ディープラーニングモデルの迅速なデプロイに焦点を当てています。FastDeployは、画像、ビデオ、テキスト、音声など20以上のシナリオをカバーし、150以上の主流モデルを含み、幅広いハードウェアとフレームワークをサポートしています。
Webはnuance-devによって開発され、GitHubでホストされているオープンソースのmacOSブラウザプロジェクトです。AppleのWebKitエンジンをベースに、SwiftUIとCombineフレームワークを使用し、MVVMアーキテクチャを採用している。
Transformersは、Hugging Faceによって開発されたオープンソースの機械学習フレームワークであり、テキスト、画像、音声、マルチモーダルタスクの推論と学習をサポートする高度なモデル定義を提供することに重点を置いている。モデルの使用プロセスを簡素化し、PyTorch、Tens ......などの多くの主流の深層学習フレームワークと互換性があります。
Local LLM Notepadは、オープンソースのオフラインアプリケーションで、インターネットに接続することなく、インストールすることなく、USBデバイスを介して、Windowsコンピュータ上でLocal Large Language Modelsを実行することができます。ユーザーは、単一の実行ファイル(EXE)とモデルファイル(GGUF形式など)をUSBスティックにコピーするだけです...
llm.pdfはLarge Language Models (LLM)をPDFファイルで直接実行できるオープンソースプロジェクトです。EvanZhouDevによって開発され、GitHubでホストされているこのプロジェクトは、Emscriptenを介してllama.cppをコンパイルするという革新的なアプローチを示しています。
Aana SDKはMobius Labsによって開発されたオープンソースのフレームワークで、マラヤーラム語のആന(象)にちなんで名付けられました。Aana SDKは、Ray Distributed Computing Frameworkをベースにしています。
BrowserAIは、ユーザーがブラウザ上でネイティブAIモデルを直接実行できるオープンソースツールである。Cloud-Code-AIチームによって開発され、Llama、DeepSeek、Kokoroなどの言語モデルをサポートしている。ユーザーは、サーバーや複雑なセットアップなしで、ブラウザからテキスト生成を行うことができる。
LitServeは、Lightning AIが提供するオープンソースのAIモデルサービスエンジンであり、FastAPI上に構築され、汎用AIモデル向けの推論サービスを迅速に展開することに重点を置いている。大規模言語モデル(LLM)、視覚モデル、音声モデルから古典的な機械学習モデルまで、幅広いシナリオをサポートし、バッチ...
Nexa AIは、ローカルで動作するマルチモーダルAIソリューションに特化したプラットフォームである。自然言語処理(NLP)、コンピュータ・ビジョン、音声認識・生成(ASRとTTS)を含む幅広いAIモデルを提供し、そのすべてをクラウド・サービスに依存することなくローカル・デバイス上で実行することができる。この ...
vLLMは、Large Language Modelling (LLM)のために設計された、高スループットでメモリ効率の良い推論・サービスエンジンである。vLLMの目的は、高速で簡単な推論を提供することである。
Transformers.jsはHugging Faceが提供するJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行できるように設計されている。このライブラリはHugging FaceのPython版トランスフォーマーと互換性があります。
Harborは、コンテナ化された革新的なLLMツールセットで、ローカルAI開発環境のデプロイと管理を簡素化することに重点を置いています。開発者は、クリーンなコマンドラインインターフェイス(CLI)とコンパニオンアプリケーションを使用して、ワンクリックでLLMバックエンド、APIインターフェイス、フロントエンドインターフェイスを含むすべてのAIサービスコンポーネントを起動し、管理することができます。
Xorbits Inference(略してXinference)は、言語モデル、音声認識モデル、マルチモーダルモデルの分散デプロイと配信に特化した、強力で汎用性の高いライブラリです。Xorbits Inferenceを使用すると、ユーザーは独自のモデルやビルトインの高度なモデルを簡単にデプロイして提供することができます。
AI Dev Galleryは、Windows開発者向けに設計されたマイクロソフトのAI開発ツールアプリ(現在パブリックプレビュー中)です。開発者がAI機能をWindowsアプリケーションに簡単に統合するための包括的なプラットフォームを提供する。このツールの最大の特長は、AI機能をWindowsアプリケーションに統合するための包括的なプラットフォームを提供することである。
LightLLMはPythonベースのLarge Language Model(LLM)推論・サービスフレームワークで、軽量設計、拡張の容易さ、効率的なパフォーマンスで知られている。このフレームワークは、FasterTransformer、TGI、vLLM、FlashAtten...などの有名なオープンソースの実装を活用しています。
Transformers.jsは、Hugging Face社によって開発されたJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行することを可能にする。このライブラリはHugging FaceのPython Transformers.jsと互換性があります。
GLM-Edgeは、清華大学(Smart Spectrum Light Language)のエンドサイドデバイス用に設計された大規模言語モデルとマルチモーダル理解モデルのシリーズです。これらのモデルには、GLM-Edge-1.5B-Chat、GLM-Edge-4B-Chat、GLM-Edge-V-2B、GLM-Edge-V-5...が含まれます。
Exoは、身近なデバイス(iPhone、iPad、Android、Mac、Linuxなど)を使って独自のAIクラスターを実行することを目的としたオープンソースプロジェクトである。動的なモデル分割とデバイスの自動検出により、Exoは複数のデバイスを単一の強力なGPUに統合することができ、LLaMA、Mistral...などの複数のモデルをサポートしています。
トップに戻る