memOSは、大規模言語モデル(Large Language Models: LLM)のメモリ拡張に特化したオープンソースシステムです。memOSは、マルチホップ推論、オープンドメインQ&A、時間推論などのタスクに優れており、時間推論の精度を1,59%向上させるなど、従来のモデルに比べて大幅な性能向上を実現しています。Linuxプラットフォームをサポートしており、開発者による統合や拡張が容易で、よりスマートなAIアプリケーションの構築に適しています。Linuxプラットフォームをサポートし、開発者にとって統合や拡張が容易であるため、よりスマートなAIアプリケーションの構築に適している。このプロジェクトはGitHubで活発に活動しており、コミュニティが幅広くサポートしている。開発者はGitHub Issues、Discussions、Discordを通じて貢献することができる。
機能一覧
- Memory Augmented Generation (MAG): コンテキスト記憶と連動したモデルによるチャットや推論をサポートする統一APIインターフェースを提供。
- モジュラー・メモリ・アーキテクチャ(MemCube):開発者がカスタマイズして拡張できるように、複数のメモリ・タイプを柔軟に管理。
- テキスト・メモリー管理:構造化または非構造化テキスト知識の保存と検索をサポートし、知識の迅速な更新に適しています。
- メモリスケジューリング機構:長いコンテキストのタスクでモデルのパフォーマンスを最適化するために、メモリリソースを動的に割り当てます。
- バージョン管理とガバナンス:アクセス管理、トレーサビリティ、メモリの解釈を提供し、セキュリティコンプライアンスを確保する。
- 複数のLLM統合をサポート:主流の大規模言語モデルと互換性があり、そのメモリ機能を強化します。
- コミュニティコラボレーションツール:GitHub Issues、Pull Requests、Discordを通じて、開発者の貢献や交流をサポートします。
ヘルプの使用
設置プロセス
MemOSは現在Linuxプラットフォームをサポートしており、WindowsとmacOSは互換性の問題があるかもしれません。以下は、詳細なインストール手順です:
- クローン倉庫
Gitを使って、MemOSリポジトリをローカルにクローンする:git clone https://github.com/MemTensor/MemOS.git cd MemOS
- 依存関係のインストール
以下のコマンドを実行し、MemOSをインストールする(編集可能モードを推奨):make install
Pythonと関連する依存関係がシステムにインストールされていることを確認してください。Pythonシステムが
transformers
ライブラリのPyTorchをインストールする必要があり、GPUアクセラレーションにはCUDA対応版を推奨する:pip install torch
- Ollamaをインストールする(オプション)
とコミュニケーションを取る必要がある場合 オーラマ 統合には、まずOllama CLIをインストールする必要があります:curl -fsSL https://ollama.com/install.sh | sh
- インストールの確認
インストールが完了したら、サンプルコードを実行するか、ドキュメントを確認することで、成功を確認することができます。ドキュメントのパスは
docs/api/info
またはオンライン・ドキュメントにアクセスしてください:https://memos.openmem.net/docs/api/info.
使用方法
MemOSの中核的な機能は、APIコールを通じてメモリ増強生成とメモリ管理を実現することである。以下に、主要機能の詳細な動作フローを示す:
1.メモリ増強世代(MAG)
MemOSは統一されたAPIインターフェイスを提供し、開発者は以下の手順でメモリ拡張チャットや推論を実装することができます:
- MemOSの初期化
Python環境にMemOSライブラリをインポートし、初期化する:from memos import MemoryAugmentedGeneration mag = MemoryAugmentedGeneration(model="gpt-4o-mini") # 示例模型
- メモリーの追加
ユーザーの入力やコンテキスト情報をメモリとして保存する:mag.add_memory(user_id="user1", content="用户喜欢科技新闻")
- 返信を作成する
APIを呼び出して、思い出を組み合わせたレスポンスを生成する:response = mag.generate(query="推荐一些科技新闻", user_id="user1") print(response)
MemOSは、"ユーザーは技術系のニュースが好き "といった保存された記憶に基づいて、よりパーソナライズされた応答を生成する。
2.テキスト・メモリ管理
MemOSはテキスト知識の保存と検索をサポートしており、知識ベースの迅速な更新に適しています:
- 保存テキストメモリー
構造化または非構造化テキストを保存するには、APIを使用します:mag.store_text_memory(content="2025年AI趋势:记忆增强技术", tags=["AI", "趋势"])
- 記憶を呼び起こす
クエリに基づいて関連する記憶を検索する:results = mag.search_memory(query="AI趋势", limit=3) for result in results: print(result["content"])
3.メモリのスケジューリングと最適化
MemOSのMemSchedulerは、メモリリソースを動的に管理するため、開発者が手動で設定する必要がありません。デフォルトでは、タスクのタイプ(マルチホップ推論や時間推論など)に基づいて、メモリリソースが自動的に割り当てられます。スケジューリングをカスタマイズする必要がある場合は、設定ファイルを使用して調整できます:
config/scheduler.yaml
4.コミュニティとの協力
MemOSは、開発者がコミュニティ貢献活動に参加することを奨励しています:
- ご質問や機能リクエストの送信GitHubのIssuesページでバグを報告したり、新機能を提案してください。
- コードを投稿するGitHub Pull Requestsでコードの改良を提出してください。
- ディスカッションに参加するGitHub DiscussionsやDiscordサーバーで開発者とコミュニケーションをとることができます。
注目の機能操作
MemOSは、時間推論とマルチホップ推論タスクに優れています。例えば、時間推論では、開発者は以下の方法でテストできます:
mag.add_memory(user_id="test", content="2024年10月,AI会议召开")
mag.add_memory(user_id="test", content="2025年1月,新模型发布")
response = mag.generate(query="AI会议后发生了什么?", user_id="test")
print(response) # 输出:新模型发布
これは、記憶が時系列で正確に検索されるようにするメムキューブアーキテクチャによって実現されている。
アプリケーションシナリオ
- パーソナライズされたAIアシスタント
MemOSは、AIアシスタントに長期記憶を追加することができ、ユーザーの好み(好きなニュースの種類や買い物の習慣など)を記憶して、より正確な推奨や回答を提供することができる。
例えば、開発者はeコマース・プラットフォーム向けに、ユーザーの購入履歴を記憶してユーザー体験を向上させるチャットボットを構築することができる。 - ナレッジ・マネジメント・システム
MemOSのテキストメモリー管理機能は、ドキュメント、レポート、技術情報を素早く保存し、取り出すための社内ナレッジベースを構築する組織に最適です。
例えば、技術チームはMemOSを使ってプロジェクト文書を管理し、部門を超えたコラボレーションを促進することができます。 - 教育・研究
MemOSは、研究者が実験データや文献記録を保存・分析し、複雑な質問に答えるためのマルチホップ推論をサポートします。
例えば、学生はMemOSを使ってコースのノートを整理し、関連する知識を素早く取り出すことができる。
品質保証
- MemOSがサポートしているプラットフォームは?
現在、主にLinuxをサポートしており、WindowsとmacOSは互換性の問題がある可能性があります。Linux環境での使用を推奨します。 - 特定のLLMは必要ですか?
MemOSは幅広い大規模言語モデルをサポートしており、デフォルトではOpenAIのgpt-4o-mini
しかし、他のモデルもドキュメントに基づいて設定することができる。 - MemOSの開発に参加するには?
GitHub Issuesで問題を報告したり、Pull Requestを提出してコードに貢献したり、Discordのコミュニティディスカッションに参加したりできます。 - MemOSのパフォーマンス上の利点は何ですか?
従来のモデルと比較して、MemOSは時間推論を1591 TP3T改善し、全体的な精度を38.981 TP3T改善し、時間推論のTP3Tを60.951 TP3T削減した。 トークン 消費。