Die folgenden Schlüsseloperationen sind für die Implementierung des kontextabhängigen Speichers erforderlich:
1. der Beitritt zum Speicher
ausnutzenprocess_and_commit_sessionMethoden zum Umgang mit Dialogen:
memory.process_and_commit_session(
"用户说他喜欢拿铁咖啡",
session_id="chat-20230501"
)
Das System analysiert automatisch die Entitäten und Beziehungen im Text, erzeugt Markdown-Dateien und erstellt Git-Commits.
2. kontextbezogene Suche
passieren (eine Rechnung oder Inspektion etc.)get_contextOn-Demand-Zugang zu Hintergrundinformationen:
- Grundmodell(depth="basic"): gibt die Kernattribute der übereinstimmenden Entitäten zurück
- Tiefenmodus(depth="deep"): Enthält die vollständige Datei der betreffenden Entität.
- zeitliches Muster(depth="temporal"): Historie der Änderungen, um diese Informationen mit dem Datensatz zu verbinden
3. die Integration von LLM
Geben Sie die Suchergebnisse als Teil der Systemabfrage ein:
context = memory.get_context("用户的咖啡偏好", depth="deep")
prompt = f"基于以下上下文:{context},请生成回复..."
Diese Kombination ermöglicht ein Dialogsystem mit echtem Langzeitgedächtnis.
Diese Antwort stammt aus dem ArtikelDiffMem: ein Git-basiertes versioniertes Speicher-Repository für KI-IntelligenzenDie
































