实现Core与LLM的深度集成需要遵循以下技术路径:
- Umgebung Konfiguration:在Rule配置文件中设置mcpServers参数,指定API终端和认证令牌
- 对话捕获:通过User Rules定义触发条件,典型配置包含:
- command: 设置记忆处理命令(npx执行器)
- args: 指定核心功能模块(@redplanethq/core-mcp)
- env: 配置API_TOKEN等关键环境变量
- Sitzungsmanagement:为每个对话线程分配唯一sessionId,确保上下文关联性
- Datensynchronisation:自动将prompt-engineeing过程(用户提问+模型响应)同步到记忆图谱
当前版本对Llama系列模型支持有限,建议优先集成GPT、Claude等主流模型。集成后可实时在Graph界面查看生成的记忆拓扑,或通过/search端点进行语义检索。
Diese Antwort stammt aus dem ArtikelCore: ein Werkzeug zur personalisierten Speicherung großer ModelleDie