海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

Core 是由 RedPlanetHQ 开发的一个开源工具,旨在为大模型(LLM)提供个性化的记忆存储功能。用户可以通过 Core 构建和管理自己的记忆图谱,将文本、对话或其他数据保存到私有的知识库中。这个工具支持将用户与大模型的交互记录存储下来,形成结构化的记忆节点,方便后续查询或连接到其他工具。Core 的设计理念是简单易用,适合开发者和普通用户。它通过直观的仪表板操作,支持本地部署和云服务,满足不同用户的需求。项目目前处于活跃开发阶段,特别针对大模型的记忆优化持续改进。

Core:为大模型提供个性化记忆存储的工具-1

功能列表

  • 记忆存储:将用户输入的文本或对话保存到私有的知识图谱。
  • 知识图谱生成:自动将输入内容转化为结构化的记忆节点,方便检索。
  • 仪表板管理:提供可视化界面,查看和管理记忆图谱的节点和状态。
  • 支持本地和云端部署:用户可以选择在本地运行或使用 Core Cloud 服务。
  • 与大模型集成:支持与多种大模型对接,存储交互记录。
  • 日志监控:实时查看记忆处理的日志,了解数据处理状态。
  • 开源项目:用户可以自由获取代码,参与开发或定制功能。

使用帮助

安装流程

要使用 Core,首先需要安装并配置环境。以下是详细的安装和使用步骤:

  1. 克隆仓库
    • 打开终端,运行以下命令克隆 Core 仓库:
      git clone https://github.com/RedPlanetHQ/core.git
      
    • 进入项目目录:
      cd core
      
  2. 安装依赖
    • Core 使用 Node.js 环境,建议安装最新版本的 Node.js(推荐 16.x 或更高)。
    • 安装依赖包:
      npm install
      
  3. 配置环境变量
    • 在项目根目录创建一个 .env 文件,添加以下内容:
      API_TOKEN=YOUR_API_TOKEN_HERE
      API_BASE_URL=https://core.heysol.ai
      SOURCE=cursor
      
    • API_TOKEN 需要从 Core Cloud 官网(https://core.heysol.ai)注册账号后获取。
  4. 运行本地服务
    • 启动 Core 的内存控制面板(MCP):
      npx -y @redplanethq/core-mcp
      
    • 服务启动后,打开浏览器,访问 http://localhost:3000
  5. 使用 Core Cloud(可选)
    • 如果选择云服务,访问 https://core.heysol.ai,注册并登录账号。
    • 在云端仪表板中直接管理记忆,无需本地部署。

主要功能操作

1. 添加记忆

  • 操作步骤
    • 登录仪表板(本地或云端)。
    • 在右上角的输入框中,输入想保存的文本,例如“我喜欢打羽毛球”。
    • 点击“+Add”按钮,文本将被发送到处理队列。
    • 在“Logs”页面查看处理状态,完成后,记忆节点会显示在仪表板中。
  • 功能说明
    • 每次添加的文本会自动生成一个记忆节点,节点包含文本内容和元数据(如时间戳)。
    • 这些节点可以连接形成知识图谱,方便后续查询或分析。

2. 查看和管理记忆

  • 操作步骤
    • 打开仪表板的“Graph”页面,查看所有记忆节点。
    • 点击某个节点,可以查看详细内容或编辑。
    • 支持搜索功能,输入关键词快速定位相关记忆。
  • 功能说明
    • 仪表板提供可视化的知识图谱,节点之间的关系一目了然。
    • 用户可以手动调整节点连接,或删除不需要的记忆。

3. 与大模型集成

  • 操作步骤
    • 在设置页面,添加规则以自动保存大模型对话:
      • 打开“Settings” -> “User rules” -> “New Rule”。
      • 添加规则,确保每次对话后,用户的查询和模型的响应存储到 Core 记忆中。
      • 设置 sessionId 为对话的唯一标识符(UUID)。
    • 示例规则配置:
      {
      "mcpServers": {
      "memory": {
      "command": "npx",
      "args": ["-y", "@redplanethq/core-mcp"],
      "env": {
      "API_TOKEN": "YOUR_API_TOKEN_HERE",
      "API_BASE_URL": "https://core.heysol.ai",
      "SOURCE": "cursor"
      }
      }
      }
      }
      
  • 功能说明
    • Core 自动捕获用户与大模型的交互,存储为结构化数据。
    • 支持多种大模型,但目前对 Llama 模型的支持还在优化中,未来会有更好的兼容性。

4. 日志监控

  • 操作步骤
    • 打开仪表板的“Logs”页面。
    • 查看实时的处理日志,包括记忆添加、处理状态和错误信息。
  • 功能说明
    • 日志功能帮助用户监控数据处理流程,确保数据存储的可靠性。
    • 如果处理失败,日志会提供错误详情,方便排查问题。

注意事项

  • 本地部署:确保网络稳定,端口 3000 未被占用。
  • 云服务:需要稳定的 API 密钥,定期检查密钥有效性。
  • Llama 模型支持:目前 Core 对 Llama 模型的兼容性有限,建议使用其他主流模型以获得最佳效果。
  • 社区支持:Core 是开源项目,遇到问题可以在 GitHub 提交 issue 或加入社区讨论。

应用场景

  1. 个人知识管理
    • 用户可以用 Core 保存日常学习笔记、灵感或重要对话,形成个人知识库。例如,学生可以将课堂笔记保存为记忆节点,方便复习。
  2. 开发者调试大模型
    • 开发者可以记录与大模型的交互,分析模型输出,优化提示词(prompt)设计。例如,调试一个聊天机器人时,Core 可以保存所有测试对话。
  3. 团队协作
    • 团队成员可以通过 Core Cloud 共享记忆图谱,协作构建项目知识库。例如,产品团队可以将用户反馈存入 Core,生成需求分析图谱。
  4. 研究辅助
    • 研究人员可以将文献摘要或实验数据保存到 Core,形成结构化的研究记忆,方便后续分析和引用。

QA

  1. Core 支持哪些大模型?
    • Core 目前支持多种主流大模型,但对 Llama 模型的兼容性还在优化中。建议使用其他模型以获得最佳效果。
  2. 本地部署和云服务的区别是什么?
    • 本地部署需要手动配置环境,适合需要隐私的场景;云服务无需安装,开箱即用,适合快速上手。
  3. 如何确保记忆数据的安全性?
    • 本地部署的记忆数据存储在用户设备上,安全性由用户控制;云服务使用加密传输,API 密钥确保数据访问安全。
  4. Core 是否完全免费?
    • Core 是开源项目,本地部署免费;云服务可能涉及订阅费用,具体需查看官网定价。
0已收藏
0已赞

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

邮箱

联系我们

回顶部

zh_CN简体中文