海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

Lossless Claw是由Martian Engineering开发的一款专为OpenClaw智能体设计的无损上下文管理(LCM)开源插件。基于Voltropy的LCM研究论文,它旨在解决智能体在长对话或运行过夜工作流时因“滑动窗口”机制导致的历史记忆丢失问题。该插件通过拦截即将溢出上下文窗口的消息,将其原封不动地永久存入本地SQLite数据库中;同时调用大模型将历史记录提取为有向无环图(DAG)形式的层级摘要。在后续的会话中,插件会将高级摘要与近期消息结合,使整体Token数量始终保持在安全范围内。此外,它为智能体提供了专属检索工具,允许AI随时穿透摘要层,精准回调和阅读最初始的对话细节,赋予智能体真正的长期记忆能力。

功能列表

  • 全量消息本地持久化:告别滑动窗口裁剪,将会话中产生的每一条原始消息以精确的原始文本完整、永久地保存在本地SQLite数据库中,确保100%零数据丢失。
  • DAG层级摘要自动生成:利用用户配置的大语言模型,自动将较旧的消息分块并提炼成摘要。随着信息堆积,摘要会进一步凝练成有向无环图(DAG)的层次结构。
  • 动态上下文智能组装:在每轮对话生成前,自动将结构化的历史摘要与最近的原始消息进行混合拼接,在维持长期记忆脉络的同时,严守当前大模型的Token上限。
  • 深层细节穿透与回调功能:内置特色检索工具箱(lcm_greplcm_describelcm_expand),使得智能体可以像查阅档案一样,通过摘要链接追踪并提取最原始的历史对话记录。
  • 灵活的底层大模型配置:支持通过环境变量或插件配置文件,为“记忆摘要”任务独立指定不同于主对话的模型或提供商,从而优化API调用成本。

使用帮助

🚀 核心机制剖析:告别AI“选择性失忆”

在深入配置和使用之前,理解Lossless Claw的底层运行逻辑是十分必要的。在使用OpenClaw等AI智能体时,随着对话的深入和任务的累积,上下文Token数量会迅速逼近大语言模型的物理限制。默认状态下,系统会采用“滑动窗口(Sliding Window)”策略——当窗口塞满时,最旧的消息会被直接截断并永久丢弃。这就导致了如果您的智能体彻夜运行,它在第二天早晨便会彻底忘记前一天设定的系统配置或讨论过的核心逻辑。

Lossless Claw通过引入**无损上下文管理(LCM)**架构从根本上解决了这一痛点:

  1. 数据拦截与落盘:它在旧消息被丢弃前进行拦截,将其100%完整地写入本地计算机的SQLite数据库中。
  2. 记忆图谱构建:在后台悄悄呼叫指定的模型,将旧消息打包提炼为摘要,并把摘要堆叠成有向无环图(DAG)结构。
  3. 记忆穿透:由于摘要与数据库中的原始消息存在映射关系,当AI需要回忆某个细节时,可以通过内置工具顺藤摸瓜,将原始数据“拉取”回当前的激活窗口中。

🛠️ 安装流程:从零开始接入无损记忆

1. 确认前置运行环境
在安装插件前,请务必检查您的本地工作站或云服务器是否满足以下基础环境要求:

  • 已安装并可稳定运行的 OpenClaw,并且当前版本必须支持插件上下文引擎(Plugin Context Engine Support)。
  • 系统已安装 Node.js,且版本需达到 22 或以上
  • OpenClaw 系统内已经成功配置了至少一个可用的底层大语言模型(LLM Provider),该模型后续将作为摘要生成的算力引擎。

2. 生产环境常规安装
我们推荐使用 OpenClaw 官方自带的插件安装器进行一键集成。打开您的终端终端或命令行工具,输入以下命令:

openclaw plugins install @martian-engineering/lossless-claw

注:如果您目前是通过克隆 OpenClaw 源码在本地执行(Local Checkout),请使用 pnpm 包管理器执行对应命令:

pnpm openclaw plugins install @martian-engineering/lossless-claw

3. 开发者本地调试安装(可选)
如果您打算对 Lossless Claw 的源码进行二次开发,或者进行特定环境的适配,可以将您的本地代码副本以软链接的形式接入到 OpenClaw 中,这有利于实时热更新代码:

openclaw plugins install --link /path/to/lossless-claw

⚙️ 环境配置:定制您的记忆压缩引擎

Lossless Claw 的灵活之处在于,您可以单独为“摘要生成”任务指定模型。由于后台压缩记忆需要消耗大量Token,您可以为主任务使用性能最强、价格昂贵的模型(如GPT-4o或Claude 3.5 Sonnet),而为压缩任务配置性价比更高的模型(如Gemini 1.5 Flash)。

模型回退与匹配优先级
对于压实记忆(Compaction)任务,插件会按照以下严格的优先级次序寻找模型配置参数:

  1. 环境变量(最高优先级,推荐配置):LCM_SUMMARY_MODEL / LCM_SUMMARY_PROVIDER
  2. 插件配置文件:OpenClaw 插件 JSON 配置项中的 summaryModel / summaryProvider 字段。
  3. OpenClaw 全局默认模型:如果没有进行特殊指定,插件将自动回退调用 OpenClaw 系统配置的默认记忆压缩模型。
  4. 遗留的单次调用参数(Legacy hints)

配置示例:注入环境变量
以 Linux/macOS 环境为例,您可以在启动 OpenClaw 前端或后台服务之前,在终端注入以下环境变量,让摘要任务挂载到指定的高效模型上:

export LCM_SUMMARY_PROVIDER="google"
export LCM_SUMMARY_MODEL="gemini-1.5-flash"
openclaw start

🧠 智能体专有检索工具:如何实现跨周期回忆?

插件一旦安装并启用,作为人类用户,您无需在界面上进行繁琐的按钮操作。Lossless Claw 遵循“无感运行”原则,自动管理底层数据。但最核心的变化在于,OpenClaw 智能体的函数库中会自动注入以下三个极其强大的记忆检索工具。为了让智能体表现更佳,您可以在项目初始的 Prompt 中提示它遇到不确定的历史信息时主动调用这些工具:

  • 全局模糊搜索(lcm_grep
    当智能体需要回忆某个特定的配置参数、曾经讨论过的报错日志或某个代码片段时,它可以调用此工具,在 SQLite 数据库内所有的历史原始消息中进行精准或正则搜索。
  • 摘要大纲速览(lcm_describe
    若智能体需要了解过去几天项目的宏观进度,它可以通过此工具调阅当前会话的 DAG 摘要拓扑结构。这让AI能够快速阅读高维度的核心脉络,而无需消耗海量Token去读取所有的废话。
  • 细节穿透展开(lcm_expand
    这是无损还原功能的杀手锏。当智能体在 lcm_describe 的大纲中看到一条“周三:决定了网络架构的安全组策略”的节点,且当前恰好需要这些策略代码时,智能体只需调用 lcm_expand 并传入该摘要节点的系统ID。Lossless Claw 会瞬间从数据库提取周三当天的原版对话记录,一字不差地无缝插入到智能体当前的工作记忆中。

⚠️ 高级防坑指南:会话保活与生命周期管理

大量新手用户在安装插件后,仍然会抱怨“我的智能体怎么还是失忆了?”。请注意,这往往不是插件发生了故障,而是触发了 OpenClaw 本身的 会话重置策略(Session Reset Policy)

Lossless Claw 负责在单次冗长的会话中“无损压缩并保留”上下文,但它本身不具备权限去干涉和阻断 OpenClaw 全局的超时中断规则。如果您的系统设置了较短的空闲时间后自动清空会话重启,那么附着于该会话上的记忆图谱也会被随之封存,新会话依然是从零开始。

终极解决方案
请务必修改 OpenClaw 的核心配置文件,调整会话生命周期参数:

  1. 找到重置模式设置,将 session.reset.mode 的值修改为 "idle"(即基于空闲时间计算,只要保持运转,会话就永不中断)。
  2. 大幅上调 session.reset.idleMinutes 的数值。这是一个以分钟为单位的整数型参数。如果您希望智能体执行跨日甚至跨周期的持续跟进任务,请将其设定为一个足够庞大的数字(例如将其设置为 10080,代表系统允许长达一整周的静默空闲期而不切断会话)。

只要按照上述指南完成环境与配置的搭建,您的 OpenClaw 将彻底完成蜕变,成为一个无惧Token上限、真正意义上“过目不忘”的超强数字化个人助理。

应用场景

  1. 自动化过夜工作流运行
    当智能体被安排在夜间独立处理海量日志分析、任务分发与进度跟踪时,对话轮次极多。该插件防止智能体在次日早晨因窗口占满而丢失前期指令,确保任务逻辑连贯不崩塌。
  2. 长期复杂项目与代码管理
    在进行跨度数周的软件研发中,智能体需要记住早期决定的架构设计、数据库表结构和API规范。插件通过将历史设计完整落盘并构建摘要,让AI在后续编码时随时精准回调架构规范。
  3. 持续性客户支持与对接
    利用OpenClaw处理客户跟进服务时,历史的沟通细节、客户的特殊诉求以及曾经作出的承诺极其重要。该插件让AI能够跨越数千条对话记录,准确追溯与特定客户的原始沟通细节。

QA

  1. Q: 使用Lossless Claw后,历史记录的保存会泄露给外部服务器吗?
    A: 完全不会。所有的历史聊天记录都以明文原始数据的形式,永久、强制性地保存在运行该插件的本地计算机(或服务器)上的SQLite数据库中。除了您配置的摘要生成请求会发送给LLM外,不会向任何第三方云端传输全量对话数据,极大地保证了隐私与安全。
  2. Q: 为什么我安装了该插件,第二天我的智能体还是丢失了记忆?
    A: 这通常是因为OpenClaw默认的会话闲置重置机制被触发。Lossless Claw负责记忆压实,但不改变原生会话时长限制。您需要进入OpenClaw配置,将session.reset.mode设定为"idle",并大幅增加session.reset.idleMinutes的时间值(以分钟为单位)。
  3. Q: 运行摘要生成机制会产生额外的API消耗吗?
    A: 会的。由于插件需要调用大语言模型将累积的旧消息转化并提炼为有向无环图(DAG)节点摘要,这个过程不可避免地会产生Token费用。建议通过环境变量为摘要任务单独配置极具性价比的模型(如Gemini 1.5 Flash或Claude 3 Haiku)以降低运作成本。
0已收藏
0已赞
🍐 鸭梨AI文章智能写手
选题→写作→发布
全自动!
WordPress AI 写作插件
500+ 内容创作者在用
🎯智能选题:批量生成,告别枯竭
🧠检索增强:联网+知识库,有深度
全程自动:写作→配图→发布
💎永久免费:免费版 = 付费版,无限制
🔥 立即免费下载插件
✅ 永久免费 · 🔓 100% 开源 · 🔒 数据本地存储

相关推荐

找不到AI工具?在这试试!

输入关键词,无障碍访问必应搜索,快速找到本站 AI 工具。

回顶部