Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O Lossless Claw é um plug-in de gerenciamento de contexto sem perdas (LCM) de código aberto para inteligências OpenClaw desenvolvido pela Martian Engineering. Com base no artigo de pesquisa LCM da Voltropy, ele foi projetado para resolver o problema da perda de memória histórica causada pelo mecanismo de “janela deslizante” quando as inteligências estão em longas conversas ou executando fluxos de trabalho durante a noite. O plug-in intercepta mensagens que estão prestes a ultrapassar a janela de contexto e as armazena permanentemente intactas em um banco de dados SQLite local; ele também invoca um modelo grande para extrair o histórico como um resumo hierárquico na forma de um gráfico acíclico direcionado (DAG). Em sessões subsequentes, o plug-in combina o resumo de alto nível com mensagens recentes para que a contagem geral de tokens seja sempre mantida dentro de limites seguros. Além disso, ele fornece ferramentas de recuperação exclusivas para inteligências, permitindo que a IA penetre na camada de resumo a qualquer momento para recuperar e ler com precisão os detalhes mais iniciais do diálogo, capacitando as inteligências com verdadeiros recursos de memória de longo prazo.

Lista de funções

  • Persistência local de mensagens completasSe você não tiver uma janela deslizante, poderá salvar todas as mensagens originais geradas durante uma sessão em texto bruto exato no banco de dados SQLite local de forma completa e permanente, garantindo zero perda de dados para o 100%.
  • Geração automática de resumos hierárquicos DAGUso de um modelo de linguagem grande configurado pelo usuário: usando um modelo de linguagem grande configurado pelo usuário, as mensagens mais antigas são automaticamente divididas em pedaços e destiladas em resumos. À medida que as mensagens se acumulam, os resumos são ainda mais condensados em uma estrutura hierárquica de gráficos acíclicos direcionados (DAGs).
  • Montagem inteligente com contexto dinâmicoEmenda automática de resumos históricos estruturados com mensagens brutas recentes antes de cada rodada de geração de diálogo, mantendo um pulso de memória de longo prazo e, ao mesmo tempo, aderindo estritamente ao limite atual de tokens do modelo maior.
  • Penetração profunda de detalhes e funcionalidade de retorno de chamadaKit de ferramentas de pesquisa de especialidades incorporado (lcm_greplcm_describelcm_expand), permitindo que as inteligências rastreiem e extraiam as transcrições de diálogos históricos mais originais por meio de links de resumo, como se estivessem acessando um arquivo.
  • Configuração flexível de modelos grandes subjacentesSuporte para otimizar os custos de chamadas de API atribuindo de forma independente um modelo ou provedor diferente do diálogo principal à tarefa de resumo de memória, por meio de variáveis de ambiente ou perfis de plug-in.

Usando a Ajuda

🚀 Dissecação do mecanismo principal: adeus à “amnésia seletiva” da IA”

Antes de mergulhar na configuração e no uso, é essencial entender a lógica operacional subjacente do Lossless Claw. Ao usar inteligências de IA, como o OpenClaw, o número de tokens contextuais se aproxima rapidamente dos limites físicos do modelo de linguagem maior à medida que o diálogo progride e as tarefas se acumulam. Por padrão, o sistema emprega uma estratégia de “janela deslizante” - quando a janela está cheia, as mensagens mais antigas são simplesmente truncadas e descartadas permanentemente. Isso leva ao fato de que, se a sua inteligência for executada durante toda a noite, na manhã seguinte ela terá esquecido tudo sobre a configuração do sistema ou a lógica central discutida no dia anterior.

O Lossless Claw aborda fundamentalmente esse ponto problemático, introduzindo a arquitetura **Lossless Context Management (LCM) **:

  1. Interceptação e queda de dadosIntercepta mensagens antigas antes que elas sejam descartadas, gravando-as intactas no banco de dados SQLite do computador local.
  2. Construção de mapeamento de memóriaChamada silenciosa do modelo especificado em segundo plano para empacotar e destilar mensagens antigas em resumos e empilhar os resumos em uma estrutura de gráfico acíclico direcionado (DAG).
  3. penetração de memóriaComo o resumo é mapeado para a mensagem original no banco de dados, quando a IA precisa recuperar um detalhe, ela pode usar as ferramentas integradas para seguir a trilha e “puxar” os dados originais de volta para a janela de ativação atual.

🛠️ Processo de instalação: acessando a memória sem perdas do zero

1. confirmação do ambiente pré-operacional
Antes de instalar o plug-in, certifique-se de verificar se a estação de trabalho local ou o servidor em nuvem atende aos seguintes requisitos básicos de ambiente:

  • Instalado e estável OpenClawe a versão atual deve ser compatível com o Plugin Context Engine Support.
  • O Node.js está instalado no sistema e deve estar atualizado com a versão de 22 ou mais
  • Pelo menos um modelo de linguagem grande (provedor de LLM) subjacente disponível foi configurado com êxito no sistema OpenClaw, que será usado posteriormente como o mecanismo aritmético para a geração de resumos.

2. instalações de rotina em ambientes de produção
Recomendamos usar o instalador oficial do plug-in que vem com o OpenClaw para integração com um clique. Abra seu terminal ou ferramenta de linha de comando e digite o seguinte comando:

openclaw plugins install @martian-engineering/lossless-claw

Observação: se você estiver executando o OpenClaw localmente clonando o código-fonte do OpenClaw (Checkout local), use o gerenciador de pacotes pnpm para executar o comando correspondente:

pnpm openclaw plugins install @martian-engineering/lossless-claw

3. instalação de depuração local do desenvolvedor (opcional)
Se você pretende desenvolver o código-fonte do Lossless Claw ou adaptá-lo a um ambiente específico, poderá vincular sua cópia local do código ao OpenClaw, o que facilita a atualização do código em tempo real:

openclaw plugins install --link /path/to/lossless-claw

⚙️ Configuração do ambiente: personalizando seu mecanismo de compactação de memória

A flexibilidade do Lossless Claw é que você pode especificar um modelo apenas para a tarefa de “geração de resumo”. Como as memórias de compressão em segundo plano consomem muitos tokens, você pode usar o modelo mais avançado e caro para a tarefa principal (por exemplo, GPT-4o ou Claude 3.5 Sonnet) e configurar um modelo mais econômico para a tarefa de compressão (por exemplo, Gemini 1.5 Flash).

Modelo de fallback e prioridades de correspondência
Para a tarefa de memória de compactação (Compaction), o plug-in procura os parâmetros de configuração do modelo na seguinte ordem estrita de prioridade:

  1. variável de ambiente(prioridade mais alta, configuração recomendada):LCM_SUMMARY_MODEL / LCM_SUMMARY_PROVIDER
  2. Perfis de plug-inItem de configuração JSON do plug-in OpenClaw no summaryModel / summaryProvider Campos.
  3. Modelo padrão global do OpenClawSe não for especificado especificamente, o plug-in voltará automaticamente a invocar o modelo de compactação de memória padrão configurado pelo sistema OpenClaw.
  4. Parâmetros de chamada única herdados (dicas herdadas)

Exemplo de configuração: injeção de variáveis de ambiente
Tomando o ambiente Linux/macOS como exemplo, você pode injetar as seguintes variáveis de ambiente no terminal antes de iniciar o serviço de front-end ou back-end do OpenClaw para permitir que a tarefa de resumo seja montada no modelo eficiente especificado:

export LCM_SUMMARY_PROVIDER="google"
export LCM_SUMMARY_MODEL="gemini-1.5-flash"
openclaw start

Ferramentas inteligentes de recuperação específicas do corpo: como permitir a recuperação entre ciclos?

Depois que o plug-in é instalado e ativado, não há necessidade de você, como usuário humano, realizar operações complicadas com botões na interface, e o Lossless Claw gerencia os dados subjacentes automaticamente, seguindo o princípio da “operação sem sentido”. Mas a principal mudança é que a biblioteca de inteligência do OpenClaw é automaticamente injetada com três ferramentas de recuperação de memória extremamente poderosas. Para melhorar o desempenho do corpo inteligente, você pode solicitá-lo no Prompt inicial do projeto a invocar proativamente essas ferramentas quando encontrar informações históricas incertas:

  • Pesquisa fuzzy global (lcm_grep
    Quando uma inteligência precisa recuperar um parâmetro de configuração específico, um registro de erro que foi discutido ou um trecho de código, ela pode invocar essa ferramenta para realizar uma pesquisa regular ou de precisão em todas as mensagens brutas históricas no banco de dados SQLite.
  • Uma rápida olhada no esboço do resumo (lcm_describe
    Se a Inteligência precisar entender o progresso macro do projeto nos últimos dias, ela poderá acessar a topologia resumida do DAG da sessão atual por meio dessa ferramenta. Isso permite que a IA leia rapidamente o pulso central de alta dimensão sem consumir grandes quantidades de token para ler todas as bobagens.
  • Expansão da penetração detalhada (lcm_expand
    Esse é o recurso principal do recurso de restauração sem perdas. Quando um corpo inteligente está no lcm_describe Se você vir um nó “Quarta-feira: Políticas de grupo de segurança que determinam a arquitetura de rede” no esboço da arquitetura de rede e precisar desses códigos de política no momento, o corpo inteligente simplesmente chamará o nó lcm_expand e passe o ID do sistema desse nó de resumo. O Lossless Claw extrai instantaneamente a transcrição do diálogo original do banco de dados para o dia de quarta-feira e a insere literalmente na memória de trabalho atual da inteligência.

⚠️ Guia avançado de prevenção de armadilhas: Revitalização da sessão e gerenciamento do ciclo de vida

Um grande número de usuários novatos ainda reclama depois de instalar o plug-in: “Como é que meu corpo inteligente ainda tem amnésia? depois de instalar o plug-in. Observe que isso geralmente não é um mau funcionamento do plug-in, mas sim um gatilho do próprio OpenClaw Política de redefinição de sessão (SRP)

O Lossless Claw é responsável pela “compressão e preservação sem perdas” do contexto em uma única sessão longa, mas ele próprio énão competenteDesinterfere e bloqueia a regra de interrupção de tempo limite global do OpenClaw. Se o seu sistema estiver configurado para limpar automaticamente a sessão e reiniciar após um curto período de inatividade, o mapa de memória anexado à sessão também será bloqueado com ela, e a nova sessão ainda começará do zero.

A solução definitiva
Certifique-se de modificar o arquivo de configuração principal do OpenClaw para ajustar os parâmetros do ciclo de vida da sessão:

  1. Localize a configuração Reset Mode e defina o valor session.reset.mode O valor de "idle"(ou seja, com base nos cálculos de tempo ocioso, a sessão nunca é interrompida enquanto permanecer em execução).
  2. aumento substancial session.reset.idleMinutes O valor do parâmetro. Esse é um parâmetro do tipo inteiro medido em minutos. Se você quiser que o Intelligence execute tarefas de acompanhamento contínuas durante dias ou até mesmo ciclos, defina-o como um número suficientemente grande (por exemplo, defina-o como 10080(Isso significa que o sistema permite um período de inatividade silenciosa de até uma semana inteira sem desconectar a sessão).

Depois de seguir o guia acima para definir seu ambiente e configuração, seu OpenClaw será completamente transformado em um poderoso assistente pessoal digital que não teme o limite de tokens e realmente “nunca esquece”.

cenário do aplicativo

  1. Fluxos de trabalho noturnos automatizados
    Quando corpos inteligentes são programados para lidar com a análise maciça de logs, a distribuição de tarefas e o acompanhamento do progresso de forma independente à noite, as rodadas de diálogo são extremamente altas. O plug-in evita que as inteligências percam pré-comandos devido a janelas cheias na manhã seguinte e garante que a lógica da tarefa seja coerente sem entrar em colapso.
  2. Projetos complexos de longo prazo e gerenciamento de código
    Ao realizar o desenvolvimento de software por várias semanas, as inteligências precisam se lembrar de projetos arquitetônicos, estruturas de tabelas de banco de dados e especificações de API decididas logo no início. O plug-in permite que a IA retorne com precisão às especificações arquitetônicas a qualquer momento durante a codificação subsequente, eliminando um disco completo do projeto histórico e criando um resumo.
  3. Suporte contínuo ao cliente e interface
    Ao usar o OpenClaw para lidar com serviços de acompanhamento de clientes, os detalhes históricos da comunicação, as reivindicações específicas do cliente e as promessas feitas são extremamente importantes. O plug-in permite que a IA rastreie com precisão os detalhes da comunicação original com um cliente específico em milhares de registros de diálogo.

QA

  1. P: Depois de usar o Lossless Claw, o salvamento dos registros do histórico será vazado para um servidor externo?
    R: De forma alguma. Todos os históricos de bate-papos são permanente e obrigatoriamente armazenados como dados brutos em texto simples em um banco de dados SQLite no computador local (ou servidor) que executa o plug-in. Com exceção das solicitações de geração de resumo que você configura e que são enviadas ao LLM, nenhum dado completo da conversa é transferido para qualquer nuvem de terceiros, o que garante muito a privacidade e a segurança.
  2. P: Por que instalei o plug-in e, no dia seguinte, meu SmartBody ainda perdeu a memória?
    R: Em geral, isso ocorre porque o mecanismo padrão de reinicialização de sessão ociosa do OpenClaw é acionado. O Lossless Claw cuida da compactação da memória, mas não altera o limite de duração da sessão nativa. Você precisa ir até a configuração do OpenClaw e definir o limite de duração da sessão nativa.session.reset.modedefinido como"idle"e aumentou significativamentesession.reset.idleMinutesO valor do tempo em minutos.
  3. P: A execução do mecanismo de geração de resumo acarreta consumo adicional de API?
    R: Sim. Como o plug-in precisa invocar um modelo de linguagem grande para transformar e refinar as mensagens antigas acumuladas em um resumo de nós de DAG (Directed Acyclic Graph), esse processo inevitavelmente incorrerá em taxas de token. Recomenda-se configurar um modelo econômico separado (por exemplo, Gemini 1.5 Flash ou Claude 3 Haiku) para a tarefa de resumo por meio de uma variável de ambiente para reduzir os custos operacionais.
0Marcado
0Recomendado
Duck & Pear AI Article Smart Writer
Seleção → Redação → Publicação
Totalmente automático!
Plug-in de escrita de IA para WordPress
Mais de 500 criadores de conteúdo estão usando
🎯Seleção inteligenteGeração de lotes, adeus à exaustão
🧠aprimoramento da recuperação: rede de contatos + base de conhecimento com profundidade
Totalmente automático: Redação → Gráficos → Publicação
💎Permanentemente gratuitoVersão gratuita = Versão paga, ilimitada
Baixe o plug-in gratuitamente agora mesmo!
Livre para sempre · 100% Código aberto · Armazenamento local de dados

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Digite as palavras-chave.Acessibilidade à pesquisa do BingFerramentas de IA, encontre rapidamente as ferramentas de IA neste site.

voltar ao topo