Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O MemOS é um sistema de código aberto que se concentra em fornecer aprimoramentos de memória para modelos de linguagem grandes (LLMs). Ele ajuda os modelos a armazenar, recuperar e utilizar melhor as informações contextuais por meio de mecanismos inovadores de gerenciamento e agendamento de memória. O memOS se destaca em tarefas como inferência de múltiplos saltos, P&R de domínio aberto e inferência temporal, oferecendo melhorias significativas de desempenho em relação aos modelos tradicionais, como um aumento de 1.59% na precisão da inferência temporal. Ele é compatível com a plataforma Linux e é fácil de ser integrado e ampliado pelos desenvolvedores, o que o torna adequado para a criação de aplicativos de IA mais inteligentes. Ele é compatível com a plataforma Linux e é fácil de ser integrado e ampliado pelos desenvolvedores, o que o torna adequado para a criação de aplicativos de IA mais inteligentes. O projeto está ativo no GitHub, com amplo suporte da comunidade, e os desenvolvedores podem contribuir por meio do GitHub Issues, Discussions ou Discord.

MemOS: um sistema de código aberto para aprimorar a capacidade de memória de grandes modelos de idiomas-1

 

Lista de funções

  • Memory Augmented Generation (MAG): fornece uma interface API unificada para dar suporte a bate-papo e raciocínio por modelos em conjunto com memórias contextuais.
  • Arquitetura de memória modular (MemCube): gerenciamento flexível de vários tipos de memória para que os desenvolvedores possam personalizar e ampliar.
  • Gerenciamento de memória de texto: suporta o armazenamento e a recuperação de conhecimento de texto estruturado ou não estruturado, adequado para a atualização rápida do conhecimento.
  • Mecanismo de agendamento de memória: aloca dinamicamente recursos de memória para otimizar o desempenho do modelo em tarefas de contexto longo.
  • Controle de versão e governança: fornece controle de acesso, rastreabilidade e interpretação de memórias para garantir a conformidade com a segurança.
  • Suporte a várias integrações de LLM: compatível com os principais modelos de linguagem de grande porte e aprimora seus recursos de memória.
  • Ferramentas de colaboração da comunidade: oferece suporte a contribuições e trocas de desenvolvedores por meio de problemas do GitHub, solicitações pull e Discord.

 

Usando a Ajuda

Processo de instalação

Atualmente, o MemOS é compatível com a plataforma Linux; o Windows e o macOS podem ter problemas de compatibilidade. Abaixo estão as etapas detalhadas de instalação:

  1. armazém de clones
    Use o Git para clonar o repositório do MemOS localmente:

    git clone https://github.com/MemTensor/MemOS.git
    cd MemOS
    
  2. Instalação de dependências
    Execute o seguinte comando para instalar o MemOS (recomenda-se o modo editável):

    make install
    

    Certifique-se de que o Python e as dependências relacionadas estejam instalados em seu sistema. Se você precisar usar um sistema Python baseado em transformers o PyTorch precisa ser instalado, e uma versão habilitada para CUDA é recomendada para aceleração de GPU:

    pip install torch
    
  3. Instalar o Ollama (opcional)
    Se houver necessidade de se comunicar com Ollama Para a integração, o Ollama CLI precisa ser instalado primeiro:

    curl -fsSL https://ollama.com/install.sh | sh
    
  4. Verificar a instalação
    Após a conclusão da instalação, você pode verificar o sucesso executando o código de amostra ou analisando a documentação. O caminho da documentação é:
    docs/api/info ou acesse a documentação on-line:https://memos.openmem.net/docs/api/info.

Uso

A função principal do MemOS é realizar a geração de aprimoramento de memória e o gerenciamento de memória por meio de chamadas de API. Abaixo está o fluxo de operação detalhado das principais funções:

1. geração de aumento de memória (MAG)

O MemOS fornece uma interface API unificada que permite aos desenvolvedores implementar bate-papo ou raciocínio com memória aprimorada seguindo as etapas abaixo:

  • Inicialização do MemOS
    Importe e inicialize a biblioteca MemOS em seu ambiente Python:

    from memos import MemoryAugmentedGeneration
    mag = MemoryAugmentedGeneration(model="gpt-4o-mini")  # 示例模型
    
  • Adicionar memória
    Armazena a entrada do usuário ou informações contextuais como memória:

    mag.add_memory(user_id="user1", content="用户喜欢科技新闻")
    
  • Gerar uma resposta
    Chame a API para gerar uma resposta que combine memórias:

    response = mag.generate(query="推荐一些科技新闻", user_id="user1")
    print(response)
    

    O MemOS gera respostas mais personalizadas com base em memórias armazenadas, como "os usuários gostam de notícias de tecnologia".

2. gerenciamento de memória de texto

O MemOS suporta o armazenamento e a recuperação de conhecimento textual, o que é adequado para a atualização rápida de bases de conhecimento:

  • Memória de texto armazenado
    Use a API para armazenar texto estruturado ou não estruturado:

    mag.store_text_memory(content="2025年AI趋势:记忆增强技术", tags=["AI", "趋势"])
    
  • recuperar a memória
    Recuperar memórias relevantes com base na consulta:

    results = mag.search_memory(query="AI趋势", limit=3)
    for result in results:
    print(result["content"])
    

3. programação e otimização de memória

O MemScheduler do MemOS gerencia os recursos de memória dinamicamente, eliminando a necessidade de os desenvolvedores configurá-los manualmente. Por padrão, os recursos de memória são alocados automaticamente com base no tipo de tarefa (por exemplo, raciocínio multihop ou raciocínio temporal). Se você precisar personalizar o agendamento, poderá ajustá-lo por meio de um arquivo de configuração:

config/scheduler.yaml

4. colaboração comunitária

O MemOS incentiva os desenvolvedores a participarem das contribuições da comunidade:

  • Envie uma pergunta ou solicitação de recursoRelate bugs ou sugira novos recursos na página de problemas do GitHub.
  • Código de contribuiçãoEnvie melhorias no código por meio do GitHub Pull Requests.
  • Participe da discussãoComunicar-se com os desenvolvedores no GitHub Discussions ou no servidor Discord.

Operação da função em destaque

O MemOS se destaca nas tarefas de raciocínio temporal e de raciocínio multihop. Por exemplo, no raciocínio temporal, os desenvolvedores podem testar por:

mag.add_memory(user_id="test", content="2024年10月,AI会议召开")
mag.add_memory(user_id="test", content="2025年1月,新模型发布")
response = mag.generate(query="AI会议后发生了什么?", user_id="test")
print(response)  # 输出:新模型发布

Isso é obtido por meio da arquitetura MemCube, que garante que as memórias sejam recuperadas com precisão em ordem cronológica.

 

cenário do aplicativo

  1. Assistente de IA personalizado
    O MemOS pode adicionar memória de longo prazo aos assistentes de IA, lembrando as preferências do usuário (como tipos favoritos de notícias ou hábitos de compras) para fornecer recomendações e respostas mais precisas.
    Por exemplo, os desenvolvedores podem criar um chatbot para uma plataforma de comércio eletrônico que lembra o histórico de compras do usuário para aprimorar a experiência do usuário.
  2. Sistema de gerenciamento de conhecimento
    Os recursos de gerenciamento de memória de texto do MemOS são ideais para organizações que estão criando bases de conhecimento internas para armazenar e recuperar rapidamente documentos, relatórios ou informações técnicas.
    Por exemplo, as equipes técnicas podem usar o MemOS para gerenciar documentos de projetos e facilitar a colaboração entre departamentos.
  3. Educação e pesquisa
    O MemOS ajuda os pesquisadores a armazenar e analisar dados experimentais ou registros da literatura e oferece suporte ao raciocínio multihop para responder a perguntas complexas.
    Por exemplo, os alunos podem usar o MemOS para organizar suas anotações do curso e recuperar rapidamente o conhecimento relevante.

 

QA

  1. Quais plataformas são compatíveis com o MemOS?
    Atualmente, ele é compatível principalmente com o Linux, mas o Windows e o macOS podem ter problemas de compatibilidade. Recomenda-se usá-lo em um ambiente Linux.
  2. É necessário um LLM específico?
    O MemOS oferece suporte a uma ampla gama de modelos de idiomas grandes e, por padrão, usa o modelo gpt-4o-minimas outros modelos podem ser configurados com base na documentação.
  3. Como posso participar do desenvolvimento do MemOS?
    Você pode relatar problemas por meio do GitHub Issues, enviar Pull Requests para contribuir com código ou participar da discussão da comunidade no Discord.
  4. Quais são os benefícios de desempenho do MemOS?
    Em comparação com o modelo tradicional, o MemOS aprimora a inferência temporal em 1.591 TP3T, melhora a precisão geral em 38.981 TP3T e reduz 60.951 TP3T do token Consumo.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

caixa de entrada

Entre em contato conosco

voltar ao topo

pt_BRPortuguês do Brasil