Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O chatless é um cliente de bate-papo com IA leve e de código aberto para Windows, MacOS e Linux. Sua função principal é fornecer aos usuários serviços localizados de bate-papo com IA, análise de documentos e gerenciamento de bases de conhecimento. Desenvolvido por kamjin3086, o projeto tem como objetivo atender às necessidades dos usuários com computadores de baixo desempenho, evitando a necessidade de executar clientes complexos e com muitos recursos. O chatless usa as pilhas de tecnologia Tauri 2.0 e Next.js 15, combinadas com um design de interface minimalista, para garantir que o software seja pequeno e funcione sem problemas. Os usuários podem acessar o chatless localmente ou remotamente por meio do Ollama API para diálogo de IA e suporte para resumo e análise rápidos da base de conhecimento. O projeto está atualmente em cerca de 85% e, no futuro, terá seu código aberto no GitHub.

 

Lista de funções

  • Bate-papo com IA Suporte para diálogo de IA por meio de APIs Ollama locais ou remotas, adequado para raciocinar sobre problemas ou gerar códigos simples.
  • Análise de documentos locais Análise de documentos locais, extração de conteúdo e suporte a consultas de conversação.
  • Gerenciamento da base de conhecimento Crie e gerencie bases de conhecimento locais, dê suporte à geração incorporada, resuma e analise documentos rapidamente.
  • Gerenciamento de histórico Salvar e gerenciar os registros de bate-papo para facilitar a revisão e a organização.
  • Design leve O pacote de instalação tem pouco mais de 20 MB, o que representa um baixo consumo de recursos e é adequado para dispositivos de baixo desempenho.
  • Suporte a várias plataformas Compatível com os sistemas Windows, MacOS e Linux.
  • Personalização Oferece opções de configuração flexíveis que permitem que os usuários ajustem a funcionalidade de acordo com seus hábitos pessoais.

Usando a Ajuda

Processo de instalação

O chatless é um projeto de código aberto que exige a clonagem do código do GitHub e a criação local. Aqui estão as etapas detalhadas de instalação:

  1. Clonagem da base de código
    Execute o seguinte comando em um terminal para clonar o repositório do chatless:

    git clone https://github.com/kamjin3086/chatless.git
    

    Isso fará o download do projeto localmente. Observe que, desde julho de 2025, o código não é totalmente de código aberto e talvez seja necessário aguardar uma versão para desenvolvedores.

  2. Instalação de ambientes dependentes
    O chatless foi desenvolvido com o Tauri 2.0 e o Next.js 15 e requer a instalação do seguinte ambiente:

    • Node.js Versão recomendada: versão 16 ou superior. Execute o seguinte comando para verificar se ele está instalado:
    node -v
    

    Se você não o tiver, poderá baixá-lo no site do Node.js.

    • Ferrugem Tauri depende do compilador Rust. Execute o seguinte comando para instalar o Rust:
    curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
    
    • Dependências do Tauri Dependendo do sistema operacional, instale as dependências de sistema do Tauri; consulte a documentação oficial do Tauri.
  3. Instalar as dependências do projeto
    Vá para o catálogo de projetos:

    cd chatless
    

    Execute o seguinte comando para instalar a dependência do Node.js:

    npm install
    
  4. Criar e executar
    Crie o aplicativo Tauri:

    npm run tauri build
    

    Execute o modelo de desenvolvimento:

    npm run tauri dev
    

    Após o sucesso, o chatless será iniciado e exibirá a interface principal. O pacote de instalação do macOS tem cerca de 20+ MB, mas o tamanho exato pode variar um pouco dependendo do sistema.

  5. Configuração da API do Ollama
    Por padrão, o chatless usa o Ollama para raciocínio de IA. Certifique-se de que o Ollama esteja instalado e em execução:

    • Implementação local: faça o download e instale o Ollama (consulte o site do Ollama).
    • Remote Deployment (Implantação remota): digite o endereço remoto da API do Ollama na tela de configuração (no formato http://<ip>:<port>).
      Na página AI Model Provider Settings (Configurações do provedor de modelo de IA) do chatless, insira a configuração da API e salve-a.

Função Fluxo de operação

Bate-papo com IA

  1. Abra a tela principal do chatless e vá para a página "Chat".
  2. Selecione Local ou Remote Ollama API (a ser configurado em Settings).
  3. Insira perguntas ou instruções, como "Write a Python loop for me" (Escreva um loop Python para mim) ou "Summarise this document" (Resuma este documento).
  4. A IA responde em tempo real e a resposta é exibida em uma caixa de diálogo. Os usuários podem continuar a fazer perguntas ou visualizar o histórico.

Análise de documentos locais

  1. Clique em "Document Parsing" (Análise de documentos) na interface principal.
  2. Faça upload de documentos locais (compatível com formatos comuns, como PDF, TXT, DOCX).
  3. O software analisa automaticamente o conteúdo do documento e gera um texto pesquisável.
  4. Insira uma pergunta relacionada ao documento, como "Extrair pontos-chave no documento", e a IA responderá com base no conteúdo analisado.
  5. Os resultados da análise podem ser salvos na base de conhecimento para uso posterior.

Gerenciamento da base de conhecimento

  1. Vá para a página "Knowledge Base" (Base de conhecimento) e clique em "New Knowledge Base" (Nova base de conhecimento).
  2. Faça upload de um documento ou insira manualmente o conteúdo e o software gerará uma incorporação (há suporte para o raciocínio nativo ou Ollama).
  3. Usando a função de diálogo da Base de Conhecimento, insira uma pergunta como "Resumir os dados financeiros na Base de Conhecimento".
  4. Visualize a tela Knowledge Base Details (Detalhes da base de conhecimento) para gerenciar o conteúdo carregado ou ajustar as configurações de incorporação.

Gerenciamento de histórico

  1. Clique na opção "History" (Histórico) na tela principal.
  2. Navegue pelos bate-papos anteriores e filtre por horário ou tópico.
  3. Suporta a exportação de registros para arquivos de texto ou a exclusão de registros indesejados.

Personalização

  1. Vá para a página "General Settings" (Configurações gerais) para ajustar o tema da interface, o tamanho da fonte e assim por diante.
  2. Na tela de configurações da Base de Conhecimento, configure o método de incorporação (local ou remoto).
  3. Na tela AI Model Provider Settings (Configurações do provedor de modelo de IA), alterne a API ou ajuste os parâmetros do modelo.

advertência

  • otimização do desempenho O chatless foi projetado para dispositivos de baixo desempenho, mas precisa garantir que o serviço de inferência do Ollama seja estável.
  • Suporte à documentação Formatos comuns de documentos são suportados no momento; formatos complexos (como PDF criptografado) podem exigir pré-processamento.
  • programa de código aberto Código-fonte: O código ainda não está totalmente aberto, portanto, recomendamos que você siga o repositório do GitHub para obter atualizações.
  • Suporte à comunidade Os desenvolvedores aceitam comentários e podem enviar problemas ou sugestões no GitHub.

cenário do aplicativo

  1. Gerenciamento de conhecimento pessoal
    Os usuários podem importar notas de estudo ou documentos de trabalho para a base de conhecimento para resumir e consultar rapidamente o conteúdo, o que é adequado para estudantes ou pesquisadores.
  2. Raciocínio remoto de IA
    Use o poder de raciocínio de um host de alto desempenho em um computador de baixo desempenho por meio da API Ollama remota para profissionais do local de trabalho que precisam lidar com tarefas complexas.
  3. Assistência de código leve
    Os programadores podem usar o chatless para gerar código simples ou depurar trechos com uma interface simples e neutra em termos de recursos.
  4. Requisitos de escritório localizados
    Os funcionários da empresa podem analisar documentos locais e interagir com a IA, garantindo que os dados não sejam carregados na nuvem e que a privacidade seja protegida.

QA

  1. Quais modelos de IA são compatíveis com o chatless?
    Atualmente, o suporte às APIs locais e remotas do Ollama é priorizado, com possíveis extensões para outros modelos no futuro.
  2. Como faço para executá-lo em um computador de baixo desempenho?
    O instalador sem chat é pequeno (cerca de 20 MB) e usa Tauri e Next.js para otimizar o desempenho e aliviar a pressão da computação local por meio de uma API remota.
  3. Como funciona o recurso Base de Conhecimento?
    Faça upload de um documento ou insira conteúdo para gerar uma incorporação, após o que você pode consultar o conteúdo da base de conhecimento por meio de um diálogo, adequado para análise e resumo rápidos.
  4. É necessário trabalhar em rede?
    O modo local não requer uma conexão com a Internet; o modo API remoto requer uma conexão com o serviço Ollama.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil