海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

chatless 是一个轻量级的开源 AI 聊天客户端,支持 Windows、MacOS 和 Linux 系统。它的核心功能是为用户提供本地化的 AI 聊天、文档解析和知识库管理服务。项目由 kamjin3086 开发,旨在满足低性能电脑用户的需求,避免运行复杂、资源占用高的客户端。chatless 采用 Tauri 2.0 和 Next.js 15 技术栈,结合简约的界面设计,确保软件小巧、运行流畅。用户可以通过本地或远程的 Ollama API 进行 AI 对话,并支持知识库的快速总结和分析。项目目前开发进度约 85%,未来将在 GitHub 完全开源。

 

功能列表

  • AI 聊天 :支持通过本地或远程 Ollama API 进行 AI 对话,适合推理问题或生成简单代码。
  • 本地文档解析 :解析本地文档,提取内容并支持对话式查询。
  • 知识库管理 :构建和管理本地知识库,支持嵌入生成,快速总结和分析文档。
  • 历史记录管理 :保存和管理聊天记录,方便回顾和整理。
  • 轻量级设计 :安装包仅 20 多 MB,占用资源少,适合低性能设备。
  • 跨平台支持 :兼容 Windows、MacOS 和 Linux 系统。
  • 个性化设置 :提供灵活的设置选项,允许用户调整功能以适应个人习惯。

使用帮助

安装流程

chatless 是一个开源项目,需从 GitHub 克隆代码并在本地构建。以下是详细的安装步骤:

  1. 克隆代码库
    在终端运行以下命令,克隆 chatless 仓库:

    git clone https://github.com/kamjin3086/chatless.git
    

    这会将项目下载到本地。注意,截至 2025 年 7 月,代码尚未完全开源,可能需要等待开发者发布。

  2. 安装依赖环境
    chatless 使用 Tauri 2.0 和 Next.js 15 开发,需安装以下环境:

    • Node.js :推荐版本 16 或更高。运行以下命令检查是否安装:
    node -v
    

    若未安装,可从 Node.js 官网 下载。

    • Rust :Tauri 依赖 Rust 编译器。运行以下命令安装 Rust:
    curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
    
    • Tauri 依赖 :根据操作系统,安装 Tauri 的系统依赖,参考 Tauri 官方文档。
  3. 安装项目依赖
    进入项目目录:

    cd chatless
    

    运行以下命令安装 Node.js 依赖:

    npm install
    
  4. 构建和运行
    构建 Tauri 应用:

    npm run tauri build
    

    运行开发模式:

    npm run tauri dev
    

    成功后,chatless 将启动并显示主界面。MacOS 安装包约为 20 多 MB,具体大小可能因系统略有不同。

  5. 配置 Ollama API
    chatless 默认使用 Ollama 进行 AI 推理。需确保 Ollama 已安装并运行:

    • 本地部署:下载并安装 Ollama(参考 Ollama 官网)。
    • 远程部署:在设置界面输入远程 Ollama API 地址(格式如 http://<ip>:<port>)。
      在 chatless 的“AI 模型提供商设置”页面,输入 API 配置并保存。

功能操作流程

AI 聊天

  1. 打开 chatless 主界面,进入“聊天”页面。
  2. 选择本地或远程 Ollama API(需在设置中配置)。
  3. 输入问题或指令,例如“帮我写一个 Python 循环”或“总结这篇文档”。
  4. AI 会实时响应,答案显示在对话框中。用户可继续提问或查看历史记录。

本地文档解析

  1. 在主界面点击“文档解析”功能。
  2. 上传本地文档(支持常见格式,如 PDF、TXT、DOCX)。
  3. 软件自动解析文档内容,生成可查询的文本。
  4. 输入与文档相关的提问,例如“提取文档中的关键点”,AI 将基于解析内容回答。
  5. 解析结果可保存至知识库,方便后续使用。

知识库管理

  1. 进入“知识库”页面,点击“新建知识库”。
  2. 上传文档或手动输入内容,软件会生成嵌入(支持本地或 Ollama 推理)。
  3. 使用知识库对话功能,输入问题如“总结知识库中的财务数据”。
  4. 查看“知识库详情”页面,管理已上传的内容或调整嵌入设置。

历史记录管理

  1. 在主界面点击“历史记录”选项。
  2. 浏览过往聊天记录,按时间或话题筛选。
  3. 支持导出记录为文本文件,或删除不需要的记录。

个性化设置

  1. 进入“常规设置”页面,调整界面主题、字体大小等。
  2. 在“知识库设置”页面,配置嵌入生成方式(本地或远程)。
  3. 在“AI 模型提供商设置”页面,切换 API 或调整模型参数。

注意事项

  • 性能优化 :chatless 专为低性能设备设计,但需确保 Ollama 推理服务运行稳定。
  • 文档支持 :目前支持常见文档格式,复杂格式(如加密 PDF)可能需预处理。
  • 开源计划 :代码尚未完全开源,建议关注 GitHub 仓库更新。
  • 社区支持 :开发者欢迎反馈,可在 GitHub 提交 issue 或建议。

应用场景

  1. 个人知识管理
    用户可将学习笔记或工作文档导入知识库,快速总结和查询内容,适合学生或研究人员。
  2. 远程 AI 推理
    在低性能电脑上通过远程 Ollama API 使用高性能主机的推理能力,适合需要处理复杂任务的职场人士。
  3. 轻量级代码辅助
    程序员可使用 chatless 生成简单代码或调试片段,界面简洁不占用资源。
  4. 本地化办公需求
    企业员工可解析本地文档并与 AI 交互,确保数据不上传云端,保护隐私。

QA

  1. chatless 支持哪些 AI 模型?
    目前优先支持 Ollama 的本地和远程 API,未来可能扩展其他模型。
  2. 如何在低性能电脑上运行?
    chatless 安装包小巧(约 20 MB),使用 Tauri 和 Next.js 优化性能,可通过远程 API 减轻本地计算压力。
  3. 知识库功能如何使用?
    上传文档或输入内容生成嵌入,之后可通过对话查询知识库内容,适合快速分析和总结。
  4. 是否需要联网?
    本地模式无需联网,远程 API 模式需连接到 Ollama 服务。
0已收藏
0已赞

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文