chatless 是一个轻量级的开源 AI 聊天客户端,支持 Windows、MacOS 和 Linux 系统。它的核心功能是为用户提供本地化的 AI 聊天、文档解析和知识库管理服务。项目由 kamjin3086 开发,旨在满足低性能电脑用户的需求,避免运行复杂、资源占用高的客户端。chatless 采用 Tauri 2.0 和 Next.js 15 技术栈,结合简约的界面设计,确保软件小巧、运行流畅。用户可以通过本地或远程的 Ollama API 进行 AI 对话,并支持知识库的快速总结和分析。项目目前开发进度约 85%,未来将在 GitHub 完全开源。
功能列表
- AI 聊天 :支持通过本地或远程 Ollama API 进行 AI 对话,适合推理问题或生成简单代码。
- 本地文档解析 :解析本地文档,提取内容并支持对话式查询。
- 知识库管理 :构建和管理本地知识库,支持嵌入生成,快速总结和分析文档。
- 历史记录管理 :保存和管理聊天记录,方便回顾和整理。
- 轻量级设计 :安装包仅 20 多 MB,占用资源少,适合低性能设备。
- 跨平台支持 :兼容 Windows、MacOS 和 Linux 系统。
- 个性化设置 :提供灵活的设置选项,允许用户调整功能以适应个人习惯。
使用帮助
安装流程
chatless 是一个开源项目,需从 GitHub 克隆代码并在本地构建。以下是详细的安装步骤:
- 克隆代码库
在终端运行以下命令,克隆 chatless 仓库:git clone https://github.com/kamjin3086/chatless.git
这会将项目下载到本地。注意,截至 2025 年 7 月,代码尚未完全开源,可能需要等待开发者发布。
- 安装依赖环境
chatless 使用 Tauri 2.0 和 Next.js 15 开发,需安装以下环境:- Node.js :推荐版本 16 或更高。运行以下命令检查是否安装:
node -v
若未安装,可从 Node.js 官网 下载。
- Rust :Tauri 依赖 Rust 编译器。运行以下命令安装 Rust:
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
- Tauri 依赖 :根据操作系统,安装 Tauri 的系统依赖,参考 Tauri 官方文档。
- 安装项目依赖
进入项目目录:cd chatless
运行以下命令安装 Node.js 依赖:
npm install
- 构建和运行
构建 Tauri 应用:npm run tauri build
运行开发模式:
npm run tauri dev
成功后,chatless 将启动并显示主界面。MacOS 安装包约为 20 多 MB,具体大小可能因系统略有不同。
- 配置 Ollama API
chatless 默认使用 Ollama 进行 AI 推理。需确保 Ollama 已安装并运行:- 本地部署:下载并安装 Ollama(参考 Ollama 官网)。
- 远程部署:在设置界面输入远程 Ollama API 地址(格式如
http://<ip>:<port>
)。
在 chatless 的“AI 模型提供商设置”页面,输入 API 配置并保存。
功能操作流程
AI 聊天
- 打开 chatless 主界面,进入“聊天”页面。
- 选择本地或远程 Ollama API(需在设置中配置)。
- 输入问题或指令,例如“帮我写一个 Python 循环”或“总结这篇文档”。
- AI 会实时响应,答案显示在对话框中。用户可继续提问或查看历史记录。
本地文档解析
- 在主界面点击“文档解析”功能。
- 上传本地文档(支持常见格式,如 PDF、TXT、DOCX)。
- 软件自动解析文档内容,生成可查询的文本。
- 输入与文档相关的提问,例如“提取文档中的关键点”,AI 将基于解析内容回答。
- 解析结果可保存至知识库,方便后续使用。
知识库管理
- 进入“知识库”页面,点击“新建知识库”。
- 上传文档或手动输入内容,软件会生成嵌入(支持本地或 Ollama 推理)。
- 使用知识库对话功能,输入问题如“总结知识库中的财务数据”。
- 查看“知识库详情”页面,管理已上传的内容或调整嵌入设置。
历史记录管理
- 在主界面点击“历史记录”选项。
- 浏览过往聊天记录,按时间或话题筛选。
- 支持导出记录为文本文件,或删除不需要的记录。
个性化设置
- 进入“常规设置”页面,调整界面主题、字体大小等。
- 在“知识库设置”页面,配置嵌入生成方式(本地或远程)。
- 在“AI 模型提供商设置”页面,切换 API 或调整模型参数。
注意事项
- 性能优化 :chatless 专为低性能设备设计,但需确保 Ollama 推理服务运行稳定。
- 文档支持 :目前支持常见文档格式,复杂格式(如加密 PDF)可能需预处理。
- 开源计划 :代码尚未完全开源,建议关注 GitHub 仓库更新。
- 社区支持 :开发者欢迎反馈,可在 GitHub 提交 issue 或建议。
应用场景
- 个人知识管理
用户可将学习笔记或工作文档导入知识库,快速总结和查询内容,适合学生或研究人员。 - 远程 AI 推理
在低性能电脑上通过远程 Ollama API 使用高性能主机的推理能力,适合需要处理复杂任务的职场人士。 - 轻量级代码辅助
程序员可使用 chatless 生成简单代码或调试片段,界面简洁不占用资源。 - 本地化办公需求
企业员工可解析本地文档并与 AI 交互,确保数据不上传云端,保护隐私。
QA
- chatless 支持哪些 AI 模型?
目前优先支持 Ollama 的本地和远程 API,未来可能扩展其他模型。 - 如何在低性能电脑上运行?
chatless 安装包小巧(约 20 MB),使用 Tauri 和 Next.js 优化性能,可通过远程 API 减轻本地计算压力。 - 知识库功能如何使用?
上传文档或输入内容生成嵌入,之后可通过对话查询知识库内容,适合快速分析和总结。 - 是否需要联网?
本地模式无需联网,远程 API 模式需连接到 Ollama 服务。