Revornix 是一款面向 AI 时代的信息管理工具。 它可以帮助用户整合来自不同渠道的资讯和文档,并通过内置的 AI 助手进行交互和分析。 该工具的核心是其多模态协同处理(MCP)客户端,支持将收集到的文档和资讯进行每日自动总结,生成结构化报告。 Revornix 是一个开源项目,用户可以将其部署在自己的服务器上,确保数据私密性。 它支持多租户使用,意味着多个用户可以同时使用一套系统,并拥有各自独立的文档数据库。 同时,该工具允许用户自定义接入各种大语言模型(需要兼容OpenAI接口),让用户可以灵活选择适合自己的 AI 模型进行文档内容处理和交互。
功能列表
- 跨平台内容聚合: 支持从新闻网站、博客、论坛等多种来源集中收集内容,目前提供Web版本,未来计划支持iOS和微信小程序。
- 文档处理与向量化: 利用多模态大模型技术,将上传或收集的文档(如PDF、Word等)统一转换成Markdown格式,并进行向量化处理后存入Milvus向量数据库,便于后续的语义检索和内容分析。
- 内置智能助手(MCP): 提供一个由内置多模态协同处理(MCP)技术驱动的 AI 助手,用户可以直接与自己的文档库进行对话和交互,支持切换不同的语言模型。
- 多租户架构: 系统原生支持多用户使用,每个用户拥有独立的文档空间和数据库,保证了数据的隔离性和私密性。
- 本地化与开源: 项目代码完全开源,所有数据都存储在用户本地,避免了数据泄露的风险。
- 高度可定制化: 支持用户自由配置和更换后端的大语言模型(LLM),只要模型兼容OpenAI的API接口即可接入。
- 自定义信息通知: 用户可以设定规则,让系统通过电子邮件、电话等方式发送定制化的信息通知。
- 响应式与多语言界面: 无论是电脑还是手机端,中文还是英文用户,系统都提供了良好的用户体验。
使用帮助
Revornix 推荐使用 Docker 进行部署,这种方式可以简化环境配置,让用户快速启动并运行程序。
通过 Docker 快速开始 (推荐)
- 克隆代码仓库
首先,需要将 Revornix 的代码从 GitHub 克隆到你的本地计算机或服务器上。打开终端(命令行工具),并执行以下命令:git clone git@github.com:Qingyon-AI/Revornix.git
然后,进入项目目录:
cd Revornix
- 配置环境变量
在项目根目录中,有一个名为envs
的文件夹,其中包含了各个服务所需的环境变量配置文件模板。你需要将模板文件(以.example
结尾)复制为正式的配置文件。
执行以下命令:cp ./envs/.api.env.example ./envs/.api.env cp ./envs/.file.env.example ./envs/.file.env cp ./envs/.celery.env.example ./envs/.celery.env cp ./envs/.hot.env.example ./envs/.hot.env cp ./envs/.mcp.env.example ./envs/.mcp.env cp ./envs/.web.env.example ./web/.env
在大多数情况下,你只需要对一个关键参数进行配置。使用文本编辑器(如
vim
或nano
)打开其中的一个配置文件,例如nano ./envs/.api.env
,找到SECRET_KEY
这个参数。 你需要为它设置一个复杂的、随机的字符串,作为用户身份验证和加密的密钥。
重要提示:SECRET_KEY
的值在所有服务的配置文件中必须保持完全一致,否则各个服务之间的用户认证系统将无法互通,导致登录失败。 对于其他参数,如果没有特殊需求,可以暂时保留默认值。 - 启动服务
完成环境变量配置后,你可以使用 Docker Compose 一键拉取所有必需的镜像并启动全部服务。在项目根目录下执行:docker compose up -d
这个
-d
参数会让服务在后台运行。
启动过程需要一些时间,因为它要下载多个 Docker 镜像并依次启动后端、数据库、AI模型服务等多个容器。通常需要等待3到5分钟。 - 访问前端页面
当所有服务成功启动后,你就可以在浏览器中访问http://localhost
来查看和使用 Revornix 的前端界面了。
注意:由于后端服务的启动时间较长,你可能会在刚打开前端页面时遇到请求失败或无法加载数据的情况。这是正常现象。你可以通过以下命令查看核心后端服务(api)的日志,以确认其是否已准备就绪:docker compose logs api
当看到类似服务已成功运行的日志时,刷新前端页面即可正常使用。
手动部署方式
对于希望更深度定制或了解系统架构的开发者,项目也支持手动部署。详细的手动部署流程可以参考其官方文档中的说明。
应用场景
- 个人知识管理
用户可以将网络上的文章、博客、电子书以及本地的PDF文档上传到Revornix中。系统会自动将这些文档转换为统一的格式并进行向量化。用户可以通过与内置的AI助手对话,快速找到所需信息,或者让AI助手根据整个知识库的内容总结特定主题,生成报告。 - 团队信息共享与协作
在一个团队中,不同成员可以将收集到的行业资讯、竞品分析、技术文档等存入Revornix。由于系统支持多租户,每个成员可以有自己的空间,也可以设置共享空间。管理者可以利用每日总结功能,快速了解团队成员关注的动态,而团队成员也可以通过与AI助手交互,快速从团队知识库中获得答案,提升协作效率。 - 垂直领域资讯监控
对于需要长期关注特定领域(如金融、科技、医疗)动态的用户,可以利用Revornix聚合来自不同新闻源和论坛的信息。通过设置关键词和通知规则,当出现重要资讯时,系统可以通过邮件等方式自动提醒用户,并能生成每日热点摘要,帮助用户节省筛选和阅读信息的时间。
QA
- Revornix 和其他知识管理软件有什么不同?
Revornix 的核心区别在于其内置的MCP(多模态协同处理)客户端和与大语言模型的深度整合。 它不仅仅是存储文档,更强调与文档内容的“交互”。你可以像和人聊天一样,向你的知识库提问、要求它总结或分析。此外,它的开源和本地化部署特性,也让注重数据隐私的用户更加放心。 - 使用Revornix是否需要自己有AI模型?
不需要。Revornix 本身不提供AI模型,但它设计了一个开放的模型接入框架。 用户可以连接到任何兼容OpenAI API接口的语言模型服务,无论是使用OpenAI官方提供的模型,还是其他第三方或自己部署的开源模型(如Llama、Mistral等),都可以轻松配置和使用。 - 什么是MCP?
MCP是“Multi-modal Co-pilot”的缩写,意为多模态协同处理或多模态协驾。在Revornix中,它代表一个能够理解和处理多种类型数据(如文本、未来可能支持图片等)并能与用户进行交互的智能助手。 它可以调用不同的工具和模型来完成用户的指令,例如总结文档、回答问题等。 - 部署Revornix对服务器要求高吗?
基本部署对服务器要求不算高,但如果需要处理大量文档或使用功能更强大的本地AI模型,则对服务器的CPU、内存和显卡(特别是进行AI计算时)会有一定要求。官方推荐使用Docker部署,简化了环境依赖问题,但服务器本身仍需具备运行Docker的基本性能。