海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

Revornix 是一款面向 AI 时代的信息管理工具。 它可以帮助用户整合来自不同渠道的资讯和文档,并通过内置的 AI 助手进行交互和分析。 该工具的核心是其多模态协同处理(MCP)客户端,支持将收集到的文档和资讯进行每日自动总结,生成结构化报告。 Revornix 是一个开源项目,用户可以将其部署在自己的服务器上,确保数据私密性。 它支持多租户使用,意味着多个用户可以同时使用一套系统,并拥有各自独立的文档数据库。 同时,该工具允许用户自定义接入各种大语言模型(需要兼容OpenAI接口),让用户可以灵活选择适合自己的 AI 模型进行文档内容处理和交互。

Revornix:内置AI助手的信息管理工具-1

功能列表

  • 跨平台内容聚合: 支持从新闻网站、博客、论坛等多种来源集中收集内容,目前提供Web版本,未来计划支持iOS和微信小程序。
  • 文档处理与向量化: 利用多模态大模型技术,将上传或收集的文档(如PDF、Word等)统一转换成Markdown格式,并进行向量化处理后存入Milvus向量数据库,便于后续的语义检索和内容分析。
  • 内置智能助手(MCP): 提供一个由内置多模态协同处理(MCP)技术驱动的 AI 助手,用户可以直接与自己的文档库进行对话和交互,支持切换不同的语言模型。
  • 多租户架构: 系统原生支持多用户使用,每个用户拥有独立的文档空间和数据库,保证了数据的隔离性和私密性。
  • 本地化与开源: 项目代码完全开源,所有数据都存储在用户本地,避免了数据泄露的风险。
  • 高度可定制化: 支持用户自由配置和更换后端的大语言模型(LLM),只要模型兼容OpenAI的API接口即可接入。
  • 自定义信息通知: 用户可以设定规则,让系统通过电子邮件、电话等方式发送定制化的信息通知。
  • 响应式与多语言界面: 无论是电脑还是手机端,中文还是英文用户,系统都提供了良好的用户体验。

使用帮助

Revornix 推荐使用 Docker 进行部署,这种方式可以简化环境配置,让用户快速启动并运行程序。

通过 Docker 快速开始 (推荐)

  1. 克隆代码仓库
    首先,需要将 Revornix 的代码从 GitHub 克隆到你的本地计算机或服务器上。打开终端(命令行工具),并执行以下命令:

    git clone git@github.com:Qingyon-AI/Revornix.git
    

    然后,进入项目目录:

    cd Revornix
    
  2. 配置环境变量
    在项目根目录中,有一个名为 envs 的文件夹,其中包含了各个服务所需的环境变量配置文件模板。你需要将模板文件(以 .example 结尾)复制为正式的配置文件。
    执行以下命令:

    cp ./envs/.api.env.example ./envs/.api.env
    cp ./envs/.file.env.example ./envs/.file.env
    cp ./envs/.celery.env.example ./envs/.celery.env
    cp ./envs/.hot.env.example ./envs/.hot.env
    cp ./envs/.mcp.env.example ./envs/.mcp.env
    cp ./envs/.web.env.example ./web/.env
    

    在大多数情况下,你只需要对一个关键参数进行配置。使用文本编辑器(如 vim 或 nano)打开其中的一个配置文件,例如 nano ./envs/.api.env,找到 SECRET_KEY 这个参数。 你需要为它设置一个复杂的、随机的字符串,作为用户身份验证和加密的密钥。
    重要提示SECRET_KEY 的值在所有服务的配置文件中必须保持完全一致,否则各个服务之间的用户认证系统将无法互通,导致登录失败。 对于其他参数,如果没有特殊需求,可以暂时保留默认值。

  3. 启动服务
    完成环境变量配置后,你可以使用 Docker Compose 一键拉取所有必需的镜像并启动全部服务。在项目根目录下执行:

    docker compose up -d
    

    这个 -d 参数会让服务在后台运行。
    启动过程需要一些时间,因为它要下载多个 Docker 镜像并依次启动后端、数据库、AI模型服务等多个容器。通常需要等待3到5分钟。

  4. 访问前端页面
    当所有服务成功启动后,你就可以在浏览器中访问 http://localhost 来查看和使用 Revornix 的前端界面了。
    注意:由于后端服务的启动时间较长,你可能会在刚打开前端页面时遇到请求失败或无法加载数据的情况。这是正常现象。你可以通过以下命令查看核心后端服务(api)的日志,以确认其是否已准备就绪:

    docker compose logs api
    

    当看到类似服务已成功运行的日志时,刷新前端页面即可正常使用。

手动部署方式

对于希望更深度定制或了解系统架构的开发者,项目也支持手动部署。详细的手动部署流程可以参考其官方文档中的说明。

应用场景

  1. 个人知识管理
    用户可以将网络上的文章、博客、电子书以及本地的PDF文档上传到Revornix中。系统会自动将这些文档转换为统一的格式并进行向量化。用户可以通过与内置的AI助手对话,快速找到所需信息,或者让AI助手根据整个知识库的内容总结特定主题,生成报告。
  2. 团队信息共享与协作
    在一个团队中,不同成员可以将收集到的行业资讯、竞品分析、技术文档等存入Revornix。由于系统支持多租户,每个成员可以有自己的空间,也可以设置共享空间。管理者可以利用每日总结功能,快速了解团队成员关注的动态,而团队成员也可以通过与AI助手交互,快速从团队知识库中获得答案,提升协作效率。
  3. 垂直领域资讯监控
    对于需要长期关注特定领域(如金融、科技、医疗)动态的用户,可以利用Revornix聚合来自不同新闻源和论坛的信息。通过设置关键词和通知规则,当出现重要资讯时,系统可以通过邮件等方式自动提醒用户,并能生成每日热点摘要,帮助用户节省筛选和阅读信息的时间。

QA

  1. Revornix 和其他知识管理软件有什么不同?
    Revornix 的核心区别在于其内置的MCP(多模态协同处理)客户端和与大语言模型的深度整合。 它不仅仅是存储文档,更强调与文档内容的“交互”。你可以像和人聊天一样,向你的知识库提问、要求它总结或分析。此外,它的开源和本地化部署特性,也让注重数据隐私的用户更加放心。
  2. 使用Revornix是否需要自己有AI模型?
    不需要。Revornix 本身不提供AI模型,但它设计了一个开放的模型接入框架。 用户可以连接到任何兼容OpenAI API接口的语言模型服务,无论是使用OpenAI官方提供的模型,还是其他第三方或自己部署的开源模型(如Llama、Mistral等),都可以轻松配置和使用。
  3. 什么是MCP?
    MCP是“Multi-modal Co-pilot”的缩写,意为多模态协同处理或多模态协驾。在Revornix中,它代表一个能够理解和处理多种类型数据(如文本、未来可能支持图片等)并能与用户进行交互的智能助手。 它可以调用不同的工具和模型来完成用户的指令,例如总结文档、回答问题等。
  4. 部署Revornix对服务器要求高吗?
    基本部署对服务器要求不算高,但如果需要处理大量文档或使用功能更强大的本地AI模型,则对服务器的CPU、内存和显卡(特别是进行AI计算时)会有一定要求。官方推荐使用Docker部署,简化了环境依赖问题,但服务器本身仍需具备运行Docker的基本性能。
0已收藏
0已赞

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

邮箱

联系我们

回顶部

zh_CN简体中文