海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

ARGO 是一款开源的AI智能体(AI Agent)平台,它的核心设计理念是“本地优先”,让用户可以在自己的个人电脑上搭建一个功能强大的专属AI助手。这个平台整合了AI领域的多种先进技术,比如能够让AI自主思考和规划任务的多智能体系统、方便接入本地知识库的RAG技术,以及一键下载和管理本地大语言模型的功能。通过ARGO,用户可以安全、私密地处理复杂任务,例如深度研究、内容创作或数据分析,因为所有数据都存储在本地,完全支持离线运行。ARGO支持Windows、macOS和Linux等主流桌面操作系统,也提供了Docker部署方式,旨在让每个人都能轻松拥有一个真正属于自己的超级AI智能体。

 

功能列表

  • 本地化与隐私保护:软件支持完全离线运行,所有用户数据100%存储在本地电脑,确保隐私安全。提供开箱即用的Windows、macOS和Linux客户端。
  • 多智能体协作:内置了多智能体任务引擎,能够像团队一样协作。它可以自主理解用户意图、规划任务步骤、执行多阶段工作,并最终生成报告。
  • 自定义智能体:用户可以根据特定需求创建专属的智能体,例如旅游规划助手、行业分析师或法律顾问。通过简单的描述,就可以定制出面向特定场景的AI助手。
  • 兼容多种大模型:内置Ollama,可以一键下载和运行开源大模型。同时,它也支持接入OpenAI、Claude、DeepSeek等多种闭源模型的API,用户可以根据需要在本地模型和云端API模型之间灵活切换。
  • 本地RAG知识库引擎:支持从文件、文件夹、网站等多种渠道导入知识。当关联本地文件夹时,知识库可以动态同步更新。它能够解析PDF、Word、网页等多种格式的文档,并在回答问题时溯源参考内容。
  • 内置工具集:集成了网络爬虫、浏览器控制、本地文件管理等多种实用工具,并支持用户扩展集成自己的工具。
  • 持续学习进化:软件具备学习用户工作习惯和偏好的能力,能够在使用过程中不断优化,最终进化成一个更懂用户的智能体(此功能正在测试中)。
  • 丰富的聊天交互功能:支持数学公式、Mermaid图表(流程图、顺序图等)的渲染,并允许对话自由分支,方便用户管理和追溯沟通记录。

使用帮助

ARGO旨在简化本地AI智能体的部署和使用流程,无论你是非技术用户还是开发者,都可以快速上手。

基础硬件要求

在安装ARGO之前,请确保你的电脑满足以下最低配置要求:

  • CPU: 至少4核
  • 内存 (RAM): 至少8 GB

如果你计划运行性能要求更高的大型语言模型,建议使用更高配置的硬件,特别是配备NVIDIA显卡的电脑,以便利用GPU进行加速。

桌面客户端安装(推荐新手使用)

这是最简单直接的使用方式,无需任何额外配置,下载即用。

  1. 访问ARGO的官方GitHub发布页面(Releases)。
  2. 根据你的操作系统,下载对应的安装包:
    • Windows: 下载后缀为 .exe 的文件,例如 argo-0.3.1-windows-x64-installer.exe
    • macOS (Apple Silicon): 下载后缀为 osx-installer.dmg 的文件,例如 argo-0.3.1-osx-installer.dmg
    • macOS (Intel): 下载后缀为 mac-intel-installer.dmg 的文件,例如 argo-0.3.1-mac-intel-installer.dmg
  3. 下载完成后,双击安装文件,按照屏幕上的提示完成安装即可。

使用Docker进行部署(适合开发者和高级用户)

如果你熟悉Docker,或者希望在服务器、一体机等环境中部署ARGO,可以选择此方式。这种方式更加灵活,可以与其他服务轻松集成。

额外软件要求:

  • Docker >= 24.0.0
  • Docker Compose >= v2.26.1

根据你的需求,选择以下一种部署方案:

1. 方案一:仅安装ARGO(连接到外部Ollama)
如果你本地已经运行了Ollama服务,或者有其他容器正在运行Ollama,你可以使用此命令让ARGO连接到现有的服务。

docker compose -f docker/docker-compose.yaml up -d

注意:此方案不包含Ollama服务,因此软件内部分模型的下载功能(如从HuggingFace下载)可能受限。

2. 方案二:安装ARGO与Ollama(CPU版本)
这个方案会同时部署ARGO和Ollama,并使用CPU进行模型推理。这是在没有NVIDIA显卡的设备上运行本地模型的推荐方式。

docker compose -f docker/docker-compose.ollama.yaml up -d

说明:Ollama将作为一个服务与ARGO一同部署,服务地址为 http://ollama:11434,支持在ARGO界面内自动下载和加载本地模型。

3. 方案三:安装ARGO与Ollama(GPU版本)
如果你拥有一台配备NVIDIA显卡的机器,并希望利用GPU加速模型推理,请使用此方案。

docker compose -f docker/docker-compose.ollama.gpu.yaml up -d

前提:请确保你的主机已正确安装NVIDIA Container Toolkit。此版本会启用GPU支持,Ollama服务同样部署在容器内,并支持GPU加速。

访问ARGO
通过Docker部署成功后,在你的浏览器中打开 http://localhost:38888 即可访问ARGO的用户界面。

基本功能操作

  1. 模型管理:进入软件后,你可以在模型管理界面看到已集成的Ollama。你可以一键下载社区流行的开源模型,也可以配置API密钥,连接到OpenAI等远程模型服务。
  2. 创建智能体:通过“智能体工厂”,你可以定义一个新智能体的角色、设定它的工作目标、绑定它能使用的模型和工具,以及为它配置专属的知识库。
  3. 执行任务:在主界面与智能体对话,提出一个复杂的需求,例如“帮我分析一下最近AI行业的发展趋势,并生成一份报告”。ARGO的智能体系统会自动将这个任务分解为多个步骤,如“搜索最新资讯”、“整理关键信息”、“撰写报告”等,并依次执行。
  4. 知识库使用:在知识库管理模块,你可以通过上传文件、关联本地文件夹或输入网址来创建知识库。创建完成后,在与智能体对话时,可以选择挂载对应的知识库,智能体便会基于你提供的资料来回答问题。

应用场景

  1. 个人助理
    ARGO可以作为全天候的个人助理,帮助用户管理日程、提供购物建议、处理日常琐事,从而有效提升个人生活和工作效率。
  2. 学习与研究
    学生和研究人员可以利用ARGO来辅助学习。它可以帮助理解复杂的学术概念、提供丰富的学习资源、定制学习计划,并在需要时给出复习建议。通过挂载论文和教材,ARGO可以成为一个专业的学术问答助手。
  3. 内容创作
    对于作家、博主和营销人员,ARGO可以自动生成文章草稿、优化文案风格、提供创意灵感,显著提升内容创作的效率和质量。
  4. 编程开发辅助
    开发者可以利用ARGO来生成代码片段、调试程序或寻求技术问题的解决方案。它可以作为一个不知疲倦的编程伙伴,帮助开发者更高效地解决编程难题。
  5. 专业领域顾问
    通过定制,ARGO可以化身为特定行业的专家,例如法律顾问或行业分析师。用户可以创建一个搭载了专业知识库的智能体,以满足特定领域的专业需求。
  6. 数据分析与报告
    ARGO能够快速分析数据、生成图表和报告,为商业决策提供数据支持。用户只需导入数据文件,并下达分析指令即可。

QA

  1. ARGO是免费的吗?
    是的,ARGO是一个开源项目,基于LICENSE许可发布,你可以免费下载、使用和修改它。
  2. 我的数据是否安全?
    非常安全。ARGO的核心特性之一就是“本地优先”,所有数据,包括你的对话记录、知识库内容和模型文件,都存储在你自己的电脑上,不会上传到任何云端服务器,完全支持离LINE下运行。
  3. 我可以使用哪些AI模型?
    ARGO的兼容性很强。它内置了Ollama,可以方便地下载和运行GGUF格式的本地开源模型。同时,它也支持通过API密钥连接到OpenAI、Claude、DeepSeek等主流的闭源模型提供商。
  4. 非技术人员可以使用ARGO吗?
    可以。ARGO为Windows和macOS用户提供了图形化的安装包,只需双击即可完成安装,无需复杂的命令行操作,非常适合非技术背景的用户。
  5. 这个项目还在开发中吗?
    是的,ARGO项目目前处于早期快速开发的阶段。开发团队正在积极地完善功能和修复问题,并计划在未来增加全局个性化记忆、定时任务等更多功能。
0已收藏
0已赞

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文