Overseas access: www.kdjingpai.com
Bookmark Us

DeepSearch AI Agent是一个高级人工智能内容创作助手。 它使用LangGraph和FastAPI技术构建。 这个工具和一般的问答机器人不一样。 它模仿一个专家团队的工作流程,通过“思考-规划-研究-写作”的循环,能将用户提出的一个简单请求,转变成一篇结构完整、内容有深度的专业文章、教程或者技术博客。 整个系统前后端分离,后端通过FastAPI处理逻辑,前端使用React来展示界面,两者之间通过实时流式技术进行通信,用户可以实时看到文章生成的过程。 这个项目的设计具有高扩展性,可以很方便地增加新的功能节点,比如增加人工评审或自动修正的环节,来实现更复杂的智能代理逻辑。

 

Function List

  • 动态叙事规划:在动笔之前,AI会对主题进行分析,判断内容类型(例如是技术类还是历史类),然后设计一个最合适的叙事结构,避免使用生硬的模板。
  • 专家级大纲生成:工具可以生成章节标题自然、能吸引人的文章大纲,就像是真人专家写的一样,而不是冷冰冰的任务描述。
  • 主管-执行者工作流:系统内部有两个主要角色,“研究主管”和“写作主管”。它们分别调度执行者去完成具体的研究和写作任务,这个设计使得整个流程清晰,也容易控制。
  • 精准的资料引用与检索:写作AI会使用范围化的RAG工具,这意味着它只查询和当前章节最相关的研究资料,保证了信息的准确性。
  • 学术级引用格式:系统能自动处理引用来源。它会在文章正文中生成可点击的引用标记(例如[1]),并在文章末尾统一生成格式规范的参考文献列表。
  • Real-time progress updates:后端会通过Server-Sent Events(SSE)技术,把任务进度、新写好的章节内容和参考文献等信息实时推送到前端界面上。
  • 现代化技术栈:项目使用了当前流行的前后端技术,后端主要依靠Python的FastAPI和LangGraph,前端则使用React和TypeScript。

Using Help

DeepSearch AI Agent是一个前后端分离的项目,你需要分别对后端和前端进行设置和启动。下面是详细的操作步骤,让你能够从零开始成功运行它。

第一步:准备工作

Before you begin, make sure you have the following software installed on your computer:

  • Python (3.9或更高版本)
  • Node.js cap (a poem) npm (用于运行前端)
  • Git (用于克隆代码仓库)

第二步:获取项目代码

打开你的终端(在Windows上是命令提示符或PowerShell,在macOS或Linux上是终端),然后克隆代码仓库到你的本地电脑。

git clone https://github.com/LordFoxFairy/deepseek_deepsearch_quickstart.git

Once the cloning is complete, go to the project directory:

cd deepseek_deepsearch_quickstart

第三步:后端设置

后端负责所有的AI逻辑处理,包括规划、研究和写作。

  1. 进入后端目录
    在项目根目录(deepseek_deepsearch_quickstart)下,首先进入backendCatalog.

    cd backend
    
  2. Create and activate a Python virtual environment
    为了不污染你电脑上全局的Python环境,我们强烈建议创建一个虚拟环境。

    python -m venv venv
    

    这条命令会创建一个名为venv的文件夹。接下来,你需要激活它:

    • exist Windows (computer) 系统上,运行:
      .\venv\Scripts\activate
      
    • exist macOS maybe Linux 系统上,运行:
      source venv/bin/activate
      

    激活成功后,你会在终端的命令提示符前面看到(venv)的字样。

  3. Installation of dependency packages
    后端所需的所有Python库都记录在requirements.txt文件中。运行以下命令来安装它们:

    pip install -r requirements.txt
    
  4. Configuring the API Key
    这个项目需要用到AI模型的API密钥才能工作。你需要配置两个关键的API密钥。
    First, in thebackend/src/目录下,找到一个名为.env.example的文件。你需要复制它并重命名为.envThe

    • exist Windows (computer) 上:
      copy .\src\.env.example .\src\.env
      
    • exist macOS maybe Linux 上:
      cp src/.env.example src/.env
      

    然后,用你的代码编辑器打开这个新的.env文件,你会看到以下内容:

    # backend/src/.env
    # 用于 RAG 嵌入
    DASH_SCOPE_API_KEY=sk-your-dashscope-api-key
    # 用于 LLM 推理
    DEEPSEEK_API_KEY=sk-your-deepseek-api-key
    DEEPSEEK_BASE_URL=https://api.deepseek.com
    

    你需要将sk-your-dashscope-api-keycap (a poem)sk-your-deepseek-api-key替换成你自己的真实密钥。DASH_SCOPE_API_KEY用于文本嵌入(RAG功能),DEEPSEEK_API_KEY用于大语言模型的推理。

第四步:前端设置

前端负责提供用户交互的界面。

  1. 进入前端目录
    打开一个新的终端窗口,或者在之前的终端里先返回项目根目录(cd ..),然后进入frontendCatalog.

    cd frontend
    
  2. Installation of dependency packages
    前端使用Node.js环境,所需依赖都记录在package.json文件中。运行以下命令进行安装:

    npm install
    

    这个过程可能会需要几分钟。

第五步:运行应用

现在,前后端的准备工作都已完成,我们可以启动应用了。你需要保持两个终端窗口同时运行。

  1. 启动后端服务 (在第一个终端)
    确保你当前在backend目录下,并且Python虚拟环境已经激活。然后运行以下命令:

    uvicorn src.api.main:app --host 0.0.0.0 --port 8000 --reload
    
    • uvicorn是一个ASGI服务器,用于运行FastAPI应用。
    • --host 0.0.0.0让服务可以在你的局域网内被访问。
    • --port 8000指定了服务的端口号。
    • --reload参数表示当代码文件发生变化时,服务会自动重启,非常适合开发环境。
  2. 启动前端服务 (在第二个终端)
    确保你当前在frontend目录下。然后运行以下命令:

    npm run dev
    

    这个命令会启动一个本地开发服务器,通常会监听在5173Ports.

第六步:开始体验

当两个服务都成功启动后,打开你的浏览器,访问以下地址:
http://localhost:5173
现在你应该能看到DeepSearch AI Agent的操作界面了。在输入框中输入一个你想要生成文章的主题,然后点击发送,AI就会开始它的“思考-规划-研究-写作”流程,并在界面上实时展示它的工作进度和最终生成的文章。

application scenario

  1. content creator
    对于需要撰写深度文章、教程或博客的个人或团队,这个工具可以作为一个强大的起点。用户只需提供一个核心主题,AI就能自动完成资料研究、结构规划和初稿撰写,极大地提高了内容创作的效率和质量。
  2. Technical Documentation
    软件开发者或技术写作人员可以用它来快速生成技术文档的初稿。例如,输入一个关于“如何使用某个API”的请求,系统可以自动生成一篇包含背景介绍、安装步骤、功能详解和代码示例的完整教程。
  3. Education and training
    教师或培训师可以利用这个工具为课程快速创建学习材料。无论是历史事件的详细介绍,还是复杂科学概念的通俗解释,AI都能生成结构清晰、内容详实的文章,作为教材或补充读物。

QA

  1. 这个项目需要付费吗?
    项目本身是开源的,可以免费使用。但它依赖于第三方的AI模型服务(如DeepSeek和DashScope),你需要拥有这些服务的API密钥,并根据这些服务商的定价策略支付API调用费用。
  2. 我可以替换成其他的大语言模型吗?
    可以。这个项目的架构设计是灵活的,兼容各类大语言模型。你可以在后端的代码中修改调用模型的部分,将其替换成你偏好的模型,例如OpenAI的GPT系列或其他模型。
  3. 生成文章的质量如何保证?
    系统通过一个“主管-执行者”模式来保证质量。 它首先进行深入的研究规划,然后利用RAG(检索增强生成)技术确保写作内容基于准确的资料。 同时,它会自动处理引用和参考文献,保证了内容的可溯源性。
0Bookmarked
0kudos

Can't find AI tools? Try here!

Just type in the keyword Accessibility Bing SearchYou can quickly find all the AI tools on this site.

Top

en_USEnglish