安装Local Deep Research需要以下几个主要步骤:
- 克隆项目:首先在终端运行
git clone
命令将项目代码库下载到本地计算机。 - 安装依赖:使用Python的包管理工具安装所需库,推荐创建虚拟环境后再安装。
- 设置本地模型:通过Ollama安装和配置本地大语言模型,例如可以运行
ollama pull gemma3:12b
来获取推荐模型。 - 可选配置:为了提高搜索效果,建议自托管SearXNG搜索服务,这需要通过Docker来安装和运行。
- 启动工具:可以选择启动网页界面(访问本地5000端口)或使用命令行界面。
对于Windows用户,项目提供了一键安装包来简化安装流程。需要注意的是,运行本地大语言模型对硬件有一定要求,特别是需要较大的内存容量,推荐使用配备GPU的计算机以获得更好的性能。
本答案来源于文章《Local Deep Research:本地运行的生成深度研究报告工具》