安装Local Deep Research需要以下几个主要步骤:
- クローンプロジェクト:首先在终端运行
git clone
命令将项目代码库下载到本地计算机。 - 依存関係のインストール:使用Python的包管理工具安装所需库,推荐创建虚拟环境后再安装。
- 设置本地模型:通过Ollama安装和配置本地大语言模型,例如可以运行
ollama pull gemma3:12b
来获取推荐模型。 - オプション構成:为了提高搜索效果,建议自托管SearXNG搜索服务,这需要通过Docker来安装和运行。
- スターターキット:可以选择启动网页界面(访问本地5000端口)或使用命令行界面。
对于Windows用户,项目提供了一键安装包来简化安装流程。需要注意的是,运行本地大语言模型对硬件有一定要求,特别是需要较大的内存容量,推荐使用配备GPU的计算机以获得更好的性能。
この答えは記事から得たものである。ローカル・ディープ・リサーチ:詳細な調査レポートを作成するためのローカルで実行可能なツールについて