隐私保护的本地化解决方案
对于需要处理敏感数据的用户,Pesquisa profunda local提供了完整的本地化部署方案:
- 模型本地运行:通过Ollama框架运行本地LLM(如gemma3:12b),所有数据处理都在用户设备完成
- 可选网络隔离:在.env配置文件中关闭SEARXNG_INSTANCE参数可完全断网运行
- 文档本地处理:设置DOC_PATH参数指定本地文件夹,实现文档检索的闭环处理
Procedimento operacional:1) 安装时跳过Playwright和SearXNG组件;2) 修改config.py将search_tool设为local_only;3) 运行前确保Ollama服务已启动。这种配置下工具仅分析本地文档,适合金融/医疗等隐私敏感领域。
Essa resposta foi extraída do artigoLocal Deep Research: uma ferramenta executada localmente para gerar relatórios de pesquisa aprofundadosO