集成本地LLM需要分步骤配置:
- 模型准备阶段:
– 确认模型格式为GGUF或HuggingFace标准格式
– 推荐最低配置:7B参数模型+16GB内存 - 配置文件修改:
编辑config.yaml的llm_module部分:llm_module:
local_path: "/path/to/your/model"
model_type: "llama" # or "gpt", "mistral"等
context_window: 4096
temperature: 0.65 - 测试连接:
运行命令python -m NodeRAG.llm_test
验证模型加载是否正常 - 性能优化:
– 启用uv加速:uv pip install llama-cpp-python
– 在GPU机器上添加CMAKE_ARGS="-DLLAMA_CUBLAS=on"
环境变量
注意:首次运行会较慢(需要加载模型权重),后续查询会缓存中间结果提升速度。如果响应延迟>5秒,建议降低max_tokens参数或切换轻量级模型。
本答案来源于文章《NodeRAG:基于异构图的精准信息检索与生成工具》