集成本地LLM需要分步骤配置:
- 模型准备阶段::
– 确认模型格式为GGUF或HuggingFace标准格式
– 推荐最低配置:7B参数模型+16GB内存 - Configuration file modification::
编辑config.yaml的llm_module部分:llm_module:
local_path: "/path/to/your/model"
model_type: "llama" # or "gpt", "mistral"等
context_window: 4096
temperature: 0.65 - test connection::
Run commandpython -m NodeRAG.llm_test
验证模型加载是否正常 - performance optimization::
– 启用uv加速:uv pip install llama-cpp-python
– 在GPU机器上添加CMAKE_ARGS="-DLLAMA_CUBLAS=on"
environment variable
注意:首次运行会较慢(需要加载模型权重),后续查询会缓存中间结果提升速度。如果响应延迟>5秒,建议降低max_tokens参数或切换轻量级模型。
This answer comes from the articleNodeRAG: A Heterogeneous Graph-Based Tool for Accurate Information Retrieval and GenerationThe