多环境适配指南
HippoRAG通过统一接口设计支持灵活切换推理后端,主要操作如下:
- 云端OpenAI服务::
- セットアップ
export OPENAI_API_KEY=sk-xxx
- 初始化时指定
llm_model_name='gpt-4o-mini'
- セットアップ
- 本地vLLM部署::
- サービス開始
vllm serve meta-llama/Llama-3.3-70B-Instruct
- コンフィグ
llm_base_url='http://localhost:8000/v1'
- サービス開始
- ハイブリッドモデルスルー
--llm_name
歌で応える--llm_base_url
参数动态选择
关键调试技巧::
- 测试连接性:运行
hipporag.check_llm_connection()
- 性能调优:
- OpenAI模型建议添加
--max_tokens 512
限制响应长度 - vLLM模型调整
--gpu-memory-utilization 0.9
提高吞吐量
- OpenAI模型建议添加
この答えは記事から得たものである。HippoRAG: 長期記憶に基づくマルチホップ知識検索フレームワークについて