LLM配置方法
OxyGent需要通过HTTP API连接大型语言模型(LLM)来运行智能体系统,支持两种配置方式:
環境変数の設定
- 通过.env文件配置:
echo 'DEFAULT_LLM_API_KEY="your_api_key"' > .env
echo 'DEFAULT_LLM_BASE_URL="your_base_url"' >> .env
echo 'DEFAULT_LLM_MODEL_NAME="your_model_name"' >> .env
- 或者直接设置环境变量:
export DEFAULT_LLM_API_KEY="your_api_key"
export DEFAULT_LLM_BASE_URL="your_base_url"
export DEFAULT_LLM_MODEL_NAME="your_model_name"
运行时配置
在Python脚本中通过Config对象指定:
Config.set_agent_llm_model("default_llm")
- 可精细控制llm_params参数(如temperature)
- 支持设置并发信号量(semaphore)控制请求速率
模型支持范围
框架兼容任何提供HTTP API的LLM服务,包括但不限于:
- OpenAI系列模型(GPT等)
- Claude系列模型
- 开源模型如LLaMA的API服务
この答えは記事から得たものである。OxyGent: インテリジェントシステムを迅速に構築するためのPythonオープンソースフレームワークについて