LLM設定方法
OxyGentはインテリジェントボディシステムを実行するためにLarge Language Model (LLM)へのHTTP API接続を必要とし、2つの設定方法をサポートする:
環境変数の設定
- .envファイルで設定:
echo 'DEFAULT_LLM_API_KEY="your_api_key"' > .env
echo 'DEFAULT_LLM_BASE_URL="your_base_url"' >> .env
echo 'DEFAULT_LLM_MODEL_NAME="your_model_name"' >> .env - あるいは、環境変数を設定する:
export DEFAULT_LLM_API_KEY="your_api_key"
export DEFAULT_LLM_BASE_URL="your_base_url"
export DEFAULT_LLM_MODEL_NAME="your_model_name"
ランタイム設定
PythonスクリプトではConfigオブジェクトで指定する:
Config.set_agent_llm_model("default_llm")- llm_paramsパラメータの微調整(温度など)
- リクエスト・レートを制御するための同時実行セマフォの設定をサポート。
モデルのサポート範囲
フレームワークは、HTTP APIを提供するあらゆるLLMサービスと互換性がある:
- OpenAIファミリーのモデル(GPTなど)
- クロード・シリーズ
- LLaMAのAPIサービスのようなオープンソースモデル
この答えは記事から得たものである。OxyGent: インテリジェントシステムを迅速に構築するためのPythonオープンソースフレームワークについて































