Método de configuração do LLM
O OxyGent requer uma conexão de API HTTP com o Large Language Model (LLM) para executar o sistema de corpo inteligente e oferece suporte a dois métodos de configuração:
Configuração da variável de ambiente
- Configurado por meio do arquivo .env:
echo 'DEFAULT_LLM_API_KEY="your_api_key"' > .env
echo 'DEFAULT_LLM_BASE_URL="your_base_url"' >> .env
echo 'DEFAULT_LLM_MODEL_NAME="your_model_name"' >> .env - Ou simplesmente defina a variável de ambiente:
export DEFAULT_LLM_API_KEY="your_api_key"
export DEFAULT_LLM_BASE_URL="your_base_url"
export DEFAULT_LLM_MODEL_NAME="your_model_name"
Configuração de tempo de execução
Especificado no script Python por meio do objeto Config:
Config.set_agent_llm_model("default_llm")- Controle fino dos parâmetros llm_params (por exemplo, temperatura)
- Oferece suporte à configuração de semáforo simultâneo para controlar a taxa de solicitação.
Escopo do suporte ao modelo
A estrutura é compatível com qualquer serviço do LLM que forneça uma API HTTP, incluindo, mas não se limitando a:
- Família de modelos OpenAI (GPT, etc.)
- Modelos da série Claude
- Modelos de código aberto, como os serviços de API do LLaMA
Essa resposta foi extraída do artigoOxyGent: uma estrutura de código aberto Python para a criação rápida de sistemas inteligentesO































