Langroid允许开发者跳过智能体抽象,直接与LLM交互。步骤如下:
- 配置模型参数(如选择GPT-4o或本地Ollama模型);
- 初始化
OpenAIGPT
实例; - 调用
chat()
方法发送问题并获取响应。
示例代码:
llm_config = OpenAIGPTConfig(chat_model=OpenAIChatModel.GPT4o)
model = OpenAIGPT(llm_config)
response = model.chat("中国的首都是哪里?", max_tokens=20)
此方式适用于模型能力测试或简单问答场景,无需处理对话历史或任务编排。
本答案来源于文章《Langroid:使用多智能体编程轻松驾驭大语言模型》