Langroid提供灵活的LLM集成方案:
- OpenAI系列模型:原生支持GPT-4o等官方模型
- 开源/本地模型:通过ollama或LiteLLM代理连接Llama、Mistral等本地部署模型
- 商业模型API:兼容数百家提供商的云服务
使用时只需在配置中指定chat_model
参数,例如'ollama/mistral'
表示本地模型,OpenAIChatModel.GPT4o
表示OpenAI最新模型。这种设计使开发者能快速切换模型进行对比测试,而无需修改核心代码。
本答案来源于文章《Langroid:使用多智能体编程轻松驾驭大语言模型》