解决方案:使用easy-llm-cli统一管理多模型API
开发者在本地环境调用不同LLM时通常会面临以下痛点:需要记忆各平台差异化的API格式、频繁修改代码切换模型、需要单独处理多模态输入等。
通过easy-llm-cli可以分三步解决问题:
- 统一安装管理:通过npm全局安装
npm install -g easy-llm-cli
后,所有模型调用都通过标准化的elc
命令完成 - 环境变量配置:在shell配置文件(.bashrc/.zshrc)中设置四个核心变量:
export CUSTOM_LLM_PROVIDER=XXX
(如openai/claude)
export CUSTOM_LLM_API_KEY=XXX
export CUSTOM_LLM_ENDPOINT=XXX
export CUSTOM_LLM_MODEL_NAME=XXX
- 动态切换模型:
– 临时切换:直接在命令前加上变量定义
CUSTOM_LLM_PROVIDER=openai elc "分析代码"
– 持久配置:修改环境变量后重启终端
该方法相比原生API调用具有三大优势:无需重写业务逻辑代码、支持命令行管道操作、自动处理各平台返回格式差异。实测可减少80%的模型切换成本。
本答案来源于文章《easy-llm-cli:让Gemini CLI 支持调用多种大语言模型》