背景与解决方案
当开发者需要在现有基于OpenAI API的工具(如LangChain)中集成Google Gemini模型时,传统方式需重写大量代码。geminicli2api通过以下步骤解决该问题:
concrete operation
- 部署代理服务器:通过Docker或本地运行方式启动geminicli2api服务(默认端口8888)
- 修改API端点:将现有OpenAI客户端配置中的
base_url
directionalhttp://localhost:8888/v1
- Authentication Configuration: Use
GEMINI_AUTH_PASSWORD
作为API密钥,格式与OpenAI完全兼容 - model mapping:调用时指定Gemini专用模型名称(如
gemini-2.5-pro
)
dominance
- 零代码修改实现技术栈迁移
- 可继续使用OpenAI生态工具链
- 自动享受Google免费API配额
This answer comes from the articlegeminicli2api: Proxy tool to convert Gemini CLI to OpenAI-compatible APIsThe