使用Gemini-CLI-2-API获取AI响应主要有两种方式:
基本聊天请求
可以通过向/v1/chat/completions端点发送POST请求,示例:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "messages": [ {"role": "system", "content": "你是一个翻译助手"}, {"role": "user", "content": "将这句中文翻译成英文"} ] }'
流式响应请求
如需实时获取响应,可以设置”stream”: true:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "stream": true, "messages": [ {"role": "user", "content": "写一首关于春天的诗"} ] }'
此外,还可以通过/v1/models端点查询支持的模型列表。注意请求格式完全遵循OpenAI API规范,便于现有工具的集成。
本答案来源于文章《Gemini-CLI-2-API:将Gemini CLI转为OpenAI兼容的本地API服务》