Há duas maneiras principais de obter uma resposta de IA usando a API Gemini-CLI-2:
Solicitação de bate-papo básico
Isso pode ser feito enviando uma solicitação POST para o ponto de extremidade /v1/chat/completions, por exemplo:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个翻译助手"},
{"role": "user", "content": "将这句中文翻译成英文"}
]
}'
Solicitações de resposta de streaming
Para obter a resposta em tempo real, defina "stream": true:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "写一首关于春天的诗"}
]
}'
Além disso, a lista de modelos compatíveis pode ser consultada por meio do ponto de extremidade /v1/models. Observe que o formato da solicitação segue exatamente a especificação da API da OpenAI, para facilitar a integração com as ferramentas existentes.
Essa resposta foi extraída do artigoGemini-CLI-2-API: convertendo a CLI do Gemini em um serviço de API nativa compatível com OpenAIO





























