Há duas maneiras principais de obter uma resposta de IA usando a API Gemini-CLI-2:
Solicitação de bate-papo básico
Isso pode ser feito enviando uma solicitação POST para o ponto de extremidade /v1/chat/completions, por exemplo:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "messages": [ {"role": "system", "content": "你是一个翻译助手"}, {"role": "user", "content": "将这句中文翻译成英文"} ] }'
Solicitações de resposta de streaming
Para obter a resposta em tempo real, defina "stream": true:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "stream": true, "messages": [ {"role": "user", "content": "写一首关于春天的诗"} ] }'
Além disso, a lista de modelos compatíveis pode ser consultada por meio do ponto de extremidade /v1/models. Observe que o formato da solicitação segue exatamente a especificação da API da OpenAI, para facilitar a integração com as ferramentas existentes.
Essa resposta foi extraída do artigoGemini-CLI-2-API: convertendo a CLI do Gemini em um serviço de API nativa compatível com OpenAIO