Es gibt zwei Möglichkeiten, mit der Gemini-CLI-2-API eine KI-Antwort zu erhalten:
Basis-Chat-Anfrage
Dies kann durch Senden einer POST-Anfrage an den Endpunkt /v1/chat/completions geschehen, Beispiel:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "messages": [ {"role": "system", "content": "你是一个翻译助手"}, {"role": "user", "content": "将这句中文翻译成英文"} ] }'
Streaming-Antwort-Anforderungen
Um die Antwort in Echtzeit zu erhalten, setzen Sie "stream": true:
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "gemini-2.5-pro", "stream": true, "messages": [ {"role": "user", "content": "写一首关于春天的诗"} ] }'
Darüber hinaus kann die Liste der unterstützten Modelle über den Endpunkt /v1/models abgefragt werden. Beachten Sie, dass das Abfrageformat genau der OpenAI-API-Spezifikation entspricht, um eine einfache Integration mit bestehenden Tools zu ermöglichen.
Diese Antwort stammt aus dem ArtikelGemini-CLI-2-API: Umwandlung der Gemini-CLI in einen OpenAI-kompatiblen Native-API-DienstDie