Es gibt zwei Möglichkeiten, mit der Gemini-CLI-2-API eine KI-Antwort zu erhalten:
Basis-Chat-Anfrage
Dies kann durch Senden einer POST-Anfrage an den Endpunkt /v1/chat/completions geschehen, Beispiel:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个翻译助手"},
{"role": "user", "content": "将这句中文翻译成英文"}
]
}'
Streaming-Antwort-Anforderungen
Um die Antwort in Echtzeit zu erhalten, setzen Sie "stream": true:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "写一首关于春天的诗"}
]
}'
Darüber hinaus kann die Liste der unterstützten Modelle über den Endpunkt /v1/models abgefragt werden. Beachten Sie, dass das Abfrageformat genau der OpenAI-API-Spezifikation entspricht, um eine einfache Integration mit bestehenden Tools zu ermöglichen.
Diese Antwort stammt aus dem ArtikelGemini-CLI-2-API: Umwandlung der Gemini-CLI in einen OpenAI-kompatiblen Native-API-DienstDie





























