Gemini-CLI-2-APIを使ってAIの応答を得るには、主に2つの方法がある:
基本チャットリクエスト
これは、/v1/chat/completionsエンドポイントにPOSTリクエストを送ることで実行できる:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个翻译助手"},
{"role": "user", "content": "将这句中文翻译成英文"}
]
}'
ストリーミング・レスポンス・リクエスト
レスポンスをリアルタイムで取得するには、"stream": trueを設定する:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "写一首关于春天的诗"}
]
}'
さらに、サポートされているモデルのリストは、/v1/modelsエンドポイントを介して問い合わせることができます。リクエストフォーマットは、既存のツールとの統合を容易にするために、OpenAI API仕様に正確に準拠していることに注意してください。
この答えは記事から得たものである。Gemini-CLI-2-API:Gemini CLIをOpenAI互換のネイティブAPIサービスに変換するについて































 日本語
日本語				 简体中文
简体中文					           English
English					           Deutsch
Deutsch					           Português do Brasil
Português do Brasil