Verschreibung
Die OpenAI-kompatible Schnittstelle über die Gemini-CLI-2-API ermöglicht eine nahtlose Integration in bestehende Toolchains. Die Schritte sind im Folgenden beschrieben:
- Bereitstellung lokaler Dienste: Erstens durch
npm install
Installieren Sie die Abhängigkeiten und verwenden Sie dienode openai-api-server.js
Starten Sie den Dienst (Standard-Port 8000) - Konfigurieren der TerminaladresseÄndern Sie die Adresse des API-Endpunkts für vorhandene Tools in
http://localhost:8000/v1
- Beibehaltung des AntragsformatsOpenAI: Verwenden Sie weiterhin den OpenAI-Standard-JSON-Anfragekörper (z.B.
/v1/chat/completions
(Endpunkte) - Anpassung der AuthentifizierungWenn das ursprüngliche Tool einen API-Schlüssel verwendet, starten Sie den Dienst über den
--api-key
Parameter setzen den gleichen Schlüssel
Vorteile sind: 1) Automatische Konvertierung des Anfrage/Antwort-Formats 2) Unterstützung von Streaming 3) Beibehaltung der ursprünglichen Funktionsaufrufmethode. Anwendbar auf LangChain, AutoGPT und andere Frameworks.
Diese Antwort stammt aus dem ArtikelGemini-CLI-2-API: Umwandlung der Gemini-CLI in einen OpenAI-kompatiblen Native-API-DienstDie