Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

Gemini-CLI-2-API ist ein Open-Source-Projekt, das die Kernfunktion von Googles Zwillinge Das CLI-Tool ist als nativer API-Dienst gekapselt, der mit der OpenAI-API kompatibel ist. Es basiert auf dem Gemini 2.5 Pro-Modell und unterstützt Entwickler dabei, die KI-Funktionen von Gemini über die OpenAI-Standardschnittstelle aufzurufen, ohne die bestehende Toolkette zu ändern. Das Projekt bietet 1000 kostenlose Anfragen pro Tag, unterstützt Streaming Response, mehrere Authentifizierungsmethoden und detaillierte Protokollierung. Der Code ist quelloffen, unter der GNU General Public License v3 lizenziert und leicht erweiterbar für Entwickler, die lokale KI-Dienste oder hochfrequente Aufrufe benötigen.

Funktionsliste

  • Oberbefehlshaber (Militär) Gemini CLI Verpackt in eine OpenAI API-kompatible Schnittstelle, die Folgendes unterstützt /v1/models im Gesang antworten /v1/chat/completions Endpunkte.
  • Automatische Konvertierung von OpenAI-formatierten Anfragen und Antworten in das Gemini-Format.
  • Unterstützt Gemini 2.5 Pro Modelle und bietet 1000 kostenlose Anfragen pro Tag.
  • Streaming ist möglich, und die Antworten werden in Echtzeit mit Schreibmaschineneffekt ausgegeben.
  • Enthält ein Protokollierungssystem, das Anforderungswörter, Zeitstempel und das Ablaufdatum von Token aufzeichnet.
  • Es wird eine Vielzahl von Authentifizierungsmethoden unterstützt, darunter Bearer-Tokens, URL-Abfrageparameter und x-goog-api-key.
  • Die Abhöradresse, der Port, der API-Schlüssel und der Protokollierungsmodus können über die Befehlszeile konfiguriert werden.
  • Unterstützt die automatische Erneuerung von OAuth-Tokens zur Vereinfachung des Authentifizierungsprozesses.
  • Modulare Codestruktur zur Unterstützung sekundärer Entwicklungen wie dem Hinzufügen von Caching- oder Filterfunktionen.

Hilfe verwenden

Einbauverfahren

Gemini-CLI-2-API muss in einer Node.js-Umgebung laufen. Im Folgenden sind die detaillierten Installations- und Konfigurationsschritte aufgeführt:

  1. Installation von Node.js
    Stellen Sie sicher, dass Node.js auf Ihrem System installiert ist (die neueste LTS-Version wird empfohlen). Laden Sie Node.js von der offiziellen Node.js-Website herunter und installieren Sie es. Überprüfen Sie die Installation:
node -v
npm -v
  1. Projektlager klonen
    Klonen Sie das Projekt lokal mit Git:
git clone https://github.com/justlovemaki/Gemini-CLI-2-API.git
cd Gemini-CLI-2-API
  1. Installation von Abhängigkeiten
    Führen Sie den folgenden Befehl im Stammverzeichnis des Projekts aus:
npm install
  1. API-Schlüssel konfigurieren
    Projektunterstützung Google Zwillings-API Schlüssel oder OAuth-Authentifizierung:
  • OAuth-AuthentifizierungWenn Sie das Programm zum ersten Mal ausführen, öffnet es einen Browser und fordert Sie auf, sich bei Ihrem Google-Konto anzumelden, erzeugt ein OAuth-Token und speichert es automatisch. Das Token läuft ab und wird automatisch erneuert.
  • API-Schlüssel: von Google Cloud oder Google AI Studio Holen Sie sich den Schlüssel und setzen Sie die Umgebungsvariablen:
    export GOOGLE_API_KEY="YOUR_API_KEY"
    export GOOGLE_GENAI_USE_VERTEXAI=true
    

    Austauschbarkeit YOUR_API_KEY ist der eigentliche Schlüssel.

  1. Neue Dienste
    Führen Sie den folgenden Befehl aus, um den lokalen API-Dienst zu starten, der standardmäßig an Port 8000 lauscht:
node openai-api-server.js --port 8000 --api-key sk-your-key

passabel --port im Gesang antworten --api-key Parameter benutzerdefinierter Anschluss und Schlüssel. Beispiel:

node openai-api-server.js --port 8080 --api-key sk-your-key

Verwendung

Sobald der Dienst gestartet ist, können Sie mit Gemini-CLI-2-API über einen OpenAI-kompatiblen API-Endpunkt interagieren. Im Folgenden finden Sie eine detaillierte Anleitung dazu:

  1. Chat-Anfrage senden
    Projektunterstützung /v1/chat/completions Endpunkte, die mit dem Anfrageformat von OpenAI kompatibel sind. Verwenden Sie die curl oder andere HTTP-Clients, um Anfragen zu senden:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个代码助手。"},
{"role": "user", "content": "帮我写一个 Python 函数"}
]
}'

Die Antwort ist im JSON-Format und der Inhalt wird vom Gemini 2.5 Pro-Modell generiert.

  1. Streaming verwenden
    Aktivieren Sie die Streaming-Antwort, setzen Sie "stream": trueDie Ergebnisse werden wortwörtlich in Echtzeit angezeigt:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "讲一个关于 AI 的故事"}
]
}'
  1. Verfügbare Modelle abfragen
    ausnutzen /v1/models Endpunkte zur Anzeige der unterstützten Modelle:
curl http://localhost:8000/v1/models 
-H "Authorization: Bearer sk-your-key"

Gibt eine Liste der derzeit unterstützten Modelle zurück, z. B. gemini-2.5-pro.

  1. Ansicht Log
    Das Protokollierungssystem zeichnet die Eingabeaufforderungen und Zeitstempel aller Anfragen auf, um die Fehlersuche zu erleichtern. Aktivieren Sie die Protokollausgabe in eine Datei:
node openai-api-server.js --port 8000 --api-key sk-your-key --log file

Die Protokolldateien werden im Projektverzeichnis gespeichert und enthalten Details zur Anfrage und zum Token-Status.

  1. Integration in bestehende Tools
    Da die API mit dem OpenAI-Format kompatibel ist, können Sie die Adresse des Dienstes hinzufügen (z. B. http://localhost:8000/v1) auf ein Tool konfiguriert ist, das die OpenAI-API unterstützt (z. B. LobeChat). Setzen Sie einfach die API-Adresse des Tools auf die von Gemini-CLI-2-API, wobei das Anfrageformat gleich bleibt.
  2. Erweiterte Entwicklung
    Der modulare Aufbau des Projekts erleichtert die Erweiterung. Beispiel:
  • Cache hinzufügenModifikation gemini-core.jsWenn Sie die Anzahl der API-Aufrufe reduzieren möchten, können Sie Redis oder File Caching hinzufügen, um die Anzahl der API-Aufrufe zu reduzieren.
  • Filterung von Inhalten: in openai-api-server.js Fügen Sie eine Logik zur Filterung von Schlüsselwörtern hinzu, um den Inhalt der Anfrage oder der Antwort zu überprüfen.

caveat

  • Stellen Sie sicher, dass Ihre Netzwerkverbindung stabil ist und dass die OAuth-Authentifizierung den Zugriff auf Google-Server erfordert.
  • Multimodale Eingaben (z.B. Bilder) werden zur Zeit nicht unterstützt, können aber in Zukunft aktualisiert werden.
  • Kostenlos für bis zu 1000 Anfragen pro Tag, gemäß den Nutzungsbedingungen von Google.
  • Wenn die Authentifizierung fehlschlägt, prüfen Sie die GOOGLE_API_KEY oder wiederholen Sie den OAuth-Prozess.

Anwendungsszenario

  1. Nahtlose Integration vorhandener Tools
    Entwickler können die Gemini-CLI-2-API in Tools einbinden, die auf der OpenAI-API basieren (z. B. LangChain, AutoGPT) und die KI-Funktionen von Gemini 2.5 Pro direkt aufrufen, ohne den Code zu ändern.
  2. Lokaler Einsatz von AI-Diensten
    Unternehmen können lokale API-Dienste für privatisierte KI-Aufgaben wie Codegenerierung und Dokumentenzusammenfassung einsetzen und so ihre Abhängigkeit von Cloud-Diensten verringern.
  3. Tipps zum Debuggen und Optimieren
    Das Protokollierungssystem unterstützt Entwickler bei der Aufzeichnung und Analyse von Stichwörtern, um das Interaktionsdesign zu optimieren oder benutzerdefinierte Datensätze zu erstellen.
  4. Lernen und Experimentieren
    Studenten oder Forscher können sich über API-Integrationen informieren, mit der Leistung von Gemini-Modellen experimentieren oder mit Hilfe von Open-Source-Code neue Funktionen entwickeln.

QA

  1. Warum muss ich mit der OpenAI-API kompatibel sein?
    Die OpenAI-API ist eine Standardschnittstelle für viele KI-Tools, und die Gemini-CLI-2-API ermöglicht es Entwicklern, Gemini-Modelle zu verwenden, ohne bestehenden Code zu ändern, da sie mit diesem Format kompatibel ist.
  2. Ist eine Gebühr zu entrichten?
    Das Projekt ist kostenlos und basiert auf 1000 kostenlosen Anfragen pro Tag von der Gemini CLI. Höhere Beträge sind über Google verfügbar AI-Studio Kaufen.
  3. Wie gehe ich mit API-Schlüsselfehlern um?
    Überprüfen Sie die Umgebungsvariablen oder führen Sie die Anwendung erneut aus, um die OAuth-Authentifizierung auszulösen. Stellen Sie sicher, dass das Google-Konto die Berechtigung für den Zugriff auf die Gemini-API hat.
  4. Welche Modelle werden unterstützt?
    Zurzeit wird Gemini 2.5 Pro unterstützt, mit möglichen zukünftigen Erweiterungen für andere Gemini-Modelle.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

Posteingang

Kontakt

zurück zum Anfang

de_DEDeutsch