Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

AIClient-2-API ist ein leichtgewichtiges API-Proxy-Tool für Entwickler, das den Kern derSimulieren Sie den Genehmigungs- und Anfrageprozess für mehrere KI-KundenDas Projekt vereinheitlicht die großen Modelldienste, die ursprünglich auf die clientseitige Nutzung beschränkt waren, wie z. B. Googles Gemini CLI, Alis Qwen Code Plus und Kiros clientseitig eingebautes Claude-Modell, durch technische Mittel zu einer lokalen Schnittstelle, die mit dem OpenAI-API-Format kompatibel ist. Der Zweck dieser Kapselung ist es, einen einheitlichen Zugangspunkt zu schaffen. Dies bedeutet, dass Entwickler verschiedene Anwendungen oder Tools, die ursprünglich auf die OpenAI-Schnittstelle angewiesen waren (z. B. LobeChat, NextChat usw.), direkt an die AIClient-2-API andocken können. Dies ermöglicht es Entwicklern, die vielen verschiedenen großen Modelle, die hinter den Kulissen unterstützt werden, nahtlos zu nutzen, ohne dass komplexe Codeanpassungen erforderlich sind. Das Projekt basiert auf Node.js, unterstützt Docker für eine schnelle Bereitstellung und bietet erweiterte Funktionen wie Account-Pool-Verwaltung, Failover und Protokollierung, um die Stabilität des Dienstes und die Flexibilität der Nutzung zu verbessern.

Funktionsliste

  • Simulation von Kundenautorisierung und -anfragenKernfunktionalität: Simulation des OAuth-Autorisierungsprozesses und des Anfrageformats von Clients wie Gemini CLI, Kiro usw., um die dahinter stehenden Modelldienste aufzurufen und die Beschränkungen der offiziellen API zu überwinden.
  • Vereinheitlichte API-SchnittstelleKapselung aller unterstützten Modelle in ein Standard-OpenAI-API-Format, um den Zweck des Aufrufs mehrerer Modelle über eine einzige Schnittstelle zu erreichen.
  • Kompatibel mit dem OpenAI-ÖkosystemJeder Client und jede Toolchain, die die OpenAI-API unterstützt, kann zum Nulltarif direkt über die von diesem Projekt bereitgestellte Schnittstellenadresse angesprochen werden.
  • Die Nutzungsbeschränkungen durchbrechenMit Hilfe einer simulierten clientseitigen Autorisierung ist es möglich, ein höheres Anfragekontingent und eine höhere Nutzungshäufigkeit als bei der offiziellen, kostenlosen API zu erhalten.
  • Freie ModellnutzungUnterstützung für kostenlose Aufrufe des in Kiro eingebauten Claude Sonnet 4-Modells durch Emulation seiner Client-API.
  • Kontopool-VerwaltungUnterstützt die Konfiguration mehrerer Konten für jeden Modelldienstanbieter und ermöglicht automatisches Polling, Failover und Konfigurationsverschlechterung von Anfragen zur Verbesserung der Dienststabilität.
  • Überwachung und Prüfung von AnträgenIntegrierte Protokollierungsfunktionen zur Aufzeichnung des Inhalts aller Anfragen und Antworten durch den Agenten für Debugging, Auditing oder die Erstellung privater Datensätze.
  • Dynamische Verwaltung von SchlagwörternBenutzer können das Verhalten von System-Prompts über Konfigurationsdateien flexibel steuern, entweder indem sie gezwungen werden, client-seitige Prompts zu überschreiben oder indem Inhalte an das Ende angehängt werden.
  • Leicht zu erweiternDas Projekt ist modular aufgebaut und bietet einen klaren und einfachen Implementierungspfad für Entwickler, um neue Modelldienstanbieter hinzuzufügen.
  • Containerisierte BereitstellungBietet vollständige Docker-Unterstützung und ermöglicht Benutzern die schnelle Bereitstellung und Isolierung von Laufzeitumgebungen durch Docker-Images.

Hilfe verwenden

Das AIClient-2-API-Projekt zielt darauf ab, den Entwicklungsprozess zu vereinfachen, indem verschiedene große Modelle über eine einheitliche Schnittstelle aufgerufen werden. Im Folgenden finden Sie eine detaillierte Installations- und Nutzungsanleitung.

Vorbereitung der Umwelt

Bevor Sie beginnen, vergewissern Sie sich, dass Sie die folgende Software auf Ihrem Computer installiert haben:

  • Node.jsDas Projekt läuft auf Node.js.
  • GitKlonen: Dient zum Klonen von Projektcode von GitHub.
  • Docker (empfohlen)Docker: Docker ist nicht erforderlich, wird aber offiziell für die Bereitstellung empfohlen, da es die Konfiguration der Umgebung und die Verwaltung von Abhängigkeiten vereinfacht.

Installation und Inbetriebnahme

Methode 1: Bereitstellung mit Docker (empfohlen)

Docker ist die offiziell empfohlene Bereitstellungsmethode, die eine saubere, isolierte Laufzeitumgebung bietet.

  1. Ziehen eines Docker-Images:
    Öffnen Sie Ihr Terminal (CMD oder PowerShell unter Windows, Terminal unter macOS oder Linux) und führen Sie den folgenden Befehl aus, um das neueste Image von Docker Hub zu beziehen:

    docker pull justlovemaki/aiclient-2-api:latest
    
  2. Laufende Container:
    Führen Sie den folgenden Befehl aus, um den Container zu starten. Dieser Befehl startet den Container3000Port-Zuordnung zu Ihrem lokalen3000Häfen.

    docker run -d -p 3000:3000 --name aiclient2api justlovemaki/aiclient-2-api:latest
    

    Sie können dies tun, indem Sie die-pum die Portnummer zu ändern, die dem lokalen Rechner zugeordnet ist, z. B. -p 8080:3000 wird der Dienst lokal an Port 8080 bereitgestellt.

Methode 2: Herunterladen und manuell ausführen

Wenn Sie Docker nicht verwenden möchten, können Sie es auch direkt auf Ihrem Computer ausführen.

  1. Klonen der Codebasis:
    Öffnen Sie ein Terminal, gehen Sie zu dem Ordner, in dem Sie Ihr Projekt speichern möchten, und führen Sie den folgenden Befehl aus:

    git clone https://github.com/justlovemaki/AIClient-2-API.git
    
  2. Wechseln Sie in das Projektverzeichnis:
    cd AIClient-2-API
    
  3. Installation von Abhängigkeiten:
    ausnutzennpmDer Paketmanager installiert die für das Projekt erforderlichen Bibliotheken der Abhängigkeiten.

    npm install
    
  4. Neue Dienste:
    Führen Sie nach Abschluss der Installation den folgenden Befehl aus, um den Dienst zu starten.

    node src/api-server.js
    

    Standardmäßig wird der Dienst im Verzeichnislocalhost(in Form eines Nominalausdrucks)3000Häfen.

Kernkonfiguration und Verwendung

Nachdem Sie den Dienst gestartet haben, müssen Sie ihn in Ihrer AI-Client-Anwendung konfigurieren.

  1. Schnittstellenadresse abrufen:
    • Wenn Sie direkt über Docker oder lokal arbeiten und den Port nicht geändert haben, lautet die Adresse Ihrer API-Schnittstelle:http://localhost:3000.
    • Wenn Sie den Dienst auf einem anderen Server bereitstellen, setzen Sie dielocalhostErsetzen Sie durch die IP-Adresse des Servers.
  2. Konfigurieren des Clients:
    打开你常用的AI客户端(如LobeChat, NächsterChat, AMA, GPT-S等),找到设置API接口地址的地方。通常这个设置项被称为API EndpointundBase URLvielleichtAPI基地址.

    • Geben Sie die Adresse der Schnittstelle wie folgt ein http://localhost:3000.
    • Geben Sie in das Feld API-Schlüssel den Schlüssel ein, den Sie in den Startparametern festgelegt haben; der Standardwert ist 123456.
    • Nach dem Speichern der Einstellungen werden alle Anfragen des Clients an den AIClient-2-API-Proxy-Dienst gesendet.
  3. Wechsel und Verwendung verschiedener Modelle:
    Die AIClient-2-API ruft die entsprechenden Modelldienste über verschiedene Wege auf. Beispiel:

    • Aufrufen des Kiro-authentifizierten Claude-Modells: das http://localhost:3000/claude-kiro-oauth
    • Aufrufen des Gemini-Modells: die http://localhost:3000/gemini-cli-oauth
    • Aufrufen von benutzerdefinierten OpenAI-kompatiblen Modellen: die http://localhost:3000/openai-custom
      Sie können das Modell direkt im Client auswählen oder die vollständige URL in einem Tool angeben, das Pfadwechsel unterstützt.

Konfiguration der Lizenzdatei (wichtiger Schritt bei der Simulation des Clients)

Um Modelle zu verwenden, die eine OAuth-Autorisierung erfordern, wie Gemini, Kiro, Qwen usw., müssen Sie zunächst die entsprechende Autorisierungsdatei erhalten. Dies ist das ProjektAnaloger KundeDer Schlüssel zur Verwirklichung der Funktion.

  1. Einholung von Genehmigungsunterlagen:
    • ZwillingeSie müssen das offizielle Gemini CLI-Tool ausführen und es zunächst autorisieren. Nach der Autorisierung wird es dem Home-Verzeichnis des Benutzers im Verzeichnis ~/.gemini/ Ordner Generation oauth_creds.json Dokumentation.
    • KiroSie müssen den Client herunterladen und sich anmelden, um ihn zu autorisieren, danach wird er ~/.aws/sso/cache/ Katalogerstellung kiro-auth-token.json Dokumentation.
    • QwenDer Browser öffnet sich automatisch zur Autorisierung, wenn er benutzt wird, und wenn er fertig ist, wird die ~/.qwen/ Katalogerstellung oauth_creds.json Dokumentation.
  2. Erbringung von Dienstleistungen für Agenten:
    Nachdem Sie die Autorisierungsdateien erhalten haben, müssen Sie dem Proxy-Dienst mitteilen, wo er sie finden kann. Sie können den Pfad zu den Autorisierungsdateien über einen Projektstartparameter angeben, z. B. wenn Sie Gemini verwenden, können Sie den Dienst wie folgt starten:

    node src/api-server.js --model-provider gemini-cli-oauth --gemini-oauth-creds-file /path/to/your/oauth_creds.json
    

Proxy-Einstellungen

Wenn Ihre Betriebsumgebung keinen direkten Zugang zu Diensten wie Google, OpenAI usw. hat, müssen Sie einen HTTP-Proxy für den Endpunkt einrichten.

  • Linux / macOS:
    export HTTP_PROXY="http://your_proxy_address:port"
    
  • Fenster (CMD):
    set HTTP_PROXY=http://your_proxy_address:port
    

Bitte beachten Sie, dass nur der HTTP-Proxy eingestellt werden sollte, nicht der HTTPS-Proxy.

Anwendungsszenario

  1. Einheitliche Entwicklungsumgebung (UDE)
    AIClient-2-API bietet eine perfekte Lösung für Entwickler, die mehrere Modelle testen, vergleichen und zwischen ihnen wählen müssen. Mit "Simulated Requests" und "Unified Interface" müssen Entwickler nicht für jedes Modell einen Satz unabhängiger API-Aufrufe pflegen, sondern leiten alle Anfragen an den lokalen Proxy und rufen dann verschiedene Backend-Modelle durch einfaches Umschalten der Parameter auf, was den Entwicklungs- und Debugging-Prozess erheblich vereinfacht. Dies vereinfacht den Entwicklungs- und Debugging-Prozess erheblich.
  2. Ermöglichung bestehender Anwendungen
    Wenn Sie bereits eine Anwendung haben, die auf der OpenAI-API aufbaut, aber mehr verschiedene Modelle einbinden möchten (z. B. um die Vorteile der kostenlosen Credits von Gemini oder die Textverarbeitungsfähigkeiten von Claude zu nutzen), kann die AIClient-2-API nahtlos als Zwischenschicht genutzt werden. Ohne dass Sie viel Code in Ihrer bestehenden Anwendung ändern müssen, verweisen Sie einfach die API-Anforderungsadresse an diesen Proxy und Sie können sofort alle unterstützten Modelle nutzen.
  3. Persönliches Studium und Forschung
    Für KI-Enthusiasten und -Forscher stellen die hohen Kosten offizieller APIs und Aufrufbeschränkungen ein Hindernis dar. Das Projekt bietet eine kostengünstige Plattform für Einzelpersonen, um zu lernen und kleine Experimente durchzuführen, indem es beispielsweise die clientseitige Lizenzierung simuliert und es den Nutzern ermöglicht, kostenlose Gesprächsguthaben für Modelle wie Gemini zu nutzen oder das in Kiro integrierte kostenlose Claude-Modell zu verwenden.
  4. Aufbau überprüfbarer AI-Anwendungen
    Leistungsstarke Protokollierungsfunktionen im Projekt ermöglichen eine vollständige Aufzeichnung aller Anfragen (Prompts) und Modellantworten, die den Agenten durchlaufen. Dies ist entscheidend für Szenarien, in denen eine Inhaltskontrolle, Datenanalyse oder Verhaltensüberwachung erforderlich ist. Unternehmen können diese Funktion nutzen, um sicherzustellen, dass KI-Anwendungen in Übereinstimmung mit internen Spezifikationen verwendet werden, oder um Daten für die spätere Feinabstimmung und Optimierung von Modellen zu sammeln.

QA

  1. Ist dieses Projekt sicher? Können meine Lizenzdatei und mein Schlüssel kompromittiert werden?
    AIClient-2-API ist ein Proxy-Server, der lokal läuft und keine Ihrer Daten und Schlüssel sammelt oder hochlädt. Sie müssen jedoch Ihre Autorisierungsdatei und den in den Startparametern festgelegten API-Schlüssel sicher aufbewahren, um zu vermeiden, dass er in einer ungesicherten Netzwerkumgebung verwendet wird.
  2. Warum kann ich nicht auf Google- oder OpenAI-Dienste zugreifen?
    Wenn sich Ihr Server oder Ihre lokale Umgebung in einer Region befindet, in der kein direkter Zugriff auf diese Dienste möglich ist, müssen Sie einen HTTP-Proxy in dem Terminal einrichten, in dem Sie dieses Projekt ausführen. Einzelheiten dazu finden Sie im Abschnitt "Proxy-Einstellungen" in der Dokumentation.
  3. Bedeutet die Verwendung des Gemini CLI-Modus, dass ich tatsächlich unbegrenzt viele Anrufe pro Tag tätigen kann?
    Das Projekt umgeht die offizielle Ratenbegrenzung der normalen kostenlosen API, indem es die Gemini-CLI-Autorisierung emuliert, um eine höhere Anfragemenge zu erhalten, was aber nicht bedeutet, dass es überhaupt keine Beschränkung gibt. Die offizielle Nutzung der CLI-Tools wird nach wie vor mit einer gewissen Häufigkeit und Dosierung überwacht, ein übermäßiger Missbrauch kann nach wie vor zu Kontobeschränkungen führen.
  4. Muss ich die emulierte Client-Software vorher installieren?
    Sie müssen nicht die gesamte Client-Software installieren, aber Sie müssenFühren Sie den Autorisierungsprozess für diese Client-Software einmal durchum ihre lokal erzeugten OAuth-Autorisierungsdateien zu erhalten (z. B. oauth_creds.json vielleicht kiro-auth-token.json). Durch das Lesen dieser Dateien schließt die AIClient-2-API den Autorisierungsschritt des simulierten Clients ab.
  5. Ist dieses Programm kostenpflichtig?
    Das AIClient-2-API-Projekt selbst ist quelloffen und kostenlos und unterliegt der Open-Source-Lizenz GPLv3. Es bietet keinen KI-Modelldienst, sondern lediglich ein API-Proxy-Tool. Die Kosten, die Ihnen durch den Aufruf des Back-End-Modells entstehen (sofern sie den kostenlosen Betrag übersteigen), müssen von dem entsprechenden Drittanbieter in Rechnung gestellt werden.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

Neue Veröffentlichungen

zurück zum Anfang

de_DEDeutsch