Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

ProxyLLM ist eine quelloffene Electron-Anwendung, die auf dem Computer des Benutzers läuft. Ihre Kernlogik ist sehr einfach: Sie öffnet die offiziellen Webseiten großer Modelle wie ChatGPT, Claude, Gemini usw. in einem eingebauten Browserfenster und hört die Netzwerkpakete (z. B. Cookies, Sitzungs-IDs und Autorisierungs-Header), die durch die Interaktionen des Benutzers mit den Webseiten erzeugt werden, ab und erfasst sie in Echtzeit. Anschließend wird ein lokaler Server gehostet, der die Kommunikationsprotokolle dieser Webseiten in Echtzeit in ein standardmäßiges OpenAI-konformes API-Format umwandelt. Das bedeutet, dass jede Software von Drittanbietern, die die OpenAI-Schnittstelle unterstützt (z. B. Code-Editor-Plug-ins, immersive Übersetzungs-Plug-ins oder Befehlszeilen-Tools), sich Ihre Kontoprivilegien von der Webversion, bei der Sie angemeldet sind, “ausleihen” kann, um die Big-Model-Funktionen direkt über ProxyLLM aufzurufen, und zwar ohne zusätzliche API-Kosten. Das Tool wird vollständig lokal ausgeführt, und die Daten werden direkt zwischen Ihrem Computer und dem Modellanbieter übertragen, sodass Datenschutz und Sicherheit gewährleistet sind.

Funktionsliste

  • Web Session Transfer APILLM Web Session: Erfasst automatisch die LLM Web Session im Browser und kapselt sie als Standard POST /v1/chat/completions Schnittstelle.
  • Unterstützung mehrerer ModelleUnterstützung für das Abfangen und Konvertieren der Protokolle vieler wichtiger KI-Websites, einschließlich, aber nicht beschränkt auf OpenAI (ChatGPT), Anthropisch (Claude), Google Gemini und Qwen (lit. zehntausend Fragen zu allgemeinen Grundsätzen (Idiom); fig. eine lange Liste von Fragen und Antworten)。
  • Bedienfeld für die VisualisierungBietet eine grafische Oberfläche zur Verwaltung verschiedener AI-Sites mit Unterstützung für das Öffnen und Aktualisieren von Browserfenstern mit einem Klick sowie für die intuitive Anzeige und Auswahl von erfassten Anmeldeinformationen.
  • Claude Code Tiefe Integration: speziell für Claude Code Befehlszeilentools, die für die Übernahme und Wiederherstellung von Proxy-Einstellungen für die Claude-CLI optimiert wurden und es ermöglichen, die Fähigkeiten der Web-Version von Claude direkt zu nutzen.
  • Request Sniffing und DebuggingEingebauter Request Inspector, der es Benutzern ermöglicht, Details von erfassten HTTP- und WebSocket-Anfragen zu sehen, was Entwicklern das Debuggen oder die Bestätigung der Gültigkeit von Anmeldeinformationen erleichtert.
  • Lokaler Schutz der PrivatsphäreAlle Anmeldeinformationen, Protokolle und Interaktionsdaten werden nur auf dem lokalen Computer des Benutzers gespeichert, die Protokolle werden unsensibilisiert verarbeitet, und es werden keine Daten auf Server Dritter hochgeladen.
  • Kundenspezifische AdapterBietet ein Adaptersystem, das es Entwicklern ermöglicht, Konvertierungsregeln für private Modellprotokolle zu schreiben, die nicht zum OpenAI-Standard gehören.

Hilfe verwenden

ProxyLLM ist ein Entwickler-Tool, das über den Quellcode erstellt werden muss. Hier finden Sie eine detaillierte Installations- und Nutzungsanleitung, die Ihnen dabei hilft, Ihr eigenes AI API-Gateway auf Ihrem lokalen Computer zu erstellen.

1. die Vorbereitung der Umwelt

Bevor Sie beginnen, stellen Sie sicher, dass Sie eine Node.js-Umgebung auf Ihrem Computer installiert haben (v16 oder höher empfohlen). Sie können dies tun, indem Sie im Terminal (Terminal oder CMD) Folgendes eingeben node -v 和 npm -v um zu überprüfen, ob die Installation erfolgreich war.

2. die Beschaffung des Quellcodes und die Installation der Abhängigkeiten

Zunächst müssen Sie den Quellcode des Projekts lokal herunterladen.
Öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus, um das Repository zu klonen:

git clone https://github.com/zhalice2011/ProxyLLM.git

Rufen Sie den Projektkatalog auf:

cd ProxyLLM

Installieren Sie als nächstes die für das Projekt erforderlichen Abhängigkeitspakete. Da das Projekt einen Front-End-Renderer und einen Hauptprozess enthält, empfiehlt es sich, diese separat zu installieren:

# 安装根目录依赖
npm install
# 安装渲染进程依赖
npm --prefix renderer install

3. das Erstellen und Starten von Anwendungen

Sobald die Abhängigkeiten installiert sind, müssen Sie die Front-End-UI kompilieren und die Electron-Anwendung starten:

# 构建 UI 界面
npm --prefix renderer run build
# 构建主程序
npm run build
# 启动应用程序
npm run start

Nach erfolgreichem Start erscheint ein Anwendungsfenster mit dem Namen ProxyLLM, und das Terminal zeigt an, dass der lokale API-Dienst auf dem Standardport gestartet wurde (normalerweise der 127.0.0.1:8080) Start.

4. die Konfiguration und Aufzeichnung von Sitzungen

  1. Seite hinzufügenIn der ProxyLLM-Anwendungsoberfläche klicken Sie auf “Website hinzufügen”. Geben Sie die URL des AI-Dienstes ein, den Sie verwenden möchten (z. B. https://claude.ai 或 https://chatgpt.com)。
  2. Bei Ihrem Konto anmeldenKlicken Sie auf die Schaltfläche “Öffnen” in der Liste und die App öffnet ein separates Browserfenster. Melden Sie sich in diesem Fenster wie gewohnt bei Ihrem AI-Konto an.
  3. ErfassungsbelegNach erfolgreicher Anmeldung senden Sie eine Testnachricht (z. B. “Hallo”) an die Webseite, und ProxyLLM erfasst automatisch im Hintergrund den Anfragekopf und die Authentifizierungsinformationen für diese Interaktion.
  4. Voucher auswählenGehen Sie zurück zum Control Panel der ProxyLLM-Hauptschnittstelle, klicken Sie auf die Option “Requests” oder “Credentials” unter der Site und wählen Sie einen der zuletzt erfassten gültigen Request Records als aktuelle API Credentials aus.

5. das Aufrufen der API

Sie haben nun einen OpenAI-kompatiblen API-Dienst, der auf Ihrem lokalen Computer läuft. Sie können jedes Tool eines Drittanbieters so konfigurieren, dass es sich mit dieser Adresse verbindet.

Konfigurationsbeispiel (zur Verwendung der curl (Test als Beispiel):

curl http://127.0.0.1:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer dummy-token" \
-d '{
"model": "claude-3-opus-20240229",
"messages": [{"role": "user", "content": "你好,请介绍一下你自己"}]
}'

Hinweis: Da die Authentifizierung durch den internen Agenten von ProxyLLM erfolgt, kann das Authorisation Bearer Token hier normalerweise beliebig ausgefüllt werden, es sei denn, Sie haben spezielle Sicherheitseinstellungen aktiviert.

6. die Integration von Claude Code (besonderes Merkmal)

Wenn Sie ein Entwickler sind und die Anthropic veröffentlicht claude Kommandozeilentool bietet ProxyLLM eine Übernahme mit einem Klick:

  1. Suchen Sie die Einstellung “Claude Code” in der ProxyLLM-Schnittstelle.
  2. Klicken Sie auf “Übernehmen”, und das Tool ändert automatisch die lokale Konfiguration, um den Datenverkehr von der Claude-CLI zu ProxyLLM zu leiten.
  3. Nun führen Sie im Terminal claude Befehl wird das Sitzungsguthaben für Ihre Webversion von Claude verwendet, nicht das bezahlte API-Guthaben.

Anwendungsszenario

  1. Kostenfreier Einsatz von Programmierhilfen
    Viele IDE-Plug-ins (z. B. Cursor, verschiedene AI-Plug-ins für VS Code) erfordern die Eingabe des OpenAI-API-Schlüssels. Mit ProxyLLM können Sie die API-Adresse in eine lokale Adresse (http://127.0.0.1:8080/v1), so dass Sie Ihr bezahltes ChatGPT Plus- oder kostenloses Claude Web Edition-Konto verwenden können, um diese Plug-ins zu steuern, ohne die Token Extra bezahlen.
  2. Umgehung von API-Zugriffsbeschränkungen
    Einige Organisationen oder regionale Netzwerkumgebungen haben möglicherweise nur begrenzten direkten Zugang zur OpenAI-API, können aber über einen Browser auf die Webversion zugreifen; ProxyLLM fungiert als native Middleware, die es Legacy-Software oder Skripten, die keine Webanmeldung unterstützen, ermöglicht, zu arbeiten, indem sie sich als Browserverkehr “ausgibt”.
  3. Entwicklung und Test von KI-Anwendungen
    Bei der Erstellung von LLM-basierten Anwendungen verbrauchen Entwickler während der Entwicklungs- und Testphase eine große Anzahl von Token. Durch die Weiterleitung von Anfragen an die Webversion über ProxyLLM (das in der Regel eine großzügigere Nutzungsquote hat) können die API-Kosten während der Entwicklungs- und Testphase erheblich gesenkt werden.
  4. Einheitliche Verwaltung von Dialogen mit mehreren Modellen
    Für Benutzer mit mehreren Konten auf verschiedenen Plattformen (z. B. Gemini Advanced und ChatGPT Plus) kann ein einheitlicher Chat-Client (z. B. Chatbox), der das OpenAI-Format unterstützt, verwendet werden, um alle verschiedenen Webdienste im Hintergrund zu einer einzigen Schnittstelle für die Verwaltung und den Dialog über ProxyLLM zu vereinheitlichen.

QA

  1. Wird die Verwendung dieses Tools zu einer Kontosperre führen?
    Es bestehen gewisse Risiken. Obwohl ProxyLLM versucht, das Anfrageverhalten echter Browser zu simulieren, können hochfrequente automatisierte API-Aufrufe (insbesondere gleichzeitige Anfragen, die die normale menschliche Lesegeschwindigkeit übersteigen) die Risikokontrollmechanismen des Dienstanbieters auslösen. Es wird empfohlen, ProxyLLM nur zur persönlichen Unterstützung und nicht für groß angelegte kommerzielle Dienste zu verwenden.
  2. Unterstützt es alle KI-Seiten?
    Es werden nicht alle Websites unterstützt. Es werden hauptsächlich Websites mit integrierten Adaptern unterstützt (z. B. OpenAI, Anthropic, Gemini usw.). Bei nicht angepassten Websites kann ProxyLLM ihre spezifischen Kommunikationsprotokolle nicht automatisch auflösen, so dass die Benutzer möglicherweise ihre eigenen Anpassungsskripte schreiben müssen.
  3. Sind meine Chats sicher?
    ProxyLLM ist eine lokal ausgeführte Software. Der gesamte Datenverkehr wird auf Ihrem Computer (Localhost) erfasst und weitergeleitet und läuft nicht über die Server des Autors. Bitte beachten Sie jedoch, dass Ihr Chat trotzdem an den entsprechenden KI-Dienstleister (z. B. OpenAI) gesendet wird.
  4. Warum kann ich die Anfrage nicht erfassen?
    Bitte stellen Sie sicher, dass Sie den gesamten Prozess “Nachricht senden - Antwort empfangen” in dem speziellen Browser-Fenster abschließen, das in ProxyLLM erscheint. Einfaches Einloggen reicht nicht aus. Die Software muss die WebSocket- oder HTTP-Pakete der eigentlichen Konversation analysieren, um kontextbezogene Informationen zu extrahieren.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie Schlüsselwörter ein.Zugänglichkeit zur Bing-SucheAI-Tools, finden Sie schnell die AI-Tools auf dieser Website.

zurück zum Anfang