AI Proxy Worker ist ein serverloses Proxy-Skript, das auf Cloudflare Workers bereitgestellt wird. Es wird in erster Linie verwendet, um ein Kernproblem zu lösen: Wie können KI-Modelldienste in Front-End-Anwendungen oder Clients sicher aufgerufen werden, ohne kritische API-Schlüssel preiszugeben. Das Tool speichert den API-Schlüssel des Benutzers sicher in der Serverumgebung von Cloudflare, und die Front-End-Anwendung greift indirekt auf das KI-Modell zu, indem sie diesen bereitgestellten Proxy-Dienst aufruft. Auf diese Weise müssen keine sensiblen Schlüsselinformationen in den Client-Code aufgenommen werden, wodurch das Risiko einer Schlüsselkompromittierung vermieden wird. Das Projekt nutzt das weltweite Edge-Netzwerk von Cloudflare, um sehr schnelle Antworten auf Anfragen zu ermöglichen. Es unterstützt derzeit eine Reihe von DeepSeek-Modellen und plant, in Zukunft weitere Mainstream-KI-Dienstanbieter wie OpenAI und Claude zu unterstützen, um Entwicklern eine einheitliche, sichere und effiziente Lösung für den Aufruf von KI-Schnittstellen zu bieten.
Funktionsliste
- API-Schlüssel-SicherheitsisolierungDie API-Schlüssel, die von KI-Dienstanbietern zur Verfügung gestellt werden, werden auf der Cloudflare-Serverseite gespeichert, und der Client muss sie nicht berühren, wodurch das Risiko eines Front-End-Schlüsselverlusts vollständig eliminiert wird.
- Schnelle Reaktion in MillisekundenMit dem globalen Edge-Netzwerk von Cloudflare können Proxy-Dienste Benutzeranfragen in der Nähe des Wohnortes verarbeiten und so extrem niedrige Latenzzeiten erreichen.
- Unterstützung von StreamingVollständige Unterstützung für SSE (Server-Sent Events) Streaming-Antworten ermöglicht es KI-Chat-Anwendungen, schreibmaschinenähnliche Dialogergebnisse in Echtzeit zu erhalten.
- Sofort einsatzbereit für ProduktionsumgebungenDas Projekt verfügt über solide Fehlerbehandlungs-, Sicherheits- und Protokollüberwachungsmechanismen für hohe Stabilität.
- Null Kosten für den StartEs kann vollständig mit den kostenlosen Credits von Cloudflare Workers betrieben werden, so dass für einzelne Entwickler oder kleine Projekte praktisch keine Serverkosten anfallen.
- Unterstützung mehrerer ModelleDie aktuelle Version bietet volle Unterstützung für DeepSeeks Allzweckdialog und komplexe Inferenzmodelle. Für die Zukunft ist geplant, die Unterstützung für eine Vielzahl von KI-Diensten wie OpenAI, Claude und Gemini zu erweitern.
- Individuelle ZugangskontrolleBenutzer können einen separaten Zugangsschlüssel für ihren Proxy-Dienst festlegen (
PROXY_KEY
), um sicherzustellen, dass nur autorisierte Anwendungen sie nutzen können.
Hilfe verwenden
Das Designziel von AI-Proxy-Worker ist es, den Einsatz- und Nutzungsprozess so einfach wie möglich zu gestalten. Anstatt komplexe Back-End-Server zu verwalten, benötigen Entwickler nur ein Cloudflare-Konto und einen API-Schlüssel, der vom KI-Dienstanbieter bereitgestellt wird, um innerhalb weniger Minuten einen sicheren und effizienten privaten KI-Proxy zu erstellen.
Vorbereitung auf die Entsendung
Bevor Sie beginnen, sollten Sie die folgenden zwei Dinge bereithalten:
- Ein Cloudflare-KontoCloudflare Workers ist die Grundlage für die Bereitstellung dieses Proxy-Dienstes. Wenn Sie noch kein Konto haben, können Sie sich auf der Cloudflare-Website kostenlos anmelden.
- DeepSeek API-SchlüsselSie müssen Ihren API-Schlüssel von DeepSeek Open Platform erhalten. Dies ist der Berechtigungsnachweis, den der Proxy-Dienst verwendet, um offizielle Modelle anzufordern.
Bereitstellungsmethode eins: über die Befehlszeile (empfohlen)
Verfügbar über Cloudflarewrangler
Befehlszeilentools für die Bereitstellung sind der flexibelste und schnellste Weg.
Schritt 1: Installation und Anmeldung bei Wrangler
Wrangler ist das offizielle Kommandozeilen-Tool von Cloudflare zur Verwaltung von Workers-Projekten. Wenn Sie keine Node.js-Umgebung auf Ihrem Computer haben, installieren Sie es zuerst.
- Öffnen Sie Ihr Terminal (Befehlszeilenprogramm).
- Führen Sie den folgenden Befehl zur globalen Installation aus
wrangler
::npm install -g wrangler
- Sobald die Installation abgeschlossen ist, führen Sie den Login-Befehl aus und es öffnet sich ein Browser-Fenster, in dem Sie die Anmeldung bei Ihrem Cloudflare-Konto autorisieren müssen:
wrangler login
Schritt 2: Das Projekt abrufen und eingeben
- ausnutzen
git
Klonen Sie dieses Projekt auf Ihren lokalen Computer:git clone https://github.com/imnotnoahhh/AI-Proxy-Worker.git
- Wechseln Sie in das Verzeichnis des Projekts, das Sie gerade geklont haben:
cd AI-Proxy-Worker
Schritt 3: Konfigurieren Sie den Schlüssel
Der Proxy-Dienst benötigt zwei wichtige Informationen, die wir über diewrangler
um sie in der Cloudflare-Umgebung auf sichere Weise zu konfigurieren.
- Den DeepSeek-API-Schlüssel konfigurieren: Führen Sie den folgenden Befehl aus. Nach der Eingabeaufforderung fügen Sie den API-Schlüssel ein, den Sie offiziell von DeepSeek erhalten haben, und drücken Sie die Eingabetaste.
wrangler secret put DEEPSEEK_API_KEY
- Konfigurieren Sie Proxy-Zugangsschlüssel (empfohlen)Um den Missbrauch Ihres Proxy-Dienstes zu verhindern, ist es sehr empfehlenswert, ein benutzerdefiniertes Zugangspasswort festzulegen. Dieses Passwort legen Sie selbst fest, z. B. eine komplexe Zufallsfolge.
wrangler secret put PROXY_KEY
Geben Sie nach der Aufforderung das von Ihnen festgelegte Zugangspasswort ein und drücken Sie die Eingabetaste.
Schritt 4: Bereitstellen bei Cloudflare
Nach Abschluss der oben genannten Schritte kann der Proxy-Dienst mit einem einzigen Befehl im globalen Netzwerk von Cloudflare veröffentlicht werden:
wrangler publish
Nach erfolgreicher Einrichtung zeigt das Terminal die Adresse Ihres Proxy-Dienstes an, normalerweise im Format https://ai-proxy-worker.<你的子域名>.workers.dev
. Bitte notieren Sie sich diese Adresse.
Bereitstellungsmodus 2: Ein-Klick-Bereitstellung über Webseiten
Wenn Sie mit Befehlszeilenoperationen nicht vertraut sind, können Sie Ihre Bereitstellung auch direkt über die Weboberfläche von Cloudflare durchführen.
- Besuchen Sie die GitHub-Seite des Projekts.
- Klicken Sie auf die Schaltfläche "Deploy to Cloudflare Workers" auf der Seite.
- Die Seite springt zur Cloudflare-Bereitstellungsschnittstelle, und das System erstellt automatisch eine neue Kopie Ihres GitHub-Repositorys für Sie.
- Folgen Sie den Anweisungen auf der Seite, um Cloudflare den Zugriff auf Ihr GitHub-Repository zu erlauben.
- Auf der Seite Verteilungseinstellungen finden Sie den Abschnitt Umgebungsvariablen oder Schlüsselkonfiguration.
- Fügen Sie zwei Schlüsseleinträge hinzu:
DEEPSEEK_API_KEY
Der Wert ist Ihr offizieller DeepSeek-Schlüssel.PROXY_KEY
Der Wert ist das Passwort für den Proxy-Zugang, das Sie für sich selbst festgelegt haben.
- Klicken Sie auf die Schaltfläche "Bereitstellen" und warten Sie, bis Cloudflare die Erstellung und Veröffentlichung abgeschlossen hat.
Aufrufen und Testen von Proxy-Diensten
Nach erfolgreicher Bereitstellung ist Ihr Proxy-Dienst nun weltweit verfügbar. Sie können jedes HTTP-Client-Tool (z. B. dascurl
oder Postman) oder rufen Sie es in Ihrem eigenen Anwendungscode auf.
Der Schnittstellenpfad zum Proxydienst lautet /chat
. Es gibt zwei wichtige HTTP-Header, die Sie beim Aufruf angeben müssen:
Content-Type
:application/json
Authorization
:Bearer <你的PROXY_KEY>
(Hier ist<你的PROXY_KEY>
Ersetzen Sie es durch das Zugangspasswort, das Sie bei der Bereitstellung eingerichtet haben.)
ausnutzencurl
Beispiele für durchgeführte Tests:
Öffnen Sie ein Terminal und ersetzen Sie diehttps://your-worker.workers.dev
zu Ihrer tatsächlichen Proxy-Adresse und ersetzen Sie dieYOUR_PROXY_KEY
Ersetzen Sie es durch das von Ihnen festgelegte Zugangspasswort.
curl -X POST https://your-worker.workers.dev/chat \
-H "Authorization: Bearer YOUR_PROXY_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat",
"messages": [{"role": "user", "content": "你好!请介绍一下你自己。"}]
}'
Wenn alles in Ordnung ist, werden Sie eine Antwort vom DeepSeek-Modell erhalten.
Integration in JavaScript-Frontend-Anwendungen:
Sie können diefetch
Funktion, um den Proxy-Dienst aufzurufen.
async function callMyAIProxy() {
const proxyUrl = 'https://your-worker.workers.dev/chat'; // 你的代理地址
const proxyKey = 'YOUR_PROXY_KEY'; // 你的访问密码
const response = await fetch(proxyUrl, {
method: 'POST',
headers: {
'Authorization': `Bearer ${proxyKey}`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'deepseek-chat',
messages: [{ role: 'user', content: '你好!' }]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
}
callMyAIProxy();
Mit diesen Schritten verfügen Sie über einen KI-Proxy-Dienst, der vollständig unter Ihrer Kontrolle steht, sicher und leistungsstark ist.
Anwendungsszenario
- Integration von Web- und mobilen Anwendungen
Dies ist eine ideale Lösung für Entwickler, die KI-Chat, Inhaltserstellung und andere Funktionen in eine Web- oder Mobil-App integrieren müssen. Entwickler können KI-Funktionen direkt in ihre Produkte einbetten, ohne sich Gedanken darüber machen zu müssen, dass der auf der Client-Seite bereitgestellte Code API-Schlüssel preisgibt und somit das Konto sichert. - Interne Tools und automatisierte Prozesse
Unternehmen oder Teams können diesen Agenten nutzen, um ein einheitliches KI-Fähigkeitsportal für interne Tools (z. B. Kundendienstsysteme, Dokumentenanalyse-Tools) bereitzustellen. Durch Festlegen des Proxy-Zugriffsschlüssels können die Zugriffsrechte verschiedener interner Anwendungen auf KI-Ressourcen für eine einfache Verwaltung effektiv gesteuert werden. - Auflösen von Netzwerkzugangsbeschränkungen
Für Regionen oder Netzwerkumgebungen, die keinen direkten Zugang zu bestimmten KI-Diensten (z. B. OpenAI) haben, kann dieser Proxy in einem Cloudflare-Netzwerk mit normalem Zugang bereitgestellt werden. Anschließend können Client-Anwendungen den Ziel-KI-Dienst indirekt nutzen, indem sie einfach auf diese unbeschränkte Proxy-Adresse zugreifen. - Bildung und Prototyping
Studenten, Forscher oder Startup-Teams, die Prototypen von KI-Anwendungen entwickeln, können diese Null-Kosten-Lösung nutzen, um Ideen schnell zu validieren. Der Bereitstellungsprozess ist einfach und es müssen keine Server gewartet werden, so dass Sie sich ganz auf die Anwendungsinnovation konzentrieren können.
QA
- Ist dieses Proxy-Tool kostenlos?
Das AI-Proxy-Worker-Projekt selbst ist quelloffen und kostenlos. Es läuft auf dem Cloudflare Workers-Dienst, der ein sehr großzügiges kostenloses Paket anbietet (z. B. 100.000 Anfragen pro Tag), das für die große Mehrheit der einzelnen Entwickler und kleinen Projekte vollkommen ausreichend ist, so dass es zum Nulltarif genutzt werden kann. - Warum rufen Sie nicht einfach die offizielle KI-API am Frontend auf?
Der Hauptgrund ist die Sicherheit. Wenn Sie API-Schlüssel direkt in den Front-End-Code schreiben, kann jeder, der Ihre Website besucht, Ihre Schlüssel leicht über die Entwickler-Tools im Browser sehen. Sobald der Schlüssel kompromittiert ist, können andere Ihr Guthaben stehlen, unnötige Gebühren erheben oder sogar den Dienst missbrauchen.AI-Proxy-Worker vermeidet dieses Problem vollständig, indem der Schlüssel auf der Serverseite bleibt. - Wie unterscheidet es sich von Cloudflare's offiziellem AI Gateway?
Cloudflare AI Gateway ist ein AI-Gateway mit einem größeren Funktionsumfang, das erweiterte Funktionen wie Caching, Ratenbegrenzung, Analysen und Protokollierung bietet und besser für große Unternehmen geeignet ist, die komplexe AI-Anwendungen verwalten. AI-Proxy-Worker hingegen ist eine leichtgewichtige, sicherheitsorientierte Proxy- und API-Weiterleitungslösung, die extrem einfach zu implementieren und völlig kostenlos ist, so dass sie sich besser für Entwickler eignet, die schnell und kosteneffizient zentrale Sicherheitsanforderungen erfüllen möchten. - Kann ich es auch für andere Modelle als DeepSeek verwenden?
Die aktuelle Version ist hauptsächlich für die DeepSeek API angepasst. Laut der Entwicklungs-Roadmap des Projekts ist jedoch geplant, in Zukunft Unterstützung für weitere Mainstream-KI-Modelle wie OpenAI, Claude, Gemini usw. hinzuzufügen, mit dem letztendlichen Ziel, ein universeller KI-API-Agent zu werden. - Verstößt der Einsatz dieses Workers gegen die Allgemeinen Geschäftsbedingungen von Cloudflare?
Nicht-Verletzung. Bei dieser Art der Nutzung handelt es sich um eine Datenweiterleitung auf der Anwendungsebene, bei der legitime API-Anfragen an Dienste von Drittanbietern weitergeleitet werden, auf die Sie Zugriffsrechte haben. Dies unterscheidet sich grundlegend von allgemeinen Web-Proxys (z. B. VPN-Verkehrsverschleierung), die von Cloudflare verboten sind und normale Nutzungsszenarien sind, die von ihrer Plattform erlaubt werden.