Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

Jeder LLM in Claude Code ist ein auf GitHub gehostetes Open-Source-Proxy-Tool, das von chachako entwickelt und von CogAgent/claude-code-proxy abgekupfert wurde. es ermöglicht Benutzern Claude Code LiteLLM kann jedes von LiteLLM unterstützte Sprachmodell (z. B. Modelle von OpenAI, Vertex AI, xAI) ohne Pro-Abonnement verwenden. Mit einer einfachen Konfiguration von Umgebungsvariablen können Benutzer komplexen Aufgaben (Sonett) und Hilfsaufgaben (Haiku) unterschiedliche Modelle zuweisen, um Leistung und Kosten zu optimieren. Das Projekt basiert auf Python und LiteLLM, verwendet uv zur Verwaltung von Abhängigkeiten und ist für KI-Entwickler, Claude-Code-Nutzer und Open-Source-Enthusiasten leicht zu installieren. Die Dokumentation ist übersichtlich, die Community ist aktiv, und es sind detaillierte Anleitungen zur Konfiguration und Fehlersuche verfügbar.

 

Funktionsliste

  • Unterstützung für die Verwendung jedes LiteLLM-kompatiblen Sprachmodells (z.B. OpenAI, Vertex AI, xAI) in Claude Code.
  • Bietet unabhängige Routing-Konfigurationen für große (Sonett) und kleine (Haiku) Modelle zur Optimierung der Aufgabenzuweisung.
  • Unterstützt benutzerdefinierte API-Schlüssel und Endpunkte und ist mit mehreren Modellanbietern kompatibel.
  • Verwenden Sie LiteLLM, um API-Anfragen und -Antworten automatisch umzuwandeln, um sicherzustellen, dass sie mit dem System kompatibel sind. Anthropisch API-Format kompatibel.
  • Integrierte uv-Tools automatisieren die Verwaltung von Projektabhängigkeiten und vereinfachen den Bereitstellungsprozess.
  • Detaillierte Protokollierungsfunktionen zur Aufzeichnung des Inhalts von Anfragen und Antworten zur einfachen Fehlersuche und schnellen technischen Analyse.
  • Unterstützt lokale Modellserver und ermöglicht die Konfiguration von benutzerdefinierten API-Endpunkten.
  • Open-Source-Projekt, bei dem Benutzer den Code ändern oder Funktionen beisteuern können.

Hilfe verwenden

Einbauverfahren

Die folgenden Installations- und Konfigurationsschritte sind für die Verwendung von Any LLM in Claude Code erforderlich und basieren auf der offiziellen Dokumentation, um Klarheit und Bedienbarkeit zu gewährleisten:

  1. Klonprojekt
    Führen Sie den folgenden Befehl im Terminal aus, um das Projekt lokal zu klonen:

    git clone https://github.com/chachako/freecc.git
    cd freecc
    

2. **安装 uv 工具**
项目使用 uv 管理 Python 依赖。若未安装 uv,运行以下命令:
```bash
curl -LsSf https://astral.sh/uv/install.sh | sh

Die uv wird auf der Grundlage der pyproject.toml Installiert Abhängigkeiten automatisch, ohne dass Sie dies manuell tun müssen.
3. Umgebungsvariablen konfigurieren
Annahme des Projekts .env Datei, um das Modell-Routing und die API-Schlüssel zu konfigurieren. Kopieren Sie die Beispieldatei:

cp .env.example .env

Verwenden Sie einen Texteditor (z. B. nano), um die Datei .envkonfigurieren Sie die folgenden Variablen:

  • Modell Routing-Konfiguration::
    • BIG_MODEL_PROVIDERGroße Modellanbieter (z. B. openaiundvertexundxai).
    • BIG_MODEL_NAME: Großer Modellname (z.B. gpt-4.1undgemini-1.5-pro).
    • BIG_MODEL_API_KEYAPI-Schlüssel für das große Modell.
    • BIG_MODEL_API_BASE(Optional) Benutzerdefinierte API-Endpunkte für große Modelle.
    • SMALL_MODEL_PROVIDER: Anbieter von Miniaturen.
    • SMALL_MODEL_NAME: Der Name der Miniatur (z.B. gpt-4o-mini).
    • SMALL_MODEL_API_KEY: API-Schlüssel für Miniaturen.
    • SMALL_MODEL_API_BASE(Optional) Benutzerdefinierte API-Endpunkte für kleine Modelle.
  • Globale Anbieterkonfiguration(zur Unterstützung oder als direkte Anfrage):
    • OPENAI_API_KEYundXAI_API_KEYundGEMINI_API_KEYundANTHROPIC_API_KEY: API-Schlüssel für jeden Anbieter.
    • OPENAI_API_BASEundXAI_API_BASE usw.: Benutzerdefinierte API-Endpunkte.
  • Vertex AI-spezifische Konfigurationen::
    • VERTEX_PROJECT_IDGoogle Cloud Projekt-ID.
    • VERTEX_LOCATIONVertex AI-Regionen (z. B. us-central1).
    • Konfigurieren Sie die Google Apps-Standardanmeldeinformationen (ADC):
      gcloud auth application-default login
      

      oder eine Umgebungsvariable setzen GOOGLE_APPLICATION_CREDENTIALS Zeigen Sie auf die Datei mit den Anmeldeinformationen.

  • Konfiguration protokollieren::
    • FILE_LOG_LEVELProtokolldateien (claude-proxy.log) Ebene (Standard) DEBUG).
    • CONSOLE_LOG_LEVELKonsolenprotokollebene (Standard) INFO).
    • LOG_REQUEST_BODY: Eingestellt auf true Zeichnen Sie den Inhalt der Anfrage auf, um die Analyse des Prompting-Projekts zu erleichtern.
    • LOG_RESPONSE_BODY: Eingestellt auf true Halten Sie den Inhalt der Modellantwort fest.

typisches Beispiel .env Konfiguration:

BIG_MODEL_PROVIDER="vertex"
BIG_MODEL_NAME="gemini-1.5-pro-preview-0514"
BIG_MODEL_API_KEY="your-vertex-key"
VERTEX_PROJECT_ID="your-gcp-project-id"
VERTEX_LOCATION="us-central1"
SMALL_MODEL_PROVIDER="openai"
SMALL_MODEL_NAME="gpt-4o-mini"
SMALL_MODEL_API_KEY="sk-xxx"
SMALL_MODEL_API_BASE="https://xyz.llm.com/v1"
FILE_LOG_LEVEL="DEBUG"
LOG_REQUEST_BODY="true"
  1. Operationsserver
    Sobald die Konfiguration abgeschlossen ist, starten Sie den Proxyserver:

    uv run uvicorn server:app --host 127.0.0.1 --port 8082 --reload
    

    Parameter --reload Optional, zum automatischen Nachladen während der Entwicklung.

  2. Verbindung Claude Code
    Installieren Sie Claude Code (falls nicht bereits installiert):

    npm install -g @anthropic-ai/claude-code
    

    Setzen von Umgebungsvariablen und Verbinden mit dem Agenten:

    export ANTHROPIC_BASE_URL=http://localhost:8082 && claude
    

Funktion Betrieb

Der Kern von Any LLM in Claude Code ist die Weiterleitung von Claude-Code-Anfragen an benutzerkonfigurierte Modelle über einen Proxy. Im Folgenden wird detailliert beschrieben, wie dies funktioniert:

  • Modell-Routing
    Das Projekt unterstützt Claude Codes sonnet(Hauptaufgaben wie komplexe Codegenerierung) und haiku(Hilfsaufgaben wie die schnelle Grammatikprüfung) verschiedene Modelle konfigurieren. Zum Beispiel:

    • konfigurieren. BIG_MODEL_PROVIDER="vertex" im Gesang antworten BIG_MODEL_NAME="gemini-1.5-pro"wird sonnet Routing zu Hochleistungsmodellen.
    • konfigurieren. SMALL_MODEL_PROVIDER="openai" im Gesang antworten SMALL_MODEL_NAME="gpt-4o-mini"wird haiku Um Kosten zu sparen, sollten Sie auf leichte Modelle umsteigen.
      Die Benutzer können auf die .env Flexibler Wechsel von Modellen und Anbietern für Dokumente.
  • Konvertierung von API-Anfragen
    Das Projekt implementiert die API-Formatkonvertierung durch LiteLLM mit dem folgenden Ablauf:

    1. Claude Code sendet Anthropic-formatierte Anfragen (z. B. Aufrufe an die claude-3-sonnet-20240229).
    2. Der Agent handelt auf der Grundlage von .env Konfiguration, die die Anfrage in das Zielmodellformat konvertiert (z. B. OpenAIs gpt-4.1).
    3. Injizieren Sie den konfigurierten API-Schlüssel und Endpunkt, um die Anfrage zu senden.
    4. Konvertiert die Modellantwort zurück in das Anthropic-Format und gibt sie an Claude Code zurück.
      Ein manuelles Eingreifen des Benutzers ist nicht erforderlich, der Konvertierungsprozess ist vollständig automatisiert.
  • Protokollierung und Fehlersuche
    Das Projekt bietet eine detaillierte Protokollierungsfunktion:

    • aufstellen LOG_REQUEST_BODY="true"Der Inhalt der Anfrage von Claude Code wird aufgezeichnet, um die Analyse des Prompting-Projekts zu erleichtern.
    • aufstellen LOG_RESPONSE_BODY="true"Zeichnen Sie die Antwort des Modells auf und überprüfen Sie, ob die Ausgabe korrekt ist.
    • Die Protokolle werden in der Datei claude-proxy.logMit Hilfe des FILE_LOG_LEVEL im Gesang antworten CONSOLE_LOG_LEVEL Kontrolle der Protokollebene.
      Wenn Probleme auftreten, prüfen Sie die Protokolle oder überprüfen Sie .env Der Schlüssel und die Endpunkte in der
  • Lokale Modellunterstützung
    Unterstützung für lokale Modellserver. Konfigurieren Sie zum Beispiel die SMALL_MODEL_API_BASE="http://localhost:8000/v1"Sie kann in der haiku Weiterleitung an lokale Modelle (z. B. LM Studio). Lokale Modelle erfordern keine API-Schlüssel und eignen sich für datenschutzsensible Szenarien.

caveat

  • Stellen Sie sicher, dass die Netzwerkverbindung stabil ist und der API-Schlüssel gültig ist.
  • Vertex AI-Benutzer müssen richtig konfiguriert sein VERTEX_PROJECT_IDundVERTEX_LOCATION und ADCs.
  • Besuchen Sie die GitHub-Projektseite (https://github.com/chachako/freecc) regelmäßig für Aktualisierungen oder Unterstützung durch die Gemeinschaft.
  • Da die Protokolle sensible Informationen enthalten können, wird empfohlen, sie nach der Fehlersuche zu deaktivieren. LOG_REQUEST_BODY im Gesang antworten LOG_RESPONSE_BODY.

Anwendungsszenario

  1. Verbesserung der Flexibilität von Claude Code
    Die Nutzer benötigen kein Claude Pro-Abonnement, um Hochleistungsmodelle wie die Zwillinge 1.5 Pro) oder kostengünstige Modelle (z. B. gpt-4o-mini), die das Kontextfenster erweitern oder die Kosten senken.
  2. Leistungsvergleich der Modelle
    Entwickler können über den Agenten schnell zwischen verschiedenen Modellen (z. B. OpenAI, Vertex AI) wechseln, die Leistung der verschiedenen Modelle in Claude Code testen und den Entwicklungsprozess optimieren.
  3. Einsatz des lokalen Modells
    Unternehmen oder Forscher können lokale Modellserver konfigurieren, um den Datenschutz zu gewährleisten, was sich für lokalisierte KI-Anwendungsszenarien eignet.
  4. Engagement der Open-Source-Gemeinschaft
    Da es sich um ein Open-Source-Projekt handelt, können Entwickler ihren Code über GitHub einreichen, um die Funktionalität zu optimieren oder Probleme zu beheben, die Anfängern das Erlernen von Python und KI-Entwicklung erleichtern.

QA

  1. Welche Modelle werden von Any LLM in Claude Code unterstützt?
    Unterstützung für alle LiteLLM-kompatiblen Modelle, einschließlich OpenAI, Vertex AI, xAI, Anthropic usw., durch die .env Konfigurationsmodelle und Anbieter.
  2. Wie gehe ich mit Konfigurationsfehlern um?
    auschecken claude-proxy.log Protokolle, überprüfen Sie API-Schlüssel, Endpunkte und Modellnamen. Stellen Sie sicher, dass die FILE_LOG_LEVEL="DEBUG" Detaillierte Protokolle erhalten.
  3. Benötigen Sie ein Claude Pro-Abonnement?
    Nicht erforderlich. Das Projekt unterstützt kostenlose Nutzer, um andere Modelle über einen Proxy zu verwenden und so die Abonnementbeschränkungen zu umgehen.
  4. Kann es auf einem entfernten Server eingesetzt werden?
    Dose. Wird --host eingestellt auf 0.0.0.0Stellen Sie sicher, dass der Anschluss (z. B. 8082) Offen.
  5. Wie kann ich Code beisteuern?
    Besuchen Sie https://github.com/chachako/freecc, um einen Pull Request einzureichen. Es wird empfohlen, dass Sie zuerst die Richtlinien für Beiträge lesen.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

Posteingang

Kontakt

zurück zum Anfang

de_DEDeutsch