Dieses Projekt implementiert die intelligente Umwandlung von API-Anfragen durch LiteLLM mit den folgenden technischen Merkmalen:
- Automatische FormatkonvertierungKonvertierung der API-Anfragen von Claude Code im Anthropic-Format in das Standardformat des Zielmodells (z.B. OpenAI/Gemini) in Echtzeit und Rückkonvertierung in das Anthropic-Format bei der Beantwortung.
- Einheitliche SchlüsselverwaltungZentralisierte Konfiguration des API-Schlüssels jedes Anbieters über eine .env-Datei, automatische Einfügung von Anfrage-Headern
- Endpunkt-kompatible ErweiterungenDrei Arten des Zugangs werden unterstützt:
- Offizielle API-Endpunkte (Standard)
- Benutzerdefinierte Cloud-Service-Endpunkte (konfiguriert über *_API_BASE)
- Lokaler Modellserver (z.B. Verbindung zu LM Studio)
- Intelligentes RoutingAutomatische Auswahl von vorkonfigurierten BIG/SMALL-Modellen je nach Art der Aufgabe und Unterstützung des Fallback-Mechanismus
Technisch gesehen basiert der Konvertierungsprozess auf dem asynchronen Verarbeitungsframework von Python (uvicorn) und ist für den Benutzer völlig transparent, so dass Entwickler verschiedene LLMs so manipulieren können, als würden sie die native Claude-API verwenden.
Diese Antwort stammt aus dem ArtikelAny LLM in Claude Code: Ein Open-Source-Agent zum Aufrufen mehrsprachiger Modelle für Claude CodeDie