Scira MCP Chat ist ein Open-Source-KI-Chat-Tool, das auf dem MCP-Protokoll (Model Context Protocol) basiert. Es unterstützt mehrere KI-Modelle über das Vercel AI SDK, so dass Benutzer eine Verbindung zu verschiedenen MCP-Servern herstellen und die KI-Funktionalität erweitern können. Das von Zaid Mukaddam entwickelte Projekt verwendet Next.js und Tailwind CSS für eine saubere und moderne Schnittstelle, die mehrere Transportarten wie HTTP, SSE und stdio unterstützt. Benutzer können sich über die Einstellungsschnittstelle einfach mit dem MCP-Server verbinden und erleben reibungslose Text-Streaming-Antworten und Tool-Integration. Das Projekt ist kostenlos und offen auf GitHub für Entwickler, KI-Enthusiasten und Nutzer, die maßgeschneiderte KI-Tools benötigen.
Funktionsliste
- Unterstützung für mehrere KI-Modelle: Mit dem Vercel AI SDK können Benutzer nahtlos zwischen OpenAI, xAI Grok und vielen anderen KI-Modellen wechseln.
- MCP-Server-Integration: Stellen Sie eine Verbindung zu einem beliebigen MCP-kompatiblen Server her, um die Funktionen des Tools zu erweitern, z. B. Suche, Code-Interpreter usw.
- Multi-Transport: Unterstützung von HTTP-, SSE- und stdio-Transportprotokollen zur Anpassung an verschiedene Tool-Anbieter.
- Tool-Erweiterungen: Integrierte Tool-Integration zur Verbesserung der KI-Funktionen wie Code-Debugging, Aufgabenverwaltung und Datenanalyse.
- Modernes Interface: Basierend auf shadcn/ui und Tailwind CSS, ist das Interface reaktionsschnell, schön und intuitiv.
- Streaming Text Response: Echtzeitanzeige von KI-Antworten zur Verbesserung des interaktiven Erlebnisses.
- Open Source und kostenlos: Der Code ist auf GitHub öffentlich zugänglich, so dass die Benutzer ihn frei ändern und einsetzen können.
- Einstellungsmanagement: Einfaches Hinzufügen und Aktivieren von MCP-Servern über das Einstellungssymbol in der Chat-Oberfläche.
Hilfe verwenden
Einbauverfahren
Scira MCP Chat ist eine Next.js-basierte Webanwendung, die eine grundlegende Entwicklungsumgebung für den Einsatz erfordert. Nachfolgend finden Sie die detaillierten Installationsschritte:
- Vorbereitung der Umwelt
- Stellen Sie sicher, dass Sie Node.js (empfohlene Version 16 oder höher) und npm installiert haben.
- Installieren Sie Git zum Klonen von Projekten von GitHub.
- Optional: Installieren Sie Docker und Docker Compose für eine containerisierte Bereitstellung.
- Klonprojekt
Öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus, um die Codebasis von Scira MCP Chat zu klonen:git clone https://github.com/zaidmukaddam/scira-mcp-chat.git cd scira-mcp-chat
- Installation von Abhängigkeiten
Führen Sie den folgenden Befehl im Projektverzeichnis aus, um die erforderlichen Abhängigkeiten zu installieren:npm install
- Umgebungsvariablen konfigurieren
Erstellen einer.env.local
fügen Sie die erforderlichen Umgebungsvariablen hinzu. Beispiel:NEXT_PUBLIC_AI_SDK_PROVIDER=openai AI_SDK_API_KEY=your_api_key
NEXT_PUBLIC_AI_SDK_PROVIDER
KI-Anbieter: Geben Sie den KI-Anbieter an (z. B. OpenAI oder andere unterstützte Modelle).AI_SDK_API_KEY
: API-Schlüssel, den Sie vom KI-Anbieter erhalten haben.- Wenn Sie einen MCP-Server verwenden, müssen Sie möglicherweise zusätzlich die Serveradresse und die Authentifizierungsinformationen konfigurieren.
- Laufende Projekte
Führen Sie nach Abschluss der Installation den folgenden Befehl aus, um den Entwicklungsserver zu starten:npm run dev
Öffnen Sie Ihren Browser und besuchen Sie
http://localhost:3000
Sie können die Oberfläche von Scira MCP Chat sehen. - Docker-Bereitstellung (optional)
Wenn Sie Docker verwenden, führen Sie den folgenden Befehl aus:docker-compose up --build
sicher
docker-compose.yml
Datei richtig konfiguriert ist, wird das Projekt auf dem angegebenen Port (Standard 3000) ausgeführt.
Verwendung
- Zugang zum Chat-Interface
Öffnen Sie nach dem Start des Projekts einen Browser und rufen Sie die Startseite von Scira MCP Chat auf. Die Oberfläche enthält das Chat-Fenster, die Modellauswahl und Einstellungssymbole. - Verbinden mit dem MCP-Server
- Klicken Sie auf das Symbol Einstellungen (⚙️) in der oberen rechten Ecke des Chat-Bildschirms.
- Geben Sie im Pop-up-Fenster Einstellungen den Namen und die Adresse des MCP-Servers ein (z. B. den Server von Composio oder Zapier).
- Wählen Sie den Transporttyp (HTTP, SSE oder stdio) und klicken Sie auf "Verwenden", um den Server zu aktivieren.
- Wenn sie aktiviert ist, werden die Tools des Servers in den Chat integriert, z. B. Suche, Code-Interpreter oder Aufgabenverwaltung.
- Auswahl eines AI-Modells
- Wählen Sie im Modell-Selektor ein unterstütztes KI-Modell aus (z. B. Grok 3 von xAI oder das Modell von OpenAI).
- Wenn Sie die Modelle wechseln müssen, wählen Sie sie einfach erneut aus, und das Vercel AI SDK wird den Modellwechsel automatisch durchführen.
- Verwendung von Werkzeugfunktionen
- Geben Sie eine Frage oder Aufgabe ein, und AI ruft das entsprechende Tool auf der Grundlage des verbundenen MCP-Servers auf. Wenn Sie z. B. "Suche nach den neuesten KI-Nachrichten" eingeben, ruft das System das Suchwerkzeug über den MCP-Server auf und liefert die Ergebnisse.
- Für das Code-Debugging geben Sie ein Code-Snippet ein, und die KI liefert Optimierungsvorschläge oder eine Fehleranalyse.
- Die Ergebnisse des Tools werden als Text oder als UI-Komponenten (bei Verwendung des MCP-UI-Servers) angezeigt.
- Management-Einstellungen
- In der Setup-Oberfläche können Sie mehrere MCP-Server hinzufügen und diese jederzeit wechseln.
- Unterstützt das Speichern von Konfigurationen für das nächste Mal.
Featured Function Bedienung
- Streaming Text AntwortWenn Sie eine Frage eingeben, wird die KI-Antwort in Echtzeit angezeigt, so dass Sie nicht auf eine vollständige Antwort warten müssen.
- MCP-UI-IntegrationWenn der verbundene Server MCP-UI unterstützt (z.B. idosal/scira-mcp-ui-chat), wird das Ergebnis des Tool-Aufrufs als interaktive UI-Komponente angezeigt. Zum Beispiel.
show_task_status
Das Tool zeigt eine grafische Oberfläche des Aufgabenstatus an. - MTPWählen Sie den geeigneten Transport auf der Grundlage des Werkzeuganbieters. SSE eignet sich beispielsweise gut für das Streaming von Echtzeitdaten und stdio für lokale Werkzeugaufrufe.
- Open-Source-AnpassungEntwickler können den Code modifizieren, um benutzerdefinierte Tools oder Schnittstellenkomponenten hinzuzufügen, die den spezifischen Anforderungen entsprechen.
caveat
- Vergewissern Sie sich, dass der API-Schlüssel gültig ist, da Sie sonst keine Verbindung zum KI-Modell herstellen können.
- Die Adresse des MCP-Servers muss korrekt sein und es wird empfohlen, sich auf die offizielle Dokumentation zu beziehen (z. B. Composio oder Zapier).
- Das Projekt basiert auf dem Vercel AI SDK und benötigt eine Netzwerkverbindung, um externe AI-Dienste aufzurufen.
- Beim Einsatz in einer Produktionsumgebung wird aus Sicherheitsgründen die Verwendung von HTTPS empfohlen.
Anwendungsszenario
- Debugging-Code für Entwickler
Entwickler können den Scira MCP Chat nutzen, um sich mit einem Code-Interpreter-Tool zu verbinden, Codeschnipsel einzugeben, und die KI analysiert Fehler, optimiert den Code oder macht Debugging-Vorschläge. Ideal für die schnelle Überprüfung der Codelogik. - AI Tools Erweiterung
Durch die Verbindung mit den MCP-Servern von Composio oder Zapier können Nutzer Such-, Aufgabenmanagement- oder Datenanalysetools aufrufen, die für die Automatisierung von Workflows oder den Erhalt von Echtzeitinformationen geeignet sind. - Bildung und Lernen
Studenten oder Forscher können KI-Modelle zur Beantwortung akademischer Fragen oder zur Abfrage von Dokumenten und zur Analyse von Daten durch Tool-Integrationen verwenden, die sich für akademische Forschungs- oder Lernszenarien eignen. - Unterstützung des Kundendienstes in Produktionsumgebungen
Unternehmen können Scira MCP Chat in ihr Kundendienstsystem integrieren, indem sie den MCP-Server so anpassen, dass häufig gestellte Fragen automatisch beantwortet oder externe Tools zur Bearbeitung von Kundenanfragen aufgerufen werden.
QA
- Ist der Scira MCP Chat kostenlos?
Ja, Scira MCP Chat ist ein Open-Source-Projekt und der Code ist auf GitHub frei verfügbar. Nutzer müssen nur für eventuelle KI-Modell-API-Gebühren oder MCP-Server-Gebühren zahlen. - Wie kann ich einen neuen MCP-Server hinzufügen?
Klicken Sie im Chat-Bildschirm auf das Symbol "Einstellungen", geben Sie den Servernamen und die Adresse ein, wählen Sie den Transporttyp (HTTP, SSE oder stdio) und klicken Sie auf "Verwenden", um ihn zu aktivieren. Composio, Zapier und andere kompatible Server werden unterstützt. - Welche KI-Modelle werden unterstützt?
Mit dem Vercel AI SDK wird eine breite Palette von Modellen unterstützt, wie z. B. Grok 3 von xAI, die Modelle von OpenAI usw. Die spezifische Unterstützung hängt von dem konfigurierten API-Anbieter ab. - Wie werden die Ergebnisse von Tool-Aufrufen behandelt?
Während normale Tools Textergebnisse liefern, liefert der MCP-UI-Server interaktive UI-Komponenten (z. B. Aufgabenstatusgrafiken). Benutzer können direkt mit der Benutzeroberfläche interagieren, z. B. durch Anklicken, um Details anzuzeigen. - Programmiererfahrung erforderlich?
Für die Nutzung der Chat-Funktion sind keine Programmierkenntnisse erforderlich. Grundkenntnisse in Node.js und Git sind für die Bereitstellung oder Anpassung erforderlich.