Scira MCP Chatは、MCP(Model Context Protocol)プロトコルに基づいて構築されたオープンソースのAIチャットツールです。Vercel AI SDKを通じて複数のAIモデルをサポートしており、ユーザーは異なるMCPサーバーに接続してAI機能を拡張することができます。Zaid Mukaddamによって開発されたこのプロジェクトは、Next.jsとTailwind CSSを使用して、HTTP、SSE、stdioなどの複数のトランスポートをサポートするクリーンでモダンなインターフェースを実現しています。ユーザーは設定インターフェイスから簡単にMCPサーバーに接続でき、スムーズなテキスト・ストリーミング・レスポンスとツールの統合を体験できる。このプロジェクトは、開発者、AI愛好家、カスタマイズされたAIツールを必要とするユーザーのために、GitHubで無料で公開されている。
機能一覧
- 複数のAIモデルをサポート:Vercel AI SDKを使用すると、ユーザーはOpenAI、xAI Grok、および他の多くのAIモデルをシームレスに切り替えることができます。
- MCPサーバーとの統合:検索、コードインタプリタなどのツール機能を拡張するために、あらゆるMCP互換サーバーに接続します。
- マルチ・トランスポート:HTTP、SSE、stdioトランスポート・プロトコルをサポートし、さまざまなツール・プロバイダに対応。
- ツール拡張:コードデバッグ、タスク管理、データ分析などのAI機能を強化するためのツール統合機能を内蔵。
- モダンなインターフェイス:shadcn/uiとTailwind CSSをベースにしたインターフェイスは、レスポンシブで美しく、直感的です。
- ストリーミング・テキスト・レスポンス:AIの応答をリアルタイムで表示し、インタラクティブな体験を高める。
- オープンソースで無料:コードはGitHubで公開されているため、ユーザーは自由に修正したり、デプロイしたりすることができる。
- 設定管理: チャットインターフェイスの設定アイコンから、簡単にMCPサーバーを追加、有効化できます。
ヘルプの使用
設置プロセス
Scira MCP ChatはNext.jsベースのWebアプリケーションで、導入には基本的な開発環境が必要です。以下に詳細なインストール手順を示します:
- 環境準備
- Node.js(推奨バージョン16以上)とnpmがインストールされていることを確認してください。
- GitHubからプロジェクトをクローンするためにGitをインストールする。
- オプション:DockerとDocker Composeをインストールし、コンテナでデプロイする。
- クローンプロジェクト
ターミナルを開き、以下のコマンドを実行して Scira MCP Chat コードベースをクローンします:git clone https://github.com/zaidmukaddam/scira-mcp-chat.git cd scira-mcp-chat
- 依存関係のインストール
プロジェクト・ディレクトリで以下のコマンドを実行し、必要な依存関係をインストールする:npm install
- 環境変数の設定
を作成する。.env.local
ファイルに必要な環境変数を追加する。例NEXT_PUBLIC_AI_SDK_PROVIDER=openai AI_SDK_API_KEY=your_api_key
NEXT_PUBLIC_AI_SDK_PROVIDER
AIプロバイダーを指定する(例:OpenAIまたは他のサポートモデル)。AI_SDK_API_KEY
AIプロバイダーから取得したAPIキー。- MCPサーバーを使用している場合は、サーバー・アドレスと認証情報を追加設定する必要がある場合があります。
- ランニング・プロジェクト
インストールが完了したら、以下のコマンドを実行して開発サーバーを起動する:npm run dev
ブラウザを開き、次のサイトにアクセスする。
http://localhost:3000
Scira MCP Chatのインターフェイスを見ることができます。 - Dockerデプロイメント(オプション)
Dockerを使用している場合は、以下のコマンドを実行する:docker-compose up --build
セキュア
docker-compose.yml
ファイルが適切に設定されていれば、プロジェクトは指定されたポート(デフォルト3000)で実行されます。
使用方法
- チャット・インターフェースへのアクセス
プロジェクトを開始したら、ブラウザを開き、Scira MCP Chat のホームページにアクセスしてください。インターフェイスには、チャットウィンドウ、モデルセレクタ、および設定アイコンが含まれています。 - MCPサーバーへの接続
- チャット画面右上の設定アイコン(⚙️)をクリックします。
- 設定ポップアップウィンドウで、MCPサーバーの名前とアドレスを入力する(ComposioのサーバーやZapierのサーバーなど)。
- トランスポートタイプ(HTTP、SSE、stdio)を選択し、"Use "をクリックしてサーバーをアクティブにする。
- 有効にすると、検索、コード・インタプリタ、タスク管理など、サーバーのツールがチャットに統合される。
- AIモデルの選択
- モデルセレクターで、サポートされているAIモデル(xAIのGrok 3やOpenAIのモデルなど)を選択します。
- モデルを切り替える必要がある場合は、モデルを再選択するだけで、Vercel AI SDKがモデルの切り替えを自動的に処理します。
- ツール機能の使用
- 質問やタスクを入力すると、AIは接続されているMCPサーバーに基づいて関連ツールを呼び出します。例えば、「AIの最新ニュースを検索」と入力すると、MCPサーバーを通じて検索ツールを呼び出し、結果を返します。
- コードのデバッグでは、コード・スニペットを入力すると、AIが最適化の提案やエラー分析を提供する。
- ツールの結果は、テキストまたはUIコンポーネント(MCP-UIサーバーを使用している場合)として表示されます。
- 管理設定
- セットアップ・インターフェースでは、複数のMCPサーバーを追加し、いつでも切り替えることができます。
- 次回のために設定を保存することができます。
注目の機能操作
- ストリーミング・テキスト・レスポンス質問を入力すると、AIの回答がリアルタイムで表示されます。
- MCP-UIの統合: 接続されたサーバーがMCP-UI(idosal/scira-mcp-ui-chatなど)をサポートしている場合、ツール呼び出しの結果は対話型UIコンポーネントとして表示されます。例えば
show_task_status
このツールは、タスクのステータスをグラフィカルに表示する。 - エムティーピーツール・プロバイダに基づき、適切なトランスポートを選択する。例えば、リアルタイム・データ・ストリーミングにはSSEが適しており、ローカル・ツール・コールにはstdioが適している。
- オープンソースのカスタマイズ開発者は、特定のニーズに合わせてカスタムツールやインターフェースコンポーネントを追加するためにコードを変更することができます。
ほら
- APIキーが有効であることを確認してください。有効でない場合、AIモデルに接続できません。
- MCPサーバーのアドレスは正確である必要があり、公式ドキュメント(ComposioやZapierなど)を参照することをお勧めします。
- このプロジェクトはVercel AI SDKに依存しており、外部のAIサービスを呼び出すにはネットワーク接続が必要です。
- 本番環境に導入する場合は、セキュリティのためにHTTPSを使用することを推奨します。
アプリケーションシナリオ
- 開発者によるコードのデバッグ
開発者はScira MCP Chatを使用してコードインタープリタツールに接続し、コードスニペットを入力すると、AIがエラーを分析し、コードを最適化したり、デバッグの提案を行います。コードロジックの迅速な検証に最適です。 - AIツール・エクステンション
ComposioやZapierのMCPサーバーに接続することで、ユーザーはワークフローの自動化やリアルタイム情報の取得に適した検索、タスク管理、データ分析ツールを呼び出すことができる。 - 教育と学習
学生や研究者は、AIモデルを使って学術的な質問に答えたり、論文を照会したり、ツールの統合を通じてデータを分析したりすることができ、学術研究や学習シナリオに適している。 - 生産環境におけるカスタマーサービス・サポート
組織は、MCPサーバーをカスタマイズして、よくある質問に自動的に回答したり、顧客の要求を処理するために外部ツールを呼び出したりすることで、Scira MCP Chatを顧客サービスシステムに統合できます。
品質保証
- Scira MCP Chatは無料ですか?
はい、Scira MCP Chatはオープンソースプロジェクトで、コードはGitHubで自由に入手できます。ユーザーが支払う必要があるのは、可能性のあるAIモデルAPI料金またはMCPサーバー料金のみです。 - 新しいMCPサーバーを追加するには?
チャット画面の設定アイコンをクリックし、サーバー名とアドレスを入力し、トランスポートタイプ(HTTP、SSE、stdio)を選択し、"使用 "をクリックして有効化します。Composio、Zapier、その他互換性のあるサーバーに対応しています。 - 対応するAIモデルは?
Vercel AI SDKでは、xAIのGrok 3やOpenAIのモデルなど、幅広いモデルをサポートしています。具体的なサポートは、設定されたAPIプロバイダーに依存します。 - ツールコールの結果はどのように扱われますか?
通常のツールはテキストの結果を返すが、MCP-UIサーバーはインタラクティブなUIコン ポーネント(タスク・ステータス・グラフなど)を返す。ユーザーは、クリックして詳細を表示するなど、UIと直接対話することができます。 - プログラミングの経験が必要ですか?
チャット機能を使うのにプログラミングの経験は必要ありません。デプロイやカスタマイズには、Node.jsとGitの基本的な知識が必要です。