海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする

Scira MCP Chatは、MCP(Model Context Protocol)プロトコルに基づいて構築されたオープンソースのAIチャットツールです。Vercel AI SDKを通じて複数のAIモデルをサポートしており、ユーザーは異なるMCPサーバーに接続してAI機能を拡張することができます。Zaid Mukaddamによって開発されたこのプロジェクトは、Next.jsとTailwind CSSを使用して、HTTP、SSE、stdioなどの複数のトランスポートをサポートするクリーンでモダンなインターフェースを実現しています。ユーザーは設定インターフェイスから簡単にMCPサーバーに接続でき、スムーズなテキスト・ストリーミング・レスポンスとツールの統合を体験できる。このプロジェクトは、開発者、AI愛好家、カスタマイズされたAIツールを必要とするユーザーのために、GitHubで無料で公開されている。

機能一覧

  • 複数のAIモデルをサポート:Vercel AI SDKを使用すると、ユーザーはOpenAI、xAI Grok、および他の多くのAIモデルをシームレスに切り替えることができます。
  • MCPサーバーとの統合:検索、コードインタプリタなどのツール機能を拡張するために、あらゆるMCP互換サーバーに接続します。
  • マルチ・トランスポート:HTTP、SSE、stdioトランスポート・プロトコルをサポートし、さまざまなツール・プロバイダに対応。
  • ツール拡張:コードデバッグ、タスク管理、データ分析などのAI機能を強化するためのツール統合機能を内蔵。
  • モダンなインターフェイス:shadcn/uiとTailwind CSSをベースにしたインターフェイスは、レスポンシブで美しく、直感的です。
  • ストリーミング・テキスト・レスポンス:AIの応答をリアルタイムで表示し、インタラクティブな体験を高める。
  • オープンソースで無料:コードはGitHubで公開されているため、ユーザーは自由に修正したり、デプロイしたりすることができる。
  • 設定管理: チャットインターフェイスの設定アイコンから、簡単にMCPサーバーを追加、有効化できます。

ヘルプの使用

設置プロセス

Scira MCP ChatはNext.jsベースのWebアプリケーションで、導入には基本的な開発環境が必要です。以下に詳細なインストール手順を示します:

  1. 環境準備
    • Node.js(推奨バージョン16以上)とnpmがインストールされていることを確認してください。
    • GitHubからプロジェクトをクローンするためにGitをインストールする。
    • オプション:DockerとDocker Composeをインストールし、コンテナでデプロイする。
  2. クローンプロジェクト
    ターミナルを開き、以下のコマンドを実行して Scira MCP Chat コードベースをクローンします:

    git clone https://github.com/zaidmukaddam/scira-mcp-chat.git
    cd scira-mcp-chat
    
  3. 依存関係のインストール
    プロジェクト・ディレクトリで以下のコマンドを実行し、必要な依存関係をインストールする:

    npm install
    
  4. 環境変数の設定
    を作成する。 .env.local ファイルに必要な環境変数を追加する。例

    NEXT_PUBLIC_AI_SDK_PROVIDER=openai
    AI_SDK_API_KEY=your_api_key
    
    • NEXT_PUBLIC_AI_SDK_PROVIDERAIプロバイダーを指定する(例:OpenAIまたは他のサポートモデル)。
    • AI_SDK_API_KEYAIプロバイダーから取得したAPIキー。
    • MCPサーバーを使用している場合は、サーバー・アドレスと認証情報を追加設定する必要がある場合があります。
  5. ランニング・プロジェクト
    インストールが完了したら、以下のコマンドを実行して開発サーバーを起動する:

    npm run dev
    

    ブラウザを開き、次のサイトにアクセスする。 http://localhost:3000Scira MCP Chatのインターフェイスを見ることができます。

  6. Dockerデプロイメント(オプション)
    Dockerを使用している場合は、以下のコマンドを実行する:

    docker-compose up --build
    

    セキュア docker-compose.yml ファイルが適切に設定されていれば、プロジェクトは指定されたポート(デフォルト3000)で実行されます。

使用方法

  1. チャット・インターフェースへのアクセス
    プロジェクトを開始したら、ブラウザを開き、Scira MCP Chat のホームページにアクセスしてください。インターフェイスには、チャットウィンドウ、モデルセレクタ、および設定アイコンが含まれています。
  2. MCPサーバーへの接続
    • チャット画面右上の設定アイコン(⚙️)をクリックします。
    • 設定ポップアップウィンドウで、MCPサーバーの名前とアドレスを入力する(ComposioのサーバーやZapierのサーバーなど)。
    • トランスポートタイプ(HTTP、SSE、stdio)を選択し、"Use "をクリックしてサーバーをアクティブにする。
    • 有効にすると、検索、コード・インタプリタ、タスク管理など、サーバーのツールがチャットに統合される。
  3. AIモデルの選択
    • モデルセレクターで、サポートされているAIモデル(xAIのGrok 3やOpenAIのモデルなど)を選択します。
    • モデルを切り替える必要がある場合は、モデルを再選択するだけで、Vercel AI SDKがモデルの切り替えを自動的に処理します。
  4. ツール機能の使用
    • 質問やタスクを入力すると、AIは接続されているMCPサーバーに基づいて関連ツールを呼び出します。例えば、「AIの最新ニュースを検索」と入力すると、MCPサーバーを通じて検索ツールを呼び出し、結果を返します。
    • コードのデバッグでは、コード・スニペットを入力すると、AIが最適化の提案やエラー分析を提供する。
    • ツールの結果は、テキストまたはUIコンポーネント(MCP-UIサーバーを使用している場合)として表示されます。
  5. 管理設定
    • セットアップ・インターフェースでは、複数のMCPサーバーを追加し、いつでも切り替えることができます。
    • 次回のために設定を保存することができます。

注目の機能操作

  • ストリーミング・テキスト・レスポンス質問を入力すると、AIの回答がリアルタイムで表示されます。
  • MCP-UIの統合: 接続されたサーバーがMCP-UI(idosal/scira-mcp-ui-chatなど)をサポートしている場合、ツール呼び出しの結果は対話型UIコンポーネントとして表示されます。例えばshow_task_status このツールは、タスクのステータスをグラフィカルに表示する。
  • エムティーピーツール・プロバイダに基づき、適切なトランスポートを選択する。例えば、リアルタイム・データ・ストリーミングにはSSEが適しており、ローカル・ツール・コールにはstdioが適している。
  • オープンソースのカスタマイズ開発者は、特定のニーズに合わせてカスタムツールやインターフェースコンポーネントを追加するためにコードを変更することができます。

ほら

  • APIキーが有効であることを確認してください。有効でない場合、AIモデルに接続できません。
  • MCPサーバーのアドレスは正確である必要があり、公式ドキュメント(ComposioやZapierなど)を参照することをお勧めします。
  • このプロジェクトはVercel AI SDKに依存しており、外部のAIサービスを呼び出すにはネットワーク接続が必要です。
  • 本番環境に導入する場合は、セキュリティのためにHTTPSを使用することを推奨します。

アプリケーションシナリオ

  1. 開発者によるコードのデバッグ
    開発者はScira MCP Chatを使用してコードインタープリタツールに接続し、コードスニペットを入力すると、AIがエラーを分析し、コードを最適化したり、デバッグの提案を行います。コードロジックの迅速な検証に最適です。
  2. AIツール・エクステンション
    ComposioやZapierのMCPサーバーに接続することで、ユーザーはワークフローの自動化やリアルタイム情報の取得に適した検索、タスク管理、データ分析ツールを呼び出すことができる。
  3. 教育と学習
    学生や研究者は、AIモデルを使って学術的な質問に答えたり、論文を照会したり、ツールの統合を通じてデータを分析したりすることができ、学術研究や学習シナリオに適している。
  4. 生産環境におけるカスタマーサービス・サポート
    組織は、MCPサーバーをカスタマイズして、よくある質問に自動的に回答したり、顧客の要求を処理するために外部ツールを呼び出したりすることで、Scira MCP Chatを顧客サービスシステムに統合できます。

品質保証

  1. Scira MCP Chatは無料ですか?
    はい、Scira MCP Chatはオープンソースプロジェクトで、コードはGitHubで自由に入手できます。ユーザーが支払う必要があるのは、可能性のあるAIモデルAPI料金またはMCPサーバー料金のみです。
  2. 新しいMCPサーバーを追加するには?
    チャット画面の設定アイコンをクリックし、サーバー名とアドレスを入力し、トランスポートタイプ(HTTP、SSE、stdio)を選択し、"使用 "をクリックして有効化します。Composio、Zapier、その他互換性のあるサーバーに対応しています。
  3. 対応するAIモデルは?
    Vercel AI SDKでは、xAIのGrok 3やOpenAIのモデルなど、幅広いモデルをサポートしています。具体的なサポートは、設定されたAPIプロバイダーに依存します。
  4. ツールコールの結果はどのように扱われますか?
    通常のツールはテキストの結果を返すが、MCP-UIサーバーはインタラクティブなUIコン ポーネント(タスク・ステータス・グラフなど)を返す。ユーザーは、クリックして詳細を表示するなど、UIと直接対話することができます。
  5. プログラミングの経験が必要ですか?
    チャット機能を使うのにプログラミングの経験は必要ありません。デプロイやカスタマイズには、Node.jsとGitの基本的な知識が必要です。
0ブックマークに登録
0表彰される

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

受信箱

お問い合わせ

トップに戻る

ja日本語