海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

Scira MCP Chat 是一个开源的AI聊天工具,基于 Model Context Protocol(MCP)协议构建。它通过 Vercel AI SDK 支持多种AI模型,允许用户连接不同的MCP服务器,扩展AI功能。项目由 Zaid Mukaddam 开发,使用 Next.js 和 Tailwind CSS,界面简洁现代,支持 HTTP、SSE 和 stdio 等多种传输方式。用户可以通过设置界面轻松连接MCP服务器,体验流畅的文本流式响应和工具集成。项目在 GitHub 上免费开放,适合开发者、AI爱好者和需要定制化AI工具的用户使用。

功能列表

  • 支持多种AI模型:通过 Vercel AI SDK,用户可以无缝切换 OpenAI、xAI Grok 等多种AI模型。
  • MCP服务器集成:连接任意 MCP 兼容服务器,扩展工具功能,如搜索、代码解释器等。
  • 多传输方式:支持 HTTP、SSE 和 stdio 三种传输协议,适应不同工具提供商。
  • 工具扩展:内置工具集成,增强AI功能,例如代码调试、任务管理和数据分析。
  • 现代界面:基于 shadcn/ui 和 Tailwind CSS,界面响应式且美观,操作直观。
  • 流式文本响应:实时显示AI回复,提升交互体验。
  • 开源免费:代码公开在 GitHub,允许用户自由修改和部署。
  • 设置管理:通过聊天界面中的设置图标,轻松添加和激活 MCP 服务器。

使用帮助

安装流程

Scira MCP Chat 是一个基于 Next.js 的 Web 应用,部署需要基本的开发环境。以下是详细的安装步骤:

  1. 环境准备
    • 确保安装了 Node.js(建议版本 16 或以上)和 npm。
    • 安装 Git,用于从 GitHub 克隆项目。
    • 可选:安装 Docker 和 Docker Compose,用于容器化部署。
  2. 克隆项目
    打开终端,运行以下命令克隆 Scira MCP Chat 的代码库:

    git clone https://github.com/zaidmukaddam/scira-mcp-chat.git
    cd scira-mcp-chat
    
  3. 安装依赖
    在项目目录中运行以下命令安装所需依赖:

    npm install
    
  4. 配置环境变量
    创建一个 .env.local 文件,添加必要的环境变量。例如:

    NEXT_PUBLIC_AI_SDK_PROVIDER=openai
    AI_SDK_API_KEY=your_api_key
    
    • NEXT_PUBLIC_AI_SDK_PROVIDER:指定 AI 提供商(如 OpenAI 或其他支持的模型)。
    • AI_SDK_API_KEY:从 AI 提供商获取的 API 密钥。
    • 如果使用 MCP 服务器,可能需要额外配置服务器地址和认证信息。
  5. 运行项目
    安装完成后,运行以下命令启动开发服务器:

    npm run dev
    

    打开浏览器,访问 http://localhost:3000,即可看到 Scira MCP Chat 的界面。

  6. Docker 部署(可选)
    如果使用 Docker,运行以下命令:

    docker-compose up --build
    

    确保 docker-compose.yml 文件已正确配置,项目将运行在指定的端口(默认 3000)。

使用方法

  1. 访问聊天界面
    启动项目后,打开浏览器,进入 Scira MCP Chat 的主页。界面包含聊天窗口、模型选择器和设置图标。
  2. 连接 MCP 服务器
    • 点击聊天界面右上角的设置图标(⚙️)。
    • 在弹出的设置窗口中,输入 MCP 服务器的名称和地址(例如 Composio 或 Zapier 的服务器)。
    • 选择传输类型(HTTP、SSE 或 stdio),然后点击“Use”激活服务器。
    • 激活后,服务器的工具将集成到聊天中,例如搜索、代码解释器或任务管理。
  3. 选择 AI 模型
    • 在模型选择器中,选择支持的 AI 模型(如 xAI 的 Grok 3 或 OpenAI 的模型)。
    • 如果需要切换模型,重新选择即可,Vercel AI SDK 会自动处理模型切换。
  4. 使用工具功能
    • 输入问题或任务,AI 会根据连接的 MCP 服务器调用相关工具。例如,输入“搜索最新的 AI 新闻”,系统会通过 MCP 服务器调用搜索工具并返回结果。
    • 对于代码调试,输入代码片段,AI 会提供优化建议或错误分析。
    • 工具结果会以文本或 UI 组件形式展示(若使用 MCP-UI 服务器)。
  5. 管理设置
    • 在设置界面中,可以添加多个 MCP 服务器,随时切换。
    • 支持保存配置,方便下次使用。

特色功能操作

  • 流式文本响应:输入问题后,AI 回复会实时显示,无需等待完整响应。
  • MCP-UI 集成:如果连接的服务器支持 MCP-UI(如 idosal/scira-mcp-ui-chat),工具调用结果会以交互式 UI 组件显示。例如,show_task_status 工具会展示任务状态的图形界面。
  • 多传输协议:根据工具提供商选择合适的传输方式。例如,SSE 适合实时数据流,stdio 适合本地工具调用。
  • 开源定制:开发者可以修改代码,添加自定义工具或界面组件,适配特定需求。

注意事项

  • 确保 API 密钥有效,否则无法连接 AI 模型。
  • MCP 服务器地址需准确,建议参考官方文档(如 Composio 或 Zapier)。
  • 项目依赖 Vercel AI SDK,需保持网络连接以调用外部 AI 服务。
  • 如果部署到生产环境,建议使用 HTTPS 确保安全。

应用场景

  1. 开发者调试代码
    开发者可以使用 Scira MCP Chat 连接代码解释器工具,输入代码片段,AI 会分析错误、优化代码或提供调试建议。适合快速验证代码逻辑。
  2. AI 工具扩展
    用户可以通过连接 Composio 或 Zapier 的 MCP 服务器,调用搜索、任务管理或数据分析工具,适合自动化工作流程或获取实时信息。
  3. 教育与学习
    学生或研究人员可以利用 AI 模型解答学术问题,或通过工具集成查询论文、分析数据,适合学术研究或学习场景。
  4. 生产环境中的客服支持
    企业可以通过自定义 MCP 服务器,将 Scira MCP Chat 集成到客服系统中,自动回答常见问题或调用外部工具处理客户请求。

QA

  1. Scira MCP Chat 是否免费?
    是的,Scira MCP Chat 是开源项目,代码在 GitHub 上免费提供。用户只需支付可能的 AI 模型 API 费用或 MCP 服务器费用。
  2. 如何添加新的 MCP 服务器?
    在聊天界面点击设置图标,输入服务器名称和地址,选择传输类型(HTTP、SSE 或 stdio),然后点击“Use”激活。支持 Composio、Zapier 等兼容服务器。
  3. 支持哪些 AI 模型?
    通过 Vercel AI SDK,支持多种模型,如 xAI 的 Grok 3、OpenAI 的模型等。具体支持取决于配置的 API 提供商。
  4. 如何处理工具调用结果?
    普通工具返回文本结果,MCP-UI 服务器返回交互式 UI 组件(如任务状态图)。用户可直接与 UI 交互,例如点击查看详细信息。
  5. 需要编程经验吗?
    使用聊天功能无需编程经验。部署或定制需要基本的 Node.js 和 Git 知识。
0已收藏
0已赞

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

邮箱

联系我们

回顶部

zh_CN简体中文