Scira MCP Chat 是一个开源的AI聊天工具,基于 Model Context Protocol(MCP)协议构建。它通过 Vercel AI SDK 支持多种AI模型,允许用户连接不同的MCP服务器,扩展AI功能。项目由 Zaid Mukaddam 开发,使用 Next.js 和 Tailwind CSS,界面简洁现代,支持 HTTP、SSE 和 stdio 等多种传输方式。用户可以通过设置界面轻松连接MCP服务器,体验流畅的文本流式响应和工具集成。项目在 GitHub 上免费开放,适合开发者、AI爱好者和需要定制化AI工具的用户使用。
功能列表
- 支持多种AI模型:通过 Vercel AI SDK,用户可以无缝切换 OpenAI、xAI Grok 等多种AI模型。
- MCP服务器集成:连接任意 MCP 兼容服务器,扩展工具功能,如搜索、代码解释器等。
- 多传输方式:支持 HTTP、SSE 和 stdio 三种传输协议,适应不同工具提供商。
- 工具扩展:内置工具集成,增强AI功能,例如代码调试、任务管理和数据分析。
- 现代界面:基于 shadcn/ui 和 Tailwind CSS,界面响应式且美观,操作直观。
- 流式文本响应:实时显示AI回复,提升交互体验。
- 开源免费:代码公开在 GitHub,允许用户自由修改和部署。
- 设置管理:通过聊天界面中的设置图标,轻松添加和激活 MCP 服务器。
使用帮助
安装流程
Scira MCP Chat 是一个基于 Next.js 的 Web 应用,部署需要基本的开发环境。以下是详细的安装步骤:
- 环境准备
- 确保安装了 Node.js(建议版本 16 或以上)和 npm。
- 安装 Git,用于从 GitHub 克隆项目。
- 可选:安装 Docker 和 Docker Compose,用于容器化部署。
- 克隆项目
打开终端,运行以下命令克隆 Scira MCP Chat 的代码库:git clone https://github.com/zaidmukaddam/scira-mcp-chat.git cd scira-mcp-chat
- 安装依赖
在项目目录中运行以下命令安装所需依赖:npm install
- 配置环境变量
创建一个.env.local
文件,添加必要的环境变量。例如:NEXT_PUBLIC_AI_SDK_PROVIDER=openai AI_SDK_API_KEY=your_api_key
NEXT_PUBLIC_AI_SDK_PROVIDER
:指定 AI 提供商(如 OpenAI 或其他支持的模型)。AI_SDK_API_KEY
:从 AI 提供商获取的 API 密钥。- 如果使用 MCP 服务器,可能需要额外配置服务器地址和认证信息。
- 运行项目
安装完成后,运行以下命令启动开发服务器:npm run dev
打开浏览器,访问
http://localhost:3000
,即可看到 Scira MCP Chat 的界面。 - Docker 部署(可选)
如果使用 Docker,运行以下命令:docker-compose up --build
确保
docker-compose.yml
文件已正确配置,项目将运行在指定的端口(默认 3000)。
使用方法
- 访问聊天界面
启动项目后,打开浏览器,进入 Scira MCP Chat 的主页。界面包含聊天窗口、模型选择器和设置图标。 - 连接 MCP 服务器
- 点击聊天界面右上角的设置图标(⚙️)。
- 在弹出的设置窗口中,输入 MCP 服务器的名称和地址(例如 Composio 或 Zapier 的服务器)。
- 选择传输类型(HTTP、SSE 或 stdio),然后点击“Use”激活服务器。
- 激活后,服务器的工具将集成到聊天中,例如搜索、代码解释器或任务管理。
- 选择 AI 模型
- 在模型选择器中,选择支持的 AI 模型(如 xAI 的 Grok 3 或 OpenAI 的模型)。
- 如果需要切换模型,重新选择即可,Vercel AI SDK 会自动处理模型切换。
- 使用工具功能
- 输入问题或任务,AI 会根据连接的 MCP 服务器调用相关工具。例如,输入“搜索最新的 AI 新闻”,系统会通过 MCP 服务器调用搜索工具并返回结果。
- 对于代码调试,输入代码片段,AI 会提供优化建议或错误分析。
- 工具结果会以文本或 UI 组件形式展示(若使用 MCP-UI 服务器)。
- 管理设置
- 在设置界面中,可以添加多个 MCP 服务器,随时切换。
- 支持保存配置,方便下次使用。
特色功能操作
- 流式文本响应:输入问题后,AI 回复会实时显示,无需等待完整响应。
- MCP-UI 集成:如果连接的服务器支持 MCP-UI(如 idosal/scira-mcp-ui-chat),工具调用结果会以交互式 UI 组件显示。例如,
show_task_status
工具会展示任务状态的图形界面。 - 多传输协议:根据工具提供商选择合适的传输方式。例如,SSE 适合实时数据流,stdio 适合本地工具调用。
- 开源定制:开发者可以修改代码,添加自定义工具或界面组件,适配特定需求。
注意事项
- 确保 API 密钥有效,否则无法连接 AI 模型。
- MCP 服务器地址需准确,建议参考官方文档(如 Composio 或 Zapier)。
- 项目依赖 Vercel AI SDK,需保持网络连接以调用外部 AI 服务。
- 如果部署到生产环境,建议使用 HTTPS 确保安全。
应用场景
- 开发者调试代码
开发者可以使用 Scira MCP Chat 连接代码解释器工具,输入代码片段,AI 会分析错误、优化代码或提供调试建议。适合快速验证代码逻辑。 - AI 工具扩展
用户可以通过连接 Composio 或 Zapier 的 MCP 服务器,调用搜索、任务管理或数据分析工具,适合自动化工作流程或获取实时信息。 - 教育与学习
学生或研究人员可以利用 AI 模型解答学术问题,或通过工具集成查询论文、分析数据,适合学术研究或学习场景。 - 生产环境中的客服支持
企业可以通过自定义 MCP 服务器,将 Scira MCP Chat 集成到客服系统中,自动回答常见问题或调用外部工具处理客户请求。
QA
- Scira MCP Chat 是否免费?
是的,Scira MCP Chat 是开源项目,代码在 GitHub 上免费提供。用户只需支付可能的 AI 模型 API 费用或 MCP 服务器费用。 - 如何添加新的 MCP 服务器?
在聊天界面点击设置图标,输入服务器名称和地址,选择传输类型(HTTP、SSE 或 stdio),然后点击“Use”激活。支持 Composio、Zapier 等兼容服务器。 - 支持哪些 AI 模型?
通过 Vercel AI SDK,支持多种模型,如 xAI 的 Grok 3、OpenAI 的模型等。具体支持取决于配置的 API 提供商。 - 如何处理工具调用结果?
普通工具返回文本结果,MCP-UI 服务器返回交互式 UI 组件(如任务状态图)。用户可直接与 UI 交互,例如点击查看详细信息。 - 需要编程经验吗?
使用聊天功能无需编程经验。部署或定制需要基本的 Node.js 和 Git 知识。