O Scira MCP Chat é uma ferramenta de bate-papo de IA de código aberto criada com base no protocolo MCP (Model Context Protocol). Ele oferece suporte a vários modelos de IA por meio do Vercel AI SDK, permitindo que os usuários se conectem a diferentes servidores MCP e ampliem a funcionalidade de IA. Desenvolvido por Zaid Mukaddam, o projeto usa Next.js e Tailwind CSS para uma interface limpa e moderna que suporta vários transportes, como HTTP, SSE e stdio. Os usuários podem se conectar facilmente ao servidor MCP por meio da interface de configurações e experimentar respostas suaves de streaming de texto e integração de ferramentas. O projeto é gratuito e está aberto no GitHub para desenvolvedores, entusiastas de IA e usuários que precisam de ferramentas de IA personalizadas.
Lista de funções
- Suporte a vários modelos de IA: com o Vercel AI SDK, os usuários podem alternar perfeitamente entre OpenAI, xAI Grok e muitos outros modelos de IA.
- Integração com o servidor MCP: conecte-se a qualquer servidor compatível com MCP para ampliar a funcionalidade da ferramenta, como pesquisa, interpretador de código, etc.
- Multitransporte: suporte a protocolos de transporte HTTP, SSE e stdio para se adaptar a diferentes provedores de ferramentas.
- Extensões de ferramentas: integração de ferramentas incorporadas para aprimorar a funcionalidade de IA, como depuração de código, gerenciamento de tarefas e análise de dados.
- Interface moderna: baseada em shadcn/ui e Tailwind CSS, a interface é responsiva, bonita e intuitiva.
- Resposta de texto em fluxo contínuo: exibição em tempo real de respostas de IA para aprimorar a experiência interativa.
- Código aberto e gratuito: o código está disponível publicamente no GitHub, permitindo que os usuários o modifiquem e implementem livremente.
- Gerenciamento de configurações: adicione e ative facilmente servidores MCP por meio do ícone de configurações na interface de bate-papo.
Usando a Ajuda
Processo de instalação
O Scira MCP Chat é um aplicativo da Web baseado em Next.js que requer um ambiente de desenvolvimento básico para implantação. Veja a seguir as etapas detalhadas de instalação:
- Preparação ambiental
- Certifique-se de que você tenha o Node.js (versão recomendada 16 ou superior) e o npm instalados.
- Instale o Git para clonar projetos do GitHub.
- Opcional: instale o Docker e o Docker Compose para implantação em contêiner.
- projeto de clonagem
Abra um terminal e execute o seguinte comando para clonar a base de código do Scira MCP Chat:git clone https://github.com/zaidmukaddam/scira-mcp-chat.git cd scira-mcp-chat
- Instalação de dependências
Execute o seguinte comando no diretório do projeto para instalar as dependências necessárias:npm install
- Configuração de variáveis de ambiente
Criar um.env.local
adicione as variáveis de ambiente necessárias. Exemplo:NEXT_PUBLIC_AI_SDK_PROVIDER=openai AI_SDK_API_KEY=your_api_key
NEXT_PUBLIC_AI_SDK_PROVIDER
Especifique o provedor de IA (por exemplo, OpenAI ou outros modelos compatíveis).AI_SDK_API_KEY
Chave de API obtida do provedor de IA.- Se estiver usando um servidor MCP, talvez seja necessário configurar adicionalmente o endereço do servidor e as informações de autenticação.
- Projetos em andamento
Após a conclusão da instalação, execute o seguinte comando para iniciar o servidor de desenvolvimento:npm run dev
Abra seu navegador e acesse
http://localhost:3000
Você pode ver a interface do Scira MCP Chat. - Implantação do Docker (opcional)
Se estiver usando o Docker, execute o seguinte comando:docker-compose up --build
seguro
docker-compose.yml
estiver configurado corretamente, o projeto será executado na porta especificada (padrão 3000).
Uso
- Acesso à interface de bate-papo
Depois de iniciar o projeto, abra um navegador e acesse a página inicial do Scira MCP Chat. A interface contém a janela de bate-papo, o seletor de modelos e os ícones de configurações. - Conexão com o servidor MCP
- Clique no ícone Settings (Configurações) (⚙️) no canto superior direito da tela do bate-papo.
- Na janela pop-up Settings (Configurações), digite o nome e o endereço do servidor MCP (por exemplo, o servidor do Composio ou do Zapier).
- Selecione o tipo de transporte (HTTP, SSE ou stdio) e clique em "Use" para ativar o servidor.
- Quando ativadas, as ferramentas do servidor serão integradas ao bate-papo, como pesquisa, interpretador de código ou gerenciamento de tarefas.
- Seleção de um modelo de IA
- No Seletor de modelos, selecione um modelo de IA compatível (por exemplo, o Grok 3 da xAI ou o modelo da OpenAI).
- Se você precisar trocar de modelo, basta selecioná-los novamente e o Vercel AI SDK tratará da troca de modelo automaticamente.
- Uso das funções da ferramenta
- Digite uma pergunta ou tarefa e o AI chamará a ferramenta relevante com base no servidor MCP conectado. Por exemplo, se você digitar "Search for the latest AI news", o sistema chamará a ferramenta de pesquisa por meio do servidor MCP e retornará os resultados.
- Para depuração de código, insira um trecho de código e a IA fornecerá sugestões de otimização ou análise de erros.
- Os resultados da ferramenta são exibidos como texto ou componentes da interface do usuário (se estiver usando o servidor MCP-UI).
- Configurações de gerenciamento
- Na interface de configuração, você pode adicionar vários servidores MCP e alterná-los a qualquer momento.
- Suporta o salvamento de configurações para a próxima vez.
Operação da função em destaque
- Resposta de texto em fluxo contínuoQuando você digita uma pergunta, a resposta da IA é exibida em tempo real, para que você não precise esperar por uma resposta completa.
- Integração MCP-UISe o servidor conectado for compatível com MCP-UI (por exemplo, idosal/scira-mcp-ui-chat), o resultado da chamada da ferramenta será exibido como um componente de UI interativo. Por exemplo.
show_task_status
A ferramenta exibe uma interface gráfica do status da tarefa. - MTPEscolha o transporte adequado com base no provedor da ferramenta. Por exemplo, o SSE é bom para streaming de dados em tempo real e o stdio é bom para chamadas de ferramentas locais.
- Personalização de código abertoOs desenvolvedores podem modificar o código para adicionar ferramentas personalizadas ou componentes de interface para atender a necessidades específicas.
advertência
- Certifique-se de que a chave de API seja válida, caso contrário, não será possível se conectar ao modelo de IA.
- O endereço do servidor MCP precisa ser preciso e é recomendável consultar a documentação oficial (por exemplo, Composio ou Zapier).
- O projeto se baseia no Vercel AI SDK e requer uma conexão de rede para chamar serviços externos de IA.
- Se for implantado em um ambiente de produção, é recomendável usar HTTPS para segurança.
cenário do aplicativo
- Código de depuração do desenvolvedor
Os desenvolvedores podem usar o Scira MCP Chat para se conectar a uma ferramenta de interpretação de código, inserir trechos de código, e a IA analisará os erros, otimizará o código ou fornecerá sugestões de depuração. Ideal para verificar rapidamente a lógica do código. - Extensão de ferramentas de IA
Ao se conectar ao servidor MCP do Composio ou do Zapier, os usuários podem invocar ferramentas de pesquisa, gerenciamento de tarefas ou análise de dados adequadas para automatizar fluxos de trabalho ou obter informações em tempo real. - Educação e aprendizado
Estudantes ou pesquisadores podem usar modelos de IA para responder a perguntas acadêmicas ou consultar documentos e analisar dados por meio de integrações de ferramentas, adequadas para pesquisas acadêmicas ou cenários de aprendizagem. - Suporte ao serviço de atendimento ao cliente em ambientes de produção
As organizações podem integrar o Scira MCP Chat ao seu sistema de atendimento ao cliente, personalizando o servidor MCP para responder automaticamente a perguntas frequentes ou chamar ferramentas externas para lidar com as solicitações dos clientes.
QA
- O Scira MCP Chat é gratuito?
Sim, o Scira MCP Chat é um projeto de código aberto e o código está disponível gratuitamente no GitHub. Os usuários só precisam pagar por possíveis taxas de API de modelo de IA ou taxas de servidor MCP. - Como faço para adicionar um novo servidor MCP?
Clique no ícone Configurações na tela do Chat, digite o nome e o endereço do servidor, selecione o tipo de transporte (HTTP, SSE ou stdio) e clique em "Usar" para ativá-lo. Composio, Zapier e outros servidores compatíveis são suportados. - Quais modelos de IA são suportados?
Com o Vercel AI SDK, há suporte para uma ampla gama de modelos, como o Grok 3 da xAI, os modelos da OpenAI e assim por diante. O suporte específico depende do provedor de API configurado. - Como são tratados os resultados das chamadas de ferramentas?
Enquanto as ferramentas normais retornam resultados de texto, o servidor MCP-UI retorna componentes interativos da interface do usuário (por exemplo, gráficos de status de tarefas). Os usuários podem interagir diretamente com a interface do usuário, por exemplo, clicando para exibir detalhes. - É necessário ter experiência em programação?
Não é necessário ter experiência em programação para usar o recurso de bate-papo. É necessário ter conhecimentos básicos de Node.js e Git para implementação ou personalização.