Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

A CLI do provedor de contexto de modelo (mcp-cli) é uma ferramenta de linha de comando em nível de protocolo para interagir com servidores de provedores de contexto de modelo. A ferramenta permite que os usuários enviem comandos, consultem dados e interajam com uma variedade de recursos fornecidos pelo servidor. A mcp-cli oferece suporte a vários provedores e modelos, incluindo OpenAI e Ollama, com os modelos padrão sendo gpt-4o-mini e qwen2.5-coder, respectivamente. A ferramenta requer Python 3.8 ou superior e as dependências dependências apropriadas. Você pode usar a ferramenta clonando o repositório do GitHub e instalando as dependências necessárias.

Model Context Provider CLI:任意打模型中使用MCP服务的命令行工具,不依赖Claude-1

 

Lista de funções

  • Suporte para comunicação em nível de protocolo com servidores de provisionamento de contexto de modelo
  • Ferramentas e recursos dinâmicos para explorar
  • Suporte a vários provedores e modelos (OpenAI e Ollama)
  • Fornece um modo interativo que permite aos usuários executar comandos dinamicamente
  • Os comandos suportados incluem: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Os parâmetros de linha de comando compatíveis incluem: -server, -config-file, -provider, -model

 

Usando a Ajuda

Processo de instalação

  1. Armazém de Clonagem:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Instalar UV:
   pip install uv
  1. Sincronização de dependências:
   uv sync --reinstall

Uso

  1. Inicie o cliente e interaja com o servidor SQLite:
   uv run main.py --server sqlite
  1. Execute o cliente com o provedor e o modelo padrão da OpenAI:
   uv run main.py --server sqlite
  1. Usando configurações específicas e Ollama O provedor executa o cliente:
   uv run main.py --server sqlite --provider ollama --model llama3.2

modo interativo

Entre no modo interativo e interaja com o servidor:

uv run main.py --server sqlite

No modo interativo, você pode usar a ferramenta e interagir com o servidor. O provedor e o modelo especificados na inicialização serão exibidos da seguinte forma:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Comandos suportados

  • pingVerificar se o servidor está respondendo
  • list-toolsMostrar ferramentas disponíveis
  • list-resourcesMostrar recursos disponíveis
  • list-promptsMostrar dicas disponíveis
  • chatBate-papo interativo: Entre no modo de bate-papo interativo
  • clearLimpar a tela do terminal
  • helpExibe uma lista de comandos suportados
  • quit / exitSair do cliente

Uso de provedores OpenAI

Se quiser usar um modelo OpenAI, você deve definir o parâmetro OPENAI_API_KEY que pode ser encontrada na variável de ambiente .env ou definido como uma variável de ambiente.

0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Digite as palavras-chave.Acessibilidade à pesquisa do BingFerramentas de IA, encontre rapidamente as ferramentas de IA neste site.

voltar ao topo