Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O Gemini-CLI-2-API é um projeto de código aberto, a função principal do Gêmeos A ferramenta CLI é encapsulada como um serviço de API nativo compatível com a API OpenAI. Ela se baseia no modelo Gemini 2.5 Pro e permite que os desenvolvedores invoquem os recursos de IA do Gemini por meio da interface padrão do OpenAI sem modificar a cadeia de ferramentas existente. O projeto oferece 1.000 solicitações gratuitas por dia, suporta resposta de fluxo contínuo, vários métodos de autenticação e registro detalhado. O código é de código aberto, licenciado sob a GNU General Public License v3, e facilmente extensível para desenvolvedores que precisam de serviços locais de IA ou chamadas de alta frequência.

Lista de funções

  • comandante-em-chefe (militar) CLI do Gemini Envolvido em uma interface compatível com a API da OpenAI que suporta /v1/models responder cantando /v1/chat/completions Pontos finais.
  • Converta automaticamente solicitações e respostas no formato OpenAI para o formato Gemini.
  • É compatível com os modelos Gemini 2.5 Pro e oferece 1.000 solicitações gratuitas por dia.
  • O streaming é fornecido e as respostas são emitidas em tempo real com um efeito de máquina de escrever.
  • Inclui um sistema de registro que grava palavras de solicitação, carimbos de data e hora e datas de expiração de token.
  • Há suporte para vários métodos de autenticação, incluindo tokens de portador, parâmetros de consulta de URL e x-goog-api-key.
  • O endereço de escuta, a porta, a chave de API e o modo de registro podem ser configurados na linha de comando.
  • Oferece suporte à renovação automática de tokens OAuth para simplificar o processo de autenticação.
  • Estrutura de código modular para dar suporte ao desenvolvimento secundário, como a adição de recursos de cache ou filtragem.

Usando a Ajuda

Processo de instalação

O Gemini-CLI-2-API precisa ser executado em um ambiente Node.js. Veja a seguir as etapas detalhadas de instalação e configuração:

  1. Instalação do Node.js
    Certifique-se de que o Node.js esteja instalado em seu sistema (recomenda-se a versão LTS mais recente). Faça download e instale o Node.js do site oficial do Node.js. Verifique a instalação:
node -v
npm -v
  1. Clonagem do depósito do projeto
    Clone o projeto localmente usando o Git:
git clone https://github.com/justlovemaki/Gemini-CLI-2-API.git
cd Gemini-CLI-2-API
  1. Instalação de dependências
    Execute o seguinte comando no diretório raiz do projeto:
npm install
  1. Configuração de chaves de API
    Suporte ao projeto Google API Gemini ou autenticação OAuth:
  • Autenticação OAuthO programa abre um navegador na primeira vez que você o executa e o direciona para fazer login na sua conta do Google, gera um token OAuth e o armazena automaticamente. Quando o token expira, ele é renovado automaticamente.
  • Chave da API: do Google Cloud ou Estúdio de IA do Google Obtenha a chave e defina as variáveis de ambiente:
    export GOOGLE_API_KEY="YOUR_API_KEY"
    export GOOGLE_GENAI_USE_VERTEXAI=true
    

    intercambialidade YOUR_API_KEY é a chave real.

  1. Início dos serviços
    Execute o seguinte comando para iniciar o serviço de API local, que escuta na porta 8000 por padrão:
node openai-api-server.js --port 8000 --api-key sk-your-key

aceitável --port responder cantando --api-key Parâmetros: porta e chave personalizadas. Exemplo:

node openai-api-server.js --port 8080 --api-key sk-your-key

Uso

Depois que o serviço for iniciado, você poderá interagir com o Gemini-CLI-2-API por meio de um endpoint de API compatível com OpenAI. Veja a seguir as instruções detalhadas para fazer isso:

  1. Enviar solicitação de bate-papo
    Suporte a projetos /v1/chat/completions compatíveis com o formato de solicitação da OpenAI. Use o curl ou outros clientes HTTP para enviar solicitações:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个代码助手。"},
{"role": "user", "content": "帮我写一个 Python 函数"}
]
}'

A resposta está no formato JSON e o conteúdo é gerado pelo modelo Gemini 2.5 Pro.

  1. Usando streaming
    Habilite a resposta de fluxo contínuo, defina "stream": trueOs resultados são exibidos literalmente em tempo real:
curl http://localhost:8000/v1/chat/completions 
-H "Content-Type: application/json" 
-H "Authorization: Bearer sk-your-key" 
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "讲一个关于 AI 的故事"}
]
}'
  1. Consultar modelos disponíveis
    fazer uso de /v1/models Pontos de extremidade para visualizar os modelos compatíveis:
curl http://localhost:8000/v1/models 
-H "Authorization: Bearer sk-your-key"

Retorna uma lista de modelos suportados atualmente, como gemini-2.5-pro.

  1. Ver registro
    O sistema de registro grava as palavras de prompt e os registros de data e hora de todas as solicitações para facilitar a depuração. Habilite a saída de registro em arquivo:
node openai-api-server.js --port 8000 --api-key sk-your-key --log file

Os arquivos de registro são armazenados no diretório do projeto e contêm detalhes da solicitação e status do token.

  1. Integração com as ferramentas existentes
    Como a API é compatível com o formato OpenAI, você pode adicionar o endereço do serviço (por exemplo http://localhost:8000/v1) está configurado para uma ferramenta compatível com a API OpenAI (como o LobeChat). Basta definir o endereço da API da ferramenta como o da Gemini-CLI-2-API, mantendo o mesmo formato de solicitação.
  2. Desenvolvimento estendido
    O design modular do projeto facilita a expansão. Exemplo:
  • Adicionar cacheModificação gemini-core.jsSe quiser reduzir o número de chamadas de API, você pode adicionar o Redis ou o cache de arquivos para reduzir o número de chamadas de API.
  • Filtragem de conteúdo: em openai-api-server.js Adicione lógica de filtragem de palavras-chave para revisar o conteúdo da solicitação ou da resposta.

advertência

  • Certifique-se de que sua conexão de rede esteja estável e que a autenticação OAuth exija acesso aos servidores do Google.
  • As entradas multimodais (por exemplo, imagens) não são compatíveis no momento, mas podem ser atualizadas no futuro.
  • Gratuito para até 1.000 solicitações por dia, sujeito aos termos de uso do Google.
  • Se a autenticação falhar, verifique o GOOGLE_API_KEY ou executar novamente o processo do OAuth.

cenário do aplicativo

  1. Integração perfeita das ferramentas existentes
    Os desenvolvedores podem conectar o Gemini-CLI-2-API a ferramentas baseadas na API OpenAI (por exemplo, LangChain, AutoGPT) e invocar diretamente os recursos de IA do Gemini 2.5 Pro sem modificar o código.
  2. Implantação local de serviços de IA
    As empresas podem implantar serviços de API locais para tarefas de IA privatizadas, como geração de código e resumo de documentos, reduzindo sua dependência de serviços em nuvem.
  3. Dicas de depuração e otimização
    O sistema de registro ajuda os desenvolvedores a registrar e analisar palavras-chave para otimizar o design da interação ou criar conjuntos de dados personalizados.
  4. Aprendizado e experimentação
    Estudantes ou pesquisadores podem aprender sobre integrações de API, experimentar o desempenho dos modelos Gemini ou desenvolver novos recursos por meio de código-fonte aberto.

QA

  1. Por que preciso ser compatível com a API da OpenAI?
    A API OpenAI é uma interface padrão para muitas ferramentas de IA, e a API Gemini-CLI-2 permite que os desenvolvedores usem os modelos Gemini sem modificar o código existente, pois é compatível com esse formato.
  2. Há alguma taxa?
    O projeto é gratuito e depende de 1.000 solicitações gratuitas por dia da CLI do Gemini. Quantidades maiores estão disponíveis no Google Estúdio de IA Compra.
  3. Como faço para lidar com falhas na chave de API?
    Verifique as variáveis de ambiente ou execute novamente o aplicativo para acionar a autenticação OAuth. Certifique-se de que a conta do Google tenha permissão para acessar a API Gemini.
  4. Quais são os modelos suportados?
    Atualmente, há suporte para o Gemini 2.5 Pro, com possíveis extensões para outros modelos Gemini no futuro.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

caixa de entrada

Entre em contato conosco

voltar ao topo

pt_BRPortuguês do Brasil