O Gemini-CLI-2-API é um projeto de código aberto, a função principal do Gêmeos A ferramenta CLI é encapsulada como um serviço de API nativo compatível com a API OpenAI. Ela se baseia no modelo Gemini 2.5 Pro e permite que os desenvolvedores invoquem os recursos de IA do Gemini por meio da interface padrão do OpenAI sem modificar a cadeia de ferramentas existente. O projeto oferece 1.000 solicitações gratuitas por dia, suporta resposta de fluxo contínuo, vários métodos de autenticação e registro detalhado. O código é de código aberto, licenciado sob a GNU General Public License v3, e facilmente extensível para desenvolvedores que precisam de serviços locais de IA ou chamadas de alta frequência.
Lista de funções
- comandante-em-chefe (militar) CLI do Gemini Envolvido em uma interface compatível com a API da OpenAI que suporta
/v1/models
responder cantando/v1/chat/completions
Pontos finais. - Converta automaticamente solicitações e respostas no formato OpenAI para o formato Gemini.
- É compatível com os modelos Gemini 2.5 Pro e oferece 1.000 solicitações gratuitas por dia.
- O streaming é fornecido e as respostas são emitidas em tempo real com um efeito de máquina de escrever.
- Inclui um sistema de registro que grava palavras de solicitação, carimbos de data e hora e datas de expiração de token.
- Há suporte para vários métodos de autenticação, incluindo tokens de portador, parâmetros de consulta de URL e
x-goog-api-key
. - O endereço de escuta, a porta, a chave de API e o modo de registro podem ser configurados na linha de comando.
- Oferece suporte à renovação automática de tokens OAuth para simplificar o processo de autenticação.
- Estrutura de código modular para dar suporte ao desenvolvimento secundário, como a adição de recursos de cache ou filtragem.
Usando a Ajuda
Processo de instalação
O Gemini-CLI-2-API precisa ser executado em um ambiente Node.js. Veja a seguir as etapas detalhadas de instalação e configuração:
- Instalação do Node.js
Certifique-se de que o Node.js esteja instalado em seu sistema (recomenda-se a versão LTS mais recente). Faça download e instale o Node.js do site oficial do Node.js. Verifique a instalação:
node -v
npm -v
- Clonagem do depósito do projeto
Clone o projeto localmente usando o Git:
git clone https://github.com/justlovemaki/Gemini-CLI-2-API.git
cd Gemini-CLI-2-API
- Instalação de dependências
Execute o seguinte comando no diretório raiz do projeto:
npm install
- Configuração de chaves de API
Suporte ao projeto Google API Gemini ou autenticação OAuth:
- Autenticação OAuthO programa abre um navegador na primeira vez que você o executa e o direciona para fazer login na sua conta do Google, gera um token OAuth e o armazena automaticamente. Quando o token expira, ele é renovado automaticamente.
- Chave da API: do Google Cloud ou Estúdio de IA do Google Obtenha a chave e defina as variáveis de ambiente:
export GOOGLE_API_KEY="YOUR_API_KEY" export GOOGLE_GENAI_USE_VERTEXAI=true
intercambialidade
YOUR_API_KEY
é a chave real.
- Início dos serviços
Execute o seguinte comando para iniciar o serviço de API local, que escuta na porta 8000 por padrão:
node openai-api-server.js --port 8000 --api-key sk-your-key
aceitável --port
responder cantando --api-key
Parâmetros: porta e chave personalizadas. Exemplo:
node openai-api-server.js --port 8080 --api-key sk-your-key
Uso
Depois que o serviço for iniciado, você poderá interagir com o Gemini-CLI-2-API por meio de um endpoint de API compatível com OpenAI. Veja a seguir as instruções detalhadas para fazer isso:
- Enviar solicitação de bate-papo
Suporte a projetos/v1/chat/completions
compatíveis com o formato de solicitação da OpenAI. Use ocurl
ou outros clientes HTTP para enviar solicitações:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"messages": [
{"role": "system", "content": "你是一个代码助手。"},
{"role": "user", "content": "帮我写一个 Python 函数"}
]
}'
A resposta está no formato JSON e o conteúdo é gerado pelo modelo Gemini 2.5 Pro.
- Usando streaming
Habilite a resposta de fluxo contínuo, defina"stream": true
Os resultados são exibidos literalmente em tempo real:
curl http://localhost:8000/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-your-key"
-d '{
"model": "gemini-2.5-pro",
"stream": true,
"messages": [
{"role": "user", "content": "讲一个关于 AI 的故事"}
]
}'
- Consultar modelos disponíveis
fazer uso de/v1/models
Pontos de extremidade para visualizar os modelos compatíveis:
curl http://localhost:8000/v1/models
-H "Authorization: Bearer sk-your-key"
Retorna uma lista de modelos suportados atualmente, como gemini-2.5-pro
.
- Ver registro
O sistema de registro grava as palavras de prompt e os registros de data e hora de todas as solicitações para facilitar a depuração. Habilite a saída de registro em arquivo:
node openai-api-server.js --port 8000 --api-key sk-your-key --log file
Os arquivos de registro são armazenados no diretório do projeto e contêm detalhes da solicitação e status do token.
- Integração com as ferramentas existentes
Como a API é compatível com o formato OpenAI, você pode adicionar o endereço do serviço (por exemplohttp://localhost:8000/v1
) está configurado para uma ferramenta compatível com a API OpenAI (como o LobeChat). Basta definir o endereço da API da ferramenta como o da Gemini-CLI-2-API, mantendo o mesmo formato de solicitação. - Desenvolvimento estendido
O design modular do projeto facilita a expansão. Exemplo:
- Adicionar cacheModificação
gemini-core.js
Se quiser reduzir o número de chamadas de API, você pode adicionar o Redis ou o cache de arquivos para reduzir o número de chamadas de API. - Filtragem de conteúdo: em
openai-api-server.js
Adicione lógica de filtragem de palavras-chave para revisar o conteúdo da solicitação ou da resposta.
advertência
- Certifique-se de que sua conexão de rede esteja estável e que a autenticação OAuth exija acesso aos servidores do Google.
- As entradas multimodais (por exemplo, imagens) não são compatíveis no momento, mas podem ser atualizadas no futuro.
- Gratuito para até 1.000 solicitações por dia, sujeito aos termos de uso do Google.
- Se a autenticação falhar, verifique o
GOOGLE_API_KEY
ou executar novamente o processo do OAuth.
cenário do aplicativo
- Integração perfeita das ferramentas existentes
Os desenvolvedores podem conectar o Gemini-CLI-2-API a ferramentas baseadas na API OpenAI (por exemplo, LangChain, AutoGPT) e invocar diretamente os recursos de IA do Gemini 2.5 Pro sem modificar o código. - Implantação local de serviços de IA
As empresas podem implantar serviços de API locais para tarefas de IA privatizadas, como geração de código e resumo de documentos, reduzindo sua dependência de serviços em nuvem. - Dicas de depuração e otimização
O sistema de registro ajuda os desenvolvedores a registrar e analisar palavras-chave para otimizar o design da interação ou criar conjuntos de dados personalizados. - Aprendizado e experimentação
Estudantes ou pesquisadores podem aprender sobre integrações de API, experimentar o desempenho dos modelos Gemini ou desenvolver novos recursos por meio de código-fonte aberto.
QA
- Por que preciso ser compatível com a API da OpenAI?
A API OpenAI é uma interface padrão para muitas ferramentas de IA, e a API Gemini-CLI-2 permite que os desenvolvedores usem os modelos Gemini sem modificar o código existente, pois é compatível com esse formato. - Há alguma taxa?
O projeto é gratuito e depende de 1.000 solicitações gratuitas por dia da CLI do Gemini. Quantidades maiores estão disponíveis no Google Estúdio de IA Compra. - Como faço para lidar com falhas na chave de API?
Verifique as variáveis de ambiente ou execute novamente o aplicativo para acionar a autenticação OAuth. Certifique-se de que a conta do Google tenha permissão para acessar a API Gemini. - Quais são os modelos suportados?
Atualmente, há suporte para o Gemini 2.5 Pro, com possíveis extensões para outros modelos Gemini no futuro.