Histórico e soluções
Quando os desenvolvedores precisam integrar modelos do Google Gemini em ferramentas existentes baseadas na API OpenAI, como o LangChain, a maneira tradicional exige muita reescrita de código:
operação de concreto
- Implantação de servidores proxyIniciar o serviço geminicli2api via Docker ou execução local (porta padrão 8888)
- Modificação de pontos de extremidade da APIColocar a configuração do cliente OpenAI existente do
base_url
direcionalhttp://localhost:8888/v1
- Configuração de autenticação: Uso
GEMINI_AUTH_PASSWORD
Como uma chave de API em um formato totalmente compatível com a OpenAI - mapeamento de modelosEspecifique o nome do modelo específico do Gemini ao fazer a chamada (por exemplo
gemini-2.5-pro
)
de ponta
- Nenhuma alteração de código para permitir a migração da pilha de tecnologia
- Acesso contínuo à cadeia de ferramentas ecológicas da OpenAI
- Direito automático à cota de API gratuita do Google
Essa resposta foi extraída do artigogeminicli2api: Ferramenta proxy para converter a CLI do Gemini em APIs compatíveis com OpenAIO