Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O AIClient-2-API é uma ferramenta de proxy de API leve para desenvolvedores, com o núcleo doSimular o processo de autorização e solicitação para vários clientes de IAO projeto unifica os serviços de modelos grandes que foram originalmente limitados ao uso no lado do cliente, como o Gemini CLI do Google, o Qwen Code Plus da Ali e o modelo Claude embutido no lado do cliente do Kiro, em uma interface local compatível com o formato da API da OpenAI por meios técnicos. O objetivo desse encapsulamento é fornecer um ponto de acesso unificado. Isso significa que os desenvolvedores podem acoplar vários aplicativos ou ferramentas (por exemplo, LobeChat, NextChat etc.) que originalmente dependiam da interface OpenAI diretamente à AIClient-2-API. Isso permite que os desenvolvedores usem perfeitamente os diversos modelos grandes suportados nos bastidores sem a necessidade de adaptações complexas de código. O projeto foi desenvolvido usando o Node.js, é compatível com o Docker para implantação rápida e oferece recursos avançados, como gerenciamento de pool de contas, failover e registro para melhorar a estabilidade do serviço e a flexibilidade de uso.

Lista de funções

  • Simulação de autorização e solicitações do clienteFuncionalidade principal, simulando o processo de autorização OAuth e o formato de solicitação de clientes como Gemini CLI, Kiro etc., para invocar os serviços modelo por trás deles, superando as limitações da API oficial.
  • Interface API unificadaEncapsulamento: encapsular todos os modelos compatíveis em um formato de API OpenAI padrão para atingir o objetivo de chamar vários modelos a partir de uma única interface.
  • Compatível com o ecossistema OpenAIQualquer cliente e cadeia de ferramentas compatível com a API OpenAI pode ser acessado a custo zero usando diretamente o endereço de interface fornecido por este projeto.
  • Ultrapassar as limitações de usoUso de autorização simulada no lado do cliente: é possível obter uma cota de solicitação e uma frequência de uso mais altas do que a API gratuita regular oficial.
  • Utilização de modelo livreSuporte para chamadas gratuitas para o modelo integrado Claude Sonnet 4 do Kiro, emulando sua API de cliente.
  • Gerenciamento do pool de contasSuporte à configuração de várias contas para cada modelo de provedor de serviços, permitindo a sondagem automática, o failover e a degradação da configuração de solicitações para melhorar a estabilidade do serviço.
  • Monitoramento e auditoria de solicitaçõesRegistro: recursos integrados de registro para gravar o conteúdo de todas as solicitações e respostas por meio do agente para depuração, auditoria ou criação de conjuntos de dados privados.
  • Gerenciamento dinâmico de palavras-chavePermitir que os usuários controlem de forma flexível o comportamento dos prompts do sistema por meio de arquivos de configuração, forçando-os a substituir os prompts do lado do cliente ou anexando conteúdo ao final.
  • Fácil de expandirO projeto é modular, oferecendo um caminho de implementação claro e simples para que os desenvolvedores adicionem novos provedores de serviços de modelo.
  • Implementação em contêineresSuporte completo ao Docker: oferece suporte total ao Docker, permitindo que os usuários implementem e isolem rapidamente ambientes de tempo de execução por meio de imagens do Docker.

Usando a Ajuda

O projeto AIClient-2-API tem como objetivo simplificar o processo de desenvolvimento, invocando diferentes modelos grandes por meio de uma interface unificada. A seguir, instruções detalhadas de instalação e uso.

Preparação ambiental

Antes de começar, certifique-se de que os seguintes softwares estejam instalados em seu computador:

  • Node.jsO projeto é executado no Node.js.
  • GitUsado para clonar o código do projeto do GitHub.
  • Docker (recomendado)Docker: o Docker não é obrigatório, mas é oficialmente recomendado para implantação, pois simplifica a configuração do ambiente e o gerenciamento de dependências.

Instalação e inicialização

Método 1: implantar com o Docker (recomendado)

O Docker é o método de implantação oficialmente recomendado que fornece um ambiente de tempo de execução limpo e isolado.

  1. Extração de uma imagem do Docker:
    Abra seu terminal (CMD ou PowerShell no Windows, Terminal no macOS ou Linux) e execute o seguinte comando para extrair a imagem mais recente do Docker Hub:

    docker pull justlovemaki/aiclient-2-api:latest
    
  2. Execução de contêineres:
    Execute o seguinte comando para iniciar o contêiner. Esse comando inicia o arquivo3000mapeamento de portas para sua3000Portos.

    docker run -d -p 3000:3000 --name aiclient2api justlovemaki/aiclient-2-api:latest
    

    Você pode fazer isso modificando o-ppara alterar o número da porta mapeada para o computador local, por exemplo -p 8080:3000 implantará o serviço localmente na porta 8080.

Método 2: Faça o download e execute-o manualmente

Se não quiser usar o Docker, você também pode executá-lo diretamente em seu computador.

  1. Clonagem da base de código:
    Abra um terminal, vá para a pasta onde deseja armazenar seu projeto e execute o seguinte comando:

    git clone https://github.com/justlovemaki/AIClient-2-API.git
    
  2. Vá para o diretório do projeto:
    cd AIClient-2-API
    
  3. Instalação de dependências:
    fazer uso denpmO Package Manager instala as bibliotecas de dependência exigidas pelo projeto.

    npm install
    
  4. Início dos serviços:
    Após a conclusão da instalação, execute o seguinte comando para iniciar o serviço.

    node src/api-server.js
    

    Por padrão, o serviço é iniciado no diretóriolocalhost(usado em uma expressão nominal)3000Portos.

Configuração e uso do núcleo

Depois de iniciar o serviço, você precisa configurá-lo em seu aplicativo cliente de IA.

  1. Obter endereço da interface:
    • Se você estiver executando diretamente pelo Docker ou localmente e não tiver modificado a porta, o endereço da interface da API será:http://localhost:3000.
    • Se você estiver implantando o serviço em outro servidor, defina o parâmetrolocalhostSubstitua pelo endereço IP do servidor.
  2. Configuração do cliente:
    打开你常用的AI客户端(如LobeChat, PróximoChat, AMA, GPT-S等),找到设置API接口地址的地方。通常这个设置项被称为API EndpointeBase URLtalvezAPI基地址.

    • Preencha o endereço da interface como http://localhost:3000.
    • No campo API Key, preencha a chave que você definiu nos parâmetros de inicialização; o padrão é 123456.
    • Depois de salvar as configurações, todas as solicitações do cliente são enviadas para o serviço de proxy AIClient-2-API.
  3. Troca e uso de modelos diferentes:
    A AIClient-2-API chama os serviços de modelo apropriados por meio de caminhos diferentes. Exemplo:

    • Chamando o modelo Claude autenticado pelo Kiro: o http://localhost:3000/claude-kiro-oauth
    • Chamando o modelo Gemini: o http://localhost:3000/gemini-cli-oauth
    • Chamada de modelos personalizados compatíveis com a OpenAI: o http://localhost:3000/openai-custom
      Você pode selecionar o modelo diretamente no cliente ou especificar o URL completo em uma ferramenta que ofereça suporte à troca de caminho.

Configuração do arquivo de licença (etapa fundamental para simular o cliente)

Para usar modelos que exigem autorização do OAuth, como Gemini, Kiro, Qwen, etc., você precisa primeiro obter o arquivo de autorização apropriado. Esse é o projetoCliente analógicoA chave para a realização da função.

  1. Obtenção de documentos de autorização:
    • GêmeosVocê precisa executar a ferramenta oficial Gemini CLI e autorizá-la primeiro. Após a autorização, ela será adicionada ao diretório inicial do usuário no diretório ~/.gemini/ Geração de pastas oauth_creds.json Documentação.
    • KiroVocê precisa fazer o download do cliente e fazer login para autorizá-lo. Depois disso, ele será ~/.aws/sso/cache/ Geração de catálogos kiro-auth-token.json Documentação.
    • QwenO navegador será aberto automaticamente para autorização quando for usado e, quando isso for feito, o ~/.qwen/ Geração de catálogos oauth_creds.json Documentação.
  2. Prestação de serviços a agentes:
    Depois de obter os arquivos de autorização, você precisa informar ao serviço de proxy onde encontrá-los. Você pode especificar o caminho para os arquivos de autorização por meio de um parâmetro de inicialização do projeto; por exemplo, ao usar o Gemini, você pode iniciar o serviço da seguinte forma:

    node src/api-server.js --model-provider gemini-cli-oauth --gemini-oauth-creds-file /path/to/your/oauth_creds.json
    

Configurações de proxy

Se o seu ambiente operacional não tiver acesso direto a serviços como Google, OpenAI, etc., você precisará configurar um proxy HTTP para o endpoint.

  • Linux / macOS:
    export HTTP_PROXY="http://your_proxy_address:port"
    
  • Windows (CMD):
    set HTTP_PROXY=http://your_proxy_address:port
    

Observe que somente o proxy HTTP deve ser definido, não o proxy HTTPS.

cenário do aplicativo

  1. Ambiente de desenvolvimento unificado (UDE)
    O AIClient-2-API oferece uma solução perfeita para os desenvolvedores que precisam testar, comparar e escolher entre vários modelos. Com "Simulated Requests" (Solicitações simuladas) e "Unified Interface" (Interface unificada), os desenvolvedores não precisam manter um conjunto de código de chamada de API independente para cada modelo, basta apontar todas as solicitações para o proxy local e, em seguida, chamar diferentes modelos de back-end por meio da simples troca de parâmetros, o que simplifica muito o processo de desenvolvimento e depuração. Isso simplifica muito o processo de desenvolvimento e depuração.
  2. Habilitação de aplicativos existentes
    Se você já tem um aplicativo criado com base na API OpenAI, mas gostaria de incluir modelos mais diversificados (por exemplo, para aproveitar os créditos gratuitos do Gemini ou os recursos de processamento de texto do Claude), a AIClient-2-API pode ser acessada sem problemas como uma camada intermediária. Sem precisar modificar muito código em seu aplicativo existente, basta apontar o endereço de solicitação da API para esse proxy e você poderá usar imediatamente todos os modelos compatíveis.
  3. Estudo e pesquisa pessoal
    Para os entusiastas e pesquisadores de IA, o alto custo das APIs oficiais e as restrições de chamadas são uma barreira. O projeto oferece uma plataforma de baixo custo para que as pessoas aprendam e realizem experimentos em pequena escala, por exemplo, simulando o licenciamento do lado do cliente, permitindo que os usuários aproveitem os créditos de chamadas gratuitas para modelos como o Gemini ou usem o modelo Claude gratuito incorporado do Kiro.
  4. Criação de aplicativos de IA auditáveis
    Recursos avançados de registro no projeto permitem um registro completo de todas as solicitações (Prompts) e respostas de modelos que passam pelo agente. Isso é fundamental para cenários em que a auditoria de conteúdo, a análise de dados ou o monitoramento comportamental são necessários. As organizações podem usar esse recurso para garantir que os aplicativos de IA estejam sendo usados de acordo com as especificações internas ou para coletar dados para posterior ajuste fino e otimização dos modelos.

QA

  1. Este projeto é seguro? Meu arquivo de licença e minha chave serão comprometidos?
    O AIClient-2-API é um servidor proxy que é executado localmente e não coleta nem carrega nenhum de seus dados e chaves. No entanto, é necessário manter seguros o arquivo de autorização e a chave de API definida nos parâmetros de inicialização para evitar o uso em um ambiente de rede não seguro.
  2. Por que não consigo acessar os serviços do Google ou da OpenAI?
    Se o seu servidor ou ambiente local estiver localizado em uma região em que esses serviços não possam ser acessados diretamente, será necessário configurar um proxy HTTP no terminal em que estiver executando este projeto. Consulte a seção "Configurações de proxy" da documentação para obter detalhes.
  3. O uso do modo CLI do Gemini significa que posso realmente fazer chamadas ilimitadas por dia?
    O projeto contorna a limitação da taxa oficial da API gratuita normal emulando a autorização da CLI da Gemini para obter um valor de solicitação mais alto, mas isso não significa que não haja limitação alguma. O uso oficial das ferramentas de CLI ainda terá uma certa frequência e monitoramento de dosagem, e o abuso excessivo ainda pode levar a restrições de conta.
  4. Preciso instalar o software do cliente emulado com antecedência?
    Não é necessário instalar o software cliente completo, mas você deveExecute o processo de autorização para esse software cliente uma vezpara obter seus arquivos de autorização OAuth gerados localmente (por exemplo oauth_creds.json talvez kiro-auth-token.json). É por meio da leitura desses arquivos que a AIClient-2-API conclui a etapa de autorização do cliente simulado.
  5. Há alguma taxa para esse programa?
    O projeto AIClient-2-API em si é de código aberto e gratuito, seguindo a licença de código aberto GPLv3. Ele não fornece nenhum serviço de modelo de IA, apenas uma ferramenta de proxy de API. O custo em que você incorre ao chamar o modelo de back-end (se exceder o valor gratuito) precisa ser cobrado pelo provedor de serviços terceirizado correspondente.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

Novos lançamentos

voltar ao topo

pt_BRPortuguês do Brasil