Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O ProxyLLM é um aplicativo Electron de código aberto que é executado no computador do usuário. Sua lógica central é muito simples: ele abre as páginas da Web oficiais de grandes modelos como ChatGPT, Claude, Gemini etc. em uma janela de navegador integrada, ouve e captura em tempo real os pacotes de rede (por exemplo, cookies, IDs de sessão e cabeçalhos de autorização) que são gerados pelas interações do usuário com as páginas da Web. Em seguida, ele hospeda um servidor local que converte os protocolos de comunicação dessas páginas da Web em um formato de API padrão compatível com a OpenAI em tempo real. Isso significa que qualquer software de terceiros compatível com a interface OpenAI (por exemplo, plug-ins de editor de código, plug-ins de tradução imersiva ou ferramentas de linha de comando) pode “emprestar” os privilégios de sua conta da versão da Web na qual você está conectado para invocar os recursos de big model diretamente por meio do ProxyLLM, sem custo adicional de API. A ferramenta é executada totalmente localmente e os dados são transferidos diretamente entre seu computador e o provedor do modelo, garantindo privacidade e segurança.

Lista de funções

  • API de transferência de sessão da WebCaptura automaticamente a sessão da Web do LLM no navegador e a encapsula como um padrão POST /v1/chat/completions Interface.
  • Suporte a vários modelosSuporte para interceptar e converter os protocolos de muitos dos principais sites de IA, incluindo, entre outros, o OpenAI (ChatGPT), antrópica (Claude), Google Gemini e Qwen (lit. dez mil perguntas sobre princípios gerais (expressão idiomática); fig. uma longa lista de perguntas e respostas)。
  • Painel de controle de visualizaçãoOferece uma interface gráfica para gerenciar diferentes sites de IA, com suporte para abertura com um clique e atualização de janelas do navegador, bem como visualização intuitiva e seleção de credenciais capturadas.
  • Integração profunda do Claude Code: especificamente para Claude Code Ferramentas de linha de comando otimizadas para suportar o controle e a restauração de configurações de proxy para a CLI do Claude, possibilitando o aproveitamento direto dos recursos da versão Web do Claude.
  • Detecção e depuração de solicitaçõesInspetor de solicitações integrado que permite que os usuários visualizem detalhes de solicitações HTTP e WebSocket capturadas, facilitando para os desenvolvedores a depuração ou a confirmação da validade da credencial.
  • Proteção da privacidade localTodos os dados de credenciais, registros e interações do site são armazenados somente no computador local do usuário, os registros são fornecidos com processamento dessensibilizado e nenhum dado é carregado para servidores de terceiros.
  • Adaptadores personalizadosSistema de adaptador: fornece um sistema de adaptador que permite aos desenvolvedores escrever regras de conversão para protocolos de modelos privados que não são padrão da OpenAI.

Usando a Ajuda

O ProxyLLM é uma ferramenta de desenvolvedor que precisa ser criada para ser executada por meio do código-fonte. Aqui está um processo detalhado de instalação e uso para ajudá-lo a criar seu próprio gateway de API de IA em seu computador local.

1. preparação ambiental

Antes de começar, verifique se você tem um ambiente Node.js instalado em seu computador (recomenda-se a versão 16 ou superior). Você pode fazer isso digitando no Terminal (Terminal ou CMD) node -v 和 npm -v para verificar se a instalação foi bem-sucedida.

2. obter o código-fonte e instalar as dependências

Primeiro, você precisa fazer o download do código-fonte do projeto localmente.
Abra um terminal e execute o seguinte comando para clonar o repositório:

git clone https://github.com/zhalice2011/ProxyLLM.git

Vá para o catálogo de projetos:

cd ProxyLLM

Em seguida, instale os pacotes de dependência exigidos pelo projeto. Como o projeto contém um renderizador de front-end e um processo principal, é recomendável instalá-los separadamente:

# 安装根目录依赖
npm install
# 安装渲染进程依赖
npm --prefix renderer install

3. criar e iniciar aplicativos

Depois que as dependências estiverem instaladas, você precisará compilar a interface do usuário de front-end e iniciar o aplicativo Electron:

# 构建 UI 界面
npm --prefix renderer run build
# 构建主程序
npm run build
# 启动应用程序
npm run start

Após uma inicialização bem-sucedida, você verá uma janela de aplicativo chamada ProxyLLM aparecer, e o terminal mostrará que o serviço de API local foi iniciado na porta padrão (geralmente a porta 127.0.0.1:8080) Início.

4. configuração e captura de sessões

  1. Adicionar siteNa interface do aplicativo ProxyLLM, clique em “Add Site” (Adicionar site). Digite o URL do serviço de IA que você deseja usar (por exemplo https://claude.ai 或 https://chatgpt.com)。
  2. Faça login em sua contaClique no botão “Open” (Abrir) na lista e o aplicativo abrirá uma janela separada do navegador. Nessa janela, faça login na sua conta de IA como de costume.
  3. voucher de capturaSe o login for bem-sucedido, envie uma mensagem de teste (por exemplo, “Hello”) para a página da Web, e o ProxyLLM capturará automaticamente o cabeçalho da solicitação e as informações de autenticação para essa interação em segundo plano.
  4. Selecionar voucherSelecione a opção “Requests” (Solicitações) ou “Credentials” (Credenciais) no site e selecione um dos últimos registros de solicitação válidos capturados como as credenciais de API atuais.

5. chamando a API

Agora você tem um serviço de API compatível com a OpenAI em execução em seu computador local. Você pode configurar qualquer ferramenta de terceiros para se conectar a esse endereço.

Exemplo de configuração (para usar o curl (teste como exemplo):

curl http://127.0.0.1:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer dummy-token" \
-d '{
"model": "claude-3-opus-20240229",
"messages": [{"role": "user", "content": "你好,请介绍一下你自己"}]
}'

Observação: como a autenticação é tratada pelo agente interno do ProxyLLM, o token do portador de autorização aqui pode ser preenchido à vontade, a menos que você tenha configurações de segurança específicas ativadas.

6. integração do Claude Code (recurso especial)

Se você for um desenvolvedor e usar o Anthropic liberado claude ferramenta de linha de comando, o ProxyLLM oferece uma aquisição com apenas um clique:

  1. Localize a configuração “Claude Code” na interface do ProxyLLM.
  2. Clique em “Takeover” e a ferramenta modificará automaticamente a configuração local para direcionar o tráfego da CLI do Claude para o ProxyLLM.
  3. Agora você executa no terminal claude o crédito da sessão para sua versão web do Claude é realmente usado, não o crédito pago da API.

cenário do aplicativo

  1. Uso de auxílios de programação a custo zero
    Muitos plug-ins de IDE (por exemplo, Cursor, vários plug-ins de IA para VS Code) exigem que o usuário preencha a chave da API do OpenAI. Usando o ProxyLLM, você pode alterar o endereço da API para um endereço local (http://127.0.0.1:8080/v1), usando assim sua conta paga do ChatGPT Plus ou a conta gratuita do Claude Web Edition para conduzir esses plug-ins sem precisar pressionar o botão Token Pague mais.
  2. Como contornar as restrições de acesso à API
    Algumas organizações ou ambientes de rede regionais podem ter acesso direto limitado à API do OpenAI, mas podem acessar a versão da Web por meio de um navegador; o ProxyLLM atua como um middleware nativo que permite que softwares ou scripts legados que não oferecem suporte a logins na Web funcionem “mascarados” como tráfego do navegador.
  3. Desenvolvimento e teste de aplicativos de IA
    Ao criar aplicativos baseados em LLM, os desenvolvedores consomem um grande número de tokens durante as fases de desenvolvimento e teste e, ao encaminhar solicitações para a versão da Web por meio do ProxyLLM (que geralmente tem uma cota de uso mais generosa), o custo da API durante as fases de desenvolvimento e teste pode ser significativamente reduzido.
  4. Gerenciamento unificado de diálogos com vários modelos
    Para usuários com várias contas em diferentes plataformas (por exemplo, Gemini Advanced e ChatGPT Plus), um cliente de bate-papo unificado (por exemplo, Chatbox) compatível com o formato OpenAI pode ser usado para unificar todos os diferentes serviços da Web em segundo plano em uma única interface para gerenciamento e diálogo via ProxyLLM.

QA

  1. O uso dessa ferramenta resultará em um banimento da conta?
    Há certos riscos. Embora o ProxyLLM tente simular o comportamento de solicitação de navegadores reais, as chamadas de API automatizadas de alta frequência (especialmente solicitações simultâneas que excedem a velocidade normal de leitura humana) podem acionar os mecanismos de controle de risco do provedor de serviços. Recomenda-se que o ProxyLLM seja usado somente para assistência pessoal e não para serviços comerciais de grande escala.
  2. Ele é compatível com todos os sites de IA?
    Nem todos os sites são compatíveis. Ele oferece suporte principalmente a sites com adaptadores integrados (por exemplo, OpenAI, Anthropic, Gemini etc.). Para sites não adaptados, o ProxyLLM não pode resolver automaticamente seus protocolos de comunicação específicos e os usuários podem precisar escrever seus próprios scripts de adaptação.
  3. Meus bate-papos são seguros?
    O ProxyLLM é um software executado localmente; toda a captura e o encaminhamento do tráfego são feitos em seu computador (Localhost) e não passam pelos servidores do autor. No entanto, observe que seu bate-papo ainda será enviado para o provedor de serviços de IA correspondente (por exemplo, OpenAI).
  4. Por que não consigo capturar a solicitação?
    Certifique-se de concluir todo o processo “Enviar mensagem - Receber resposta” na janela dedicada do navegador que aparece no ProxyLLM. O simples login não é suficiente, o software precisa analisar os pacotes WebSocket ou HTTP da conversa real para extrair informações contextuais.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Digite as palavras-chave.Acessibilidade à pesquisa do BingFerramentas de IA, encontre rapidamente as ferramentas de IA neste site.

voltar ao topo