O AI Proxy Worker é um script de proxy sem servidor implantado no Cloudflare Workers. Ele é usado principalmente para resolver um problema central: como invocar com segurança os serviços de modelo de IA em aplicativos ou clientes de front-end sem expor chaves críticas de API. A ferramenta armazena a chave de API do usuário com segurança no ambiente de servidor da Cloudflare, e o aplicativo front-end acessa o modelo de IA indiretamente invocando esse serviço de proxy implantado. Dessa forma, não há necessidade de incluir nenhuma informação de chave sensível no código do cliente, evitando assim o risco de comprometimento da chave. O projeto aproveita a rede de borda mundial da Cloudflare para permitir respostas muito rápidas às solicitações. Atualmente, ele oferece suporte à série de modelos da DeepSeek e planeja oferecer suporte a mais provedores de serviços de IA convencionais, como OpenAI e Claude, no futuro, fornecendo aos desenvolvedores uma solução de chamada de interface de IA unificada, segura e eficiente.
Lista de funções
- Isolamento de segurança da chave de APIAs chaves de API fornecidas pelos provedores de serviços de IA são armazenadas no lado do servidor da Cloudflare, e o cliente não precisa tocá-las, eliminando completamente o risco de vazamento de chaves de front-end.
- Resposta rápida em milissegundosCom a rede de borda global da Cloudflare, os serviços de proxy podem processar solicitações de usuários perto de casa, obtendo latência extremamente baixa.
- Suporte a streamingSuporte total para respostas de streaming SSE (Server-Sent Events) permite que os aplicativos de bate-papo com IA obtenham resultados de diálogo em tempo real semelhantes aos de uma máquina de escrever.
- Pronto para uso em ambientes de produçãoO projeto tem mecanismos integrados e sólidos de tratamento de erros, segurança e monitoramento de registros para alta estabilidade.
- Custo zero para começarEle pode ser executado inteiramente com os créditos gratuitos do Cloudflare Workers, praticamente sem custos de servidor para desenvolvedores individuais ou pequenos projetos.
- Suporte a vários modelosA versão atual tem suporte total para o diálogo de uso geral do DeepSeek e modelos de inferência complexos, com planos futuros para expandir o suporte a uma variedade de serviços de IA, como OpenAI, Claude e Gemini.
- Controle de acesso personalizadoOs usuários podem definir uma chave de acesso separada para seu serviço de proxy (
PROXY_KEY
) para garantir que somente aplicativos autorizados possam usá-lo.
Usando a Ajuda
O objetivo do projeto do AI-Proxy-Worker é tornar o processo de implantação e uso o mais simples possível. Em vez de gerenciar servidores de back-end complexos, os desenvolvedores precisam apenas de uma conta na Cloudflare e de uma chave de API fornecida pelo provedor de serviços de IA para criar um proxy de IA privado seguro e eficiente em minutos.
Preparação pré-implantação
Antes de começar, verifique se você tem os dois itens a seguir prontos:
- Uma conta na CloudflareCloudflare Workers: o Cloudflare Workers é a base para a implantação desse serviço de proxy. Se você ainda não tem uma conta, pode acessar o site da Cloudflare e se inscrever gratuitamente.
- Chave da API do DeepSeekChave de API: Você precisa obter sua chave de API da DeepSeek Open Platform. Essa é a credencial usada pelo serviço de proxy para solicitar modelos oficiais.
Método de implementação um: usando a linha de comando (recomendado)
Disponível através da Cloudflarewrangler
As ferramentas de linha de comando para implantação são a maneira mais flexível e rápida.
Etapa 1: Instale e faça login no Wrangler
O Wrangler é a ferramenta oficial de linha de comando da Cloudflare para gerenciar projetos Workers. Se você não tiver um ambiente Node.js em seu computador, instale-o primeiro.
- Abra seu terminal (ferramenta de linha de comando).
- Execute o seguinte comando para instalar globalmente
wrangler
::npm install -g wrangler
- Após a conclusão da instalação, execute o comando de login e ele abrirá uma janela do navegador para que você autorize o login na sua conta da Cloudflare:
wrangler login
Etapa 2: Obtenha e insira o projeto
- fazer uso de
git
Clone esse projeto em seu computador local:git clone https://github.com/imnotnoahhh/AI-Proxy-Worker.git
- Vá para o diretório do projeto que você acabou de clonar:
cd AI-Proxy-Worker
Etapa 3: Configurar a chave
O serviço de proxy requer duas informações importantes, que precisamos passar pelowrangler
para configurá-los no ambiente da Cloudflare de forma segura.
- Configuração da chave da API do DeepSeekExecute o seguinte comando. Após o prompt, cole a chave de API que você obteve oficialmente do DeepSeek e pressione Enter.
wrangler secret put DEEPSEEK_API_KEY
- Configurar chaves de acesso ao proxy (recomendado)Para evitar o abuso do serviço de proxy, é altamente recomendável definir uma senha de acesso personalizada. Essa senha é algo que você mesmo define, como uma cadeia aleatória complexa.
wrangler secret put PROXY_KEY
Após a solicitação, digite a senha de acesso que você definiu e pressione Enter.
Etapa 4: Implantar no Cloudflare
Depois de concluir as etapas acima, o serviço de proxy pode ser publicado na rede global da Cloudflare com um único comando:
wrangler publish
Após a implantação bem-sucedida, o terminal exibirá o endereço do serviço de proxy, geralmente no formato https://ai-proxy-worker.<你的子域名>.workers.dev
. Anote esse endereço.
Modo de implementação 2: implementação com um clique usando páginas da Web
Se não estiver familiarizado com as operações de linha de comando, você também pode concluir a implantação diretamente pela interface da Web da Cloudflare.
- Visite a página do projeto no GitHub.
- Clique no botão "Deploy to Cloudflare Workers" na página.
- A página saltará para a interface de implantação do Cloudflare, e o sistema criará automaticamente uma nova cópia do seu repositório do GitHub para você.
- Siga as instruções da página para autorizar a Cloudflare a acessar seu repositório do GitHub.
- Na página Deployment Settings, localize a seção Environment Variables or Keys configuration (Variáveis de ambiente ou configuração de chaves).
- Adicione duas entradas principais:
DEEPSEEK_API_KEY
O valor é sua chave oficial do DeepSeek.PROXY_KEY
Senha de acesso ao proxy: O valor é a senha de acesso ao proxy que você definiu para si mesmo.
- Clique no botão "Deploy" (Implantar) e aguarde a Cloudflare concluir a criação e a publicação.
Como chamar e testar serviços de proxy
Após a implementação bem-sucedida, seu serviço de proxy estará disponível globalmente. Você pode usar qualquer ferramenta de cliente HTTP (como ocurl
ou Postman) ou chamá-lo em seu próprio código de aplicativo.
O caminho da interface para o serviço de proxy é /chat
. Há dois cabeçalhos HTTP importantes que você precisa fornecer ao chamar:
Content-Type
:application/json
Authorization
:Bearer <你的PROXY_KEY>
(Aqui está<你的PROXY_KEY>
Para substituí-la pela senha de acesso que você configurou quando fez a implantação).
fazer uso decurl
Exemplos de testes realizados:
Abra um terminal e substitua ohttps://your-worker.workers.dev
para seu endereço de proxy real e substitua oYOUR_PROXY_KEY
Substitua-o pela senha de acesso que você definiu.
curl -X POST https://your-worker.workers.dev/chat \
-H "Authorization: Bearer YOUR_PROXY_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-chat",
"messages": [{"role": "user", "content": "你好!请介绍一下你自己。"}]
}'
Se tudo estiver bem, você receberá uma resposta do modelo DeepSeek.
Integração em aplicativos front-end JavaScript:
Você pode usar ofetch
para chamar o serviço de proxy.
async function callMyAIProxy() {
const proxyUrl = 'https://your-worker.workers.dev/chat'; // 你的代理地址
const proxyKey = 'YOUR_PROXY_KEY'; // 你的访问密码
const response = await fetch(proxyUrl, {
method: 'POST',
headers: {
'Authorization': `Bearer ${proxyKey}`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'deepseek-chat',
messages: [{ role: 'user', content: '你好!' }]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
}
callMyAIProxy();
Com essas etapas, você tem um serviço de proxy de IA que está totalmente sob seu controle, é seguro e tem alto desempenho.
cenário do aplicativo
- Integração de aplicativos móveis e da Web
Essa é uma solução ideal para desenvolvedores que precisam integrar bate-papo com IA, geração de conteúdo e outros recursos em um aplicativo da Web ou móvel. Os desenvolvedores podem incorporar recursos de IA diretamente em seus produtos sem se preocupar com o fato de o código implantado no lado do cliente expor chaves de API, protegendo assim a conta. - Ferramentas internas e processos automatizados
As empresas ou equipes podem usar esse agente para fornecer um portal unificado de recursos de IA para ferramentas internas (por exemplo, sistemas de atendimento ao cliente, ferramentas de análise de documentos). Ao definir a chave de acesso de proxy, os direitos de chamada de diferentes aplicativos internos para recursos de IA podem ser controlados com eficiência para facilitar o gerenciamento. - Resolução de restrições de acesso à rede
Para regiões ou ambientes de rede que não têm acesso direto a serviços específicos de IA (por exemplo, OpenAI), esse proxy pode ser implantado em uma rede da Cloudflare que tenha acesso normal. Depois disso, os aplicativos clientes podem usar indiretamente o serviço de IA de destino simplesmente acessando esse endereço de proxy irrestrito. - Educação e criação de protótipos
Estudantes, pesquisadores ou equipes de startups que criam protótipos de aplicativos de IA podem usar essa solução de custo zero para validar ideias rapidamente. O processo de implantação é simples e não há servidores para manter, permitindo que você se concentre totalmente na inovação do aplicativo.
QA
- Essa ferramenta de proxy é gratuita?
O projeto AI-Proxy-Worker em si é de código aberto e gratuito. Ele é executado no serviço Cloudflare Workers, que oferece um pacote gratuito muito generoso (por exemplo, 100.000 solicitações por dia) que é perfeitamente adequado para a grande maioria dos desenvolvedores individuais e pequenos projetos, portanto, pode ser usado a custo zero. - Por que não chamar apenas a API oficial de IA no front-end?
O principal motivo é a segurança. Se você escrever chaves de API diretamente no código de front-end, qualquer pessoa que visite seu site poderá ver facilmente suas chaves por meio das ferramentas de desenvolvedor no navegador. Quando a chave é comprometida, outras pessoas podem roubar seus créditos, incorrer em taxas desnecessárias ou até mesmo abusar do serviço. O AI-Proxy-Worker evita completamente esse problema, mantendo a chave no lado do servidor. - Qual é a diferença entre ele e o AI Gateway oficial da Cloudflare?
O Cloudflare AI Gateway é um gateway de IA mais completo que oferece recursos avançados, como cache, limitação de taxa, análise e registro em log, e é mais adequado para grandes empresas que gerenciam aplicativos complexos de IA. O AI-Proxy-Worker, por outro lado, é uma solução de encaminhamento de API e proxy leve e focada em segurança, extremamente fácil de implantar e totalmente gratuita, o que o torna mais adequado para que os desenvolvedores atendam às principais chamadas de segurança de forma rápida e econômica. - Posso usá-lo para fazer proxy para outros modelos além do DeepSeek?
A versão atual é adaptada principalmente para a API DeepSeek. No entanto, de acordo com o roteiro de desenvolvimento do projeto, no futuro, planeja-se adicionar suporte para modelos de IA mais convencionais, como OpenAI, Claude, Gemini etc., com o objetivo final de se tornar um agente de API de IA universal. - A implantação desse Worker viola os Termos de Serviço da Cloudflare?
Não violação. Esse tipo de uso é o encaminhamento de dados da camada de aplicativos, retransmitindo solicitações legítimas de API para serviços de terceiros que você tem direito de acessar. Isso é fundamentalmente diferente dos proxies genéricos da Web (por exemplo, ofuscação de tráfego de VPN), que são proibidos pela Cloudflare e são cenários de uso normal permitidos por sua plataforma.