ProxyLLM 是一个运行在用户电脑上的开源 Electron 应用程序。它的核心运行逻辑非常直接:通过内置的浏览器窗口打开 ChatGPT、Claude、Gemini 等大模型官方网页版,实时监听并捕获用户与网页交互产生的网络数据包(如 Cookie、会话 ID 和授权 Header)。随后,它在本地启动一个服务器,将这些网页版的通信协议实时转换为标准的 OpenAI 兼容 API 格式。这意味着,任何支持 OpenAI 接口的第三方软件(如代码编辑器插件、沉浸式翻译插件或命令行工具),都可以直接通过 ProxyLLM “借用”你登录在网页版上的账号权限来调用大模型能力,而无需支付额外的 API 费用。该工具完全本地化运行,数据直接在你的电脑和模型提供商之间传输,确保了隐私安全。
Funktionsliste
- 网页会话转 API:自动捕获浏览器中的 LLM 网页会话(Session),并将其封装为标准的
POST /v1/chat/completionsSchnittstelle. - Unterstützung mehrerer Modelle:支持拦截并转换多种主流 AI 网站的协议,包括但不限于 OpenAI (ChatGPT)、Anthropic (Claude)、Google Gemini 和 Qwen (lit. zehntausend Fragen zu allgemeinen Grundsätzen (Idiom); fig. eine lange Liste von Fragen und Antworten)。
- 可视化控制面板:提供图形化界面管理不同的 AI 站点,支持一键打开、刷新浏览器窗口,以及直观地查看和选择捕获到的凭证(Credentials)。
- Claude Code 深度集成:专为 Claude Code 命令行工具优化,支持接管和还原 Claude CLI 的代理设置,使其能直接利用网页版 Claude 的能力。
- 请求嗅探与调试:内置请求检查器,允许用户查看捕获到的 HTTP 和 WebSocket 请求详情,方便开发者调试或确认凭证有效性。
- Lokaler Schutz der Privatsphäre:所有站点凭证、日志和交互数据仅保存在用户本地电脑中,日志提供脱敏处理,不上传任何数据到第三方服务器。
- Kundenspezifische Adapter:提供适配器系统,允许开发者为非 OpenAI 标准的私有模型协议编写转换规则。
Hilfe verwenden
ProxyLLM 是一个需要通过源代码构建运行的开发者工具,以下是详细的安装与使用流程,帮助你在本地电脑上建立自己的 AI API 网关。
1. die Vorbereitung der Umwelt
在开始之前,请确保你的电脑已经安装了 Node.js 环境(建议 v16 或更高版本)。你可以通过在终端(Terminal 或 CMD)输入 node -v 和 npm -v 来检查是否安装成功。
2. 获取源代码与安装依赖
首先,你需要将项目的源代码下载到本地。
Öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus, um das Repository zu klonen:
git clone https://github.com/zhalice2011/ProxyLLM.git
Rufen Sie den Projektkatalog auf:
cd ProxyLLM
接下来安装项目所需的依赖包。由于项目包含前端渲染进程(renderer)和主进程,建议分别安装:
# 安装根目录依赖
npm install
# 安装渲染进程依赖
npm --prefix renderer install
3. 构建与启动应用
依赖安装完成后,需要编译前端 UI 并启动 Electron 应用:
# 构建 UI 界面
npm --prefix renderer run build
# 构建主程序
npm run build
# 启动应用程序
npm run start
启动成功后,你会看到一个名为 ProxyLLM 的应用窗口弹出,同时终端会显示本地 API 服务已在默认端口(通常是 127.0.0.1:8080)启动。
4. 配置与捕获会话
- Seite hinzufügen:在 ProxyLLM 应用界面中,点击“Add Site”(添加站点)。输入你想使用的 AI 服务网址(例如
https://claude.ai或https://chatgpt.com)。 - Bei Ihrem Konto anmelden:点击列表中的“Open”按钮,应用会弹出一个独立的浏览器窗口。在这个窗口中,像平时一样登录你的 AI 账号。
- 捕获凭证:登录成功后,在网页中随意发送一条测试消息(如“你好”)。ProxyLLM 会自动在后台捕获这次交互的请求头和认证信息。
- 选择凭证:回到 ProxyLLM 主界面的控制面板,点击该站点下的“Requests”或“Credentials”选项,选择最新捕获的一条有效请求记录作为当前的 API 凭证。
5. 调用 API
现在,你的本地电脑上已经运行着一个兼容 OpenAI 的 API 服务。你可以配置任何第三方工具连接到这个地址。
配置示例(以使用 curl 测试为例):
curl http://127.0.0.1:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer dummy-token" \
-d '{
"model": "claude-3-opus-20240229",
"messages": [{"role": "user", "content": "你好,请介绍一下你自己"}]
}'
注:由于认证是由 ProxyLLM 内部代理处理的,这里的 Authorization Bearer 令牌通常可以随意填写,除非你开启了特定的安全设置。
6. 集成 Claude Code(特色功能)
如果你是开发者并使用 Anthropic 发布的 claude 命令行工具,ProxyLLM 提供了一键接管功能:
- 在 ProxyLLM 界面中找到“Claude Code”相关设置。
- 点击“Takeover”(接管),工具会自动修改本地配置,将 Claude CLI 的流量指向 ProxyLLM。
- 现在你在终端运行
claude命令时,实际使用的是你网页版 Claude 的会话额度,而非 API 付费额度。
Anwendungsszenario
- 零成本使用编程辅助工具
许多 IDE 插件(如 Cursor、VS Code 的各类 AI 插件)需要用户填入 OpenAI API Key。使用 ProxyLLM,你可以将 API 地址改为本地地址(http://127.0.0.1:8080/v1),从而利用你已经付费的 ChatGPT Plus 或免费的 Claude 网页版账号来驱动这些插件,无需按 Token 额外付费。 - 绕过 API 访问限制
某些企业或地区的网络环境可能直接访问 OpenAI API 受限,但可以通过浏览器访问网页版。ProxyLLM 作为一个本地中间件,可以让不支持网页登录的旧版软件或脚本,通过“伪装”成浏览器流量的方式正常工作。 - 开发与测试 AI 应用
开发者在构建基于 LLM 的应用时,在开发测试阶段会消耗大量 Token。通过 ProxyLLM 转发请求到网页版(通常有较宽松的使用额度),可以大幅降低开发测试阶段的 API 成本。 - 统一管理多模型对话
对于拥有多个不同平台账号(如同时拥有 Gemini Advanced 和 ChatGPT Plus)的用户,可以使用支持 OpenAI 格式的统一聊天客户端(如 Chatbox),通过 ProxyLLM 将所有后台不同的网页服务统一到一个界面中进行管理和对话。
QA
- 使用这个工具会导致账号被封禁吗?
存在一定的风险。虽然 ProxyLLM 尽量模拟真实浏览器的请求行为,但高频的自动化 API 调用(尤其是超过人类正常阅读速度的并发请求)可能会触发服务商的风控机制。建议仅用于个人辅助用途,避免用于大规模商业服务。 - 它支持所有的 AI 网站吗?
不支持所有网站。它主要支持已经内置适配器的网站(如 OpenAI、Anthropic、Gemini 等)。对于未适配的网站,ProxyLLM 无法自动解析其特有的通信协议,用户可能需要自行编写适配脚本。 - 我的聊天记录安全吗?
相对安全。ProxyLLM 是本地运行的软件,所有的流量抓取和转发都在你的电脑内部完成(Localhost),不会经过作者的服务器。但请注意,你的聊天内容依然会被发送到对应的 AI 服务商(如 OpenAI)服务器上。 - 为什么捕获不到请求?
请确保你在 ProxyLLM 弹出的专用浏览器窗口中完成了完整的“发送消息-接收回复”流程。仅仅登录是不够的,软件需要分析实际对话的 WebSocket 或 HTTP 包来提取上下文信息。






























