Antigravity-Tools-LS 是一款专为 Antigravity IDE 深度定制的高性能原生 AI 协议适配网关。它打破了常规的反向代理模式,采用“纯原生 LS 路径”技术架构,通过深度模拟 IDE 内部插件协议,全面接管原生 ls_core 语言服务器进程的完整生命周期,为您提供身份验证注入、多模型协议转码和多账号智能调度的一站式本地解决方案。
系统对外提供标准的 OpenAI、Anthropic 和 Gemini API 接口,使得任何支持这些标准接口的第三方客户端都能轻松调用;对内则将请求完全委托给原生的应用进程。这种设计让工具能够持有真实凭据,直接与官方后端建立 HTTPS/gRPC 原生连接,确保发出的所有请求特征均与官方正版插件 100% 保持一致,从而从根本上规避风控拦截。系统内置了自动版本对齐与工业级资产同步引擎,加上严格的 LRU 实例池管理,在为您解锁强大的 Cascade 智能体功能的同时,最大限度保障了跨平台环境下的运行稳定性和极低的系统资源占用。
功能列表
- 深度多协议桥接适配:支持将原生通信协议统一无缝转换为标准的 OpenAI(
/v1/chat/completions)、Anthropic(/v1/messages)以及原生 Gemini API。 - 100% 原生请求特征模拟:利用真实的身份凭证(OAuth Tokens),引导原生进程与云端直接通信,防封禁表现卓越。
- 一键 IDE 账号无缝切换:数据库级底层注入技术,自动识别 macOS/Windows/Linux 环境,精准修改
state.vscdb,并支持自动强杀和重启 IDE,彻底解放手动登录流程。 - 解锁 Cascade 智能体模式:原生支持高级 Cascade Agent 逻辑推理与复杂上下文规划,并支持在流式输出中回显引用的搜索和数据来源。
- 工业级全自动资产同步引擎:能够自动扫描本地或从云端拉取安装包(支持
.dmg、.deb、.exe、.tar.gz),免人工干预提取底层ls_core和安全证书。 - 多维度版本自愈机制:内置严格对齐机制,确保运行时的底层组件与请求头中的版本签名特征完美契合,彻底杜绝因版本不一致导致的 403 Forbidden 错误。
- LRU 实例池生命周期治理:智能检测超时进程,通过 LRU 淘汰策略自动清理过期或僵尸 LS 实例,严控极度消耗资源的内存溢出(OOM)问题。
- 实时系统治理与状态推送:通过基于 SSE(Server-Sent Events)的实时数据流,实现应用状态、任务进度及流量情况的毫秒级前端回显,配置变更采用原子写入,断电不丢数据。
使用帮助
Antigravity-Tools-LS 旨在为您提供开箱即用且高度可控的本地代理服务。为确保工具稳定运行并发挥其全部特性,请仔细阅读以下详细的安装和操作说明。
📌 一、 快速安装部署流程
系统支持多种操作平台,我们推荐使用一键安装脚本或 Docker 进行部署。系统默认运行在本地的 5173 端口。
1. 一键脚本安装(推荐日常使用)
- Linux / macOS 环境:
打开终端,执行以下命令即可全自动完成依赖安装与环境配置:
curl -fsSL https://raw.githubusercontent.com/lbjlaq/Antigravity-Tools-LS/main/install.sh | bash - Windows 环境(PowerShell):
请以管理员身份打开 PowerShell,输入并执行以下脚本:
irm https://raw.githubusercontent.com/lbjlaq/Antigravity-Tools-LS/main/install.ps1 | iex
2. Docker 部署(推荐 NAS 或 云服务器用户)
使用 Docker 可以更好地隔离环境,避免系统依赖冲突。执行以下命令启动服务,并将配置持久化到宿主机:
docker run -d \
--name antigravity-ls \
-p 5173:5173 \
-e RUST_LOG=info \
-v ~/.antigravity-ls-data:/root/.antigravity_tools_ls \
lbjlaq/antigravity-tools-ls:latest
3. macOS Homebrew 安装
如果您是 Mac 开发者,可以直接通过包管理器安装:
brew tap lbjlaq/antigravity-tools-ls https://github.com/lbjlaq/Antigravity-Tools-LS
brew install antigravity-tools-ls
📌 二、 核心功能操作与配置指南
1. 零配置资产同步与版本对齐(核心)
Antigravity-Tools-LS 需要底层的 ls_core 可执行文件和相关证书才能工作。系统内置了“零配置同步引擎”,默认通过 Auto(智能对比) 策略运行:
- 启动检测:每次启动时,系统会自动扫描本地系统中是否已安装 Antigravity IDE。如果发现本地安装的版本较新,系统会自动提取其内部的核心组件,并同步版本签名到
data/ls_config.json,确保您的 API 请求永远不会因为版本过旧被官方封禁。 - 云端热更新:如果您的设备是纯净服务器(未安装 IDE),工具将调用官方云端 API 自动下载对应架构的安装包,静默解压替换。
- ⚠️ Windows 用户必须注意:由于 Windows 版本的安装包需要特定工具解包,您必须在系统中安装 7-Zip 并确保其路径已加入系统
PATH环境变量中(推荐使用命令scoop install 7zip一键安装)。如果不安装 7-Zip,您只能手动提取官方包中的ls_core和cert.pem并放置到工具目录的bin/文件夹下。
2. 一键 IDE 账号注入与调度
如果您需要将多个 IDE 账号用于高频 API 调用,系统提供了自动化的账号切换能力。
- 在应用前端 Dashboard 中,进入“账号管理”。
- 添加您的账号信息后,系统会主动接管底层文件
state.vscdb。它支持对 macOS、Windows 及 Linux 下的 IDE 配置进行原子级的写入操作。 - 点击切换账号时,系统会自动执行“强制关闭当前 IDE 进程 -> 注入新账号凭证 -> 自动重启 IDE 进程”的连贯动作。这意味着您在进行多账号轮询时,再也不用手动退出和重新扫码登录,整个调度过程高度自动化。
3. API 网关代理调用与模型配置
部署成功后,您可以将各种第三方支持 OpenAI 格式的客户端(如 Chatbox、NextChat 等)的 API 地址指向本机的服务端口:
- Base URL 代理地址:
http://localhost:5173 - OpenAI 兼容路由:发送请求到
POST /v1/chat/completions,支持流式输出。 - Anthropic 兼容路由:发送请求到
POST /v1/messages。 - 目前严格支持的模型 ID(请求时必须完全匹配以下字符串,暂不支持别名映射):
- Gemini 系列:
gemini-3.1-pro-high,gemini-3.1-pro-low,gemini-3-flash-agent - Claude 系列:
claude-sonnet-4-6,claude-opus-4-6-thinking - 其他模型:
gpt-oss-120b-medium
(注意:当前版本暂不支持直接通过端点请求图像生成模型,且思维链(Thinking)过程的实时流式提取回显仍在开发阶段。)
- Gemini 系列:
📌 三、 性能调优与故障排查建议
- 避免内存溢出 (OOM) 崩溃:在使用如
claude-sonnet-4-6这种高级模型进行大上下文或高并发查询时,底层的原生ls_core会由于处理复杂逻辑瞬间分配极其庞大的内存(峰值可能超过 2GB)。 - 小内存设备强制要求:如果您的服务器或 NAS 物理内存小于 2GB,必须至少为其配置 5GB 的虚拟内存(Swap)。否则,系统自带的 LRU 回收机制虽然能清理闲置的僵尸进程,但也来不及防范并发瞬间的内存撑爆,从而导致容器或进程直接崩溃重启。
应用场景
- 统一的大模型 API 聚合调用
通过提供标准化的 OpenAI、Anthropic 和 Gemini API,开发团队可以将本来被封闭在特定 IDE 中的强大模型能力,无缝集成并接入到自己的自动化脚本、第三方聊天客户端或企业内部工具链中。 - 多账号高并发 AI 服务自动调度
面向重度代码生成使用者或多人团队,系统可通过数据库级注入技术接管多个 IDE 的凭证。结合进程管理和切换功能,可实现多账号的自动轮询与负载均衡,完美突破单账号的使用频率瓶颈。 - 低风险的通信抓取与提示词工程研究
由于本系统采取了“持有真实凭据 + 完全复刻官方进程请求路径”的方式,发出的网络请求特征毫无破绽。安全工程师、大模型研究人员可安全地在此基础上监听原始通信结构,研究官方高级 Cascade 智能体的提示词编排和数据分发机制。
QA
- 问题: 为什么在 Windows 系统上运行一直提示“核心资产同步失败”或缺少执行文件?
答案: 此系统在 Windows 下开启自动提取配置时,底层依赖7-Zip来解析官方安装包。请务必检查您的系统是否已安装了 7-Zip,并且确保7z.exe的路径已经被正确添加到了系统的环境变量(PATH)中。如果您不想安装依赖,请手动下载官方包解压后,将ls_core和cert.pem文件放置到本程序的bin/文件夹。 - 问题: 为什么在我的 NAS / 树莓派上使用 Docker 部署后,一发送对话请求容器就会崩溃重启?
答案: 这是典型的低内存 OOM(Out of Memory)现象。工具在调用复杂模型进行高并发回复时,底层组件瞬间峰值内存可能突破 2GB。对于物理内存较小的设备,您必须在宿主机操作系统中设置至少 5GB 的 Swap(交换空间),以缓冲内存的瞬间飙升。 - 问题: 工具支持使用 Claude 3.7 的 Thinking (思考链) 模式或直接生成图片吗?
答案: 目前(截至 v0.0.2 版本)尚未实现思考链(Thinking)过程在前端流中的抽离与实时回显功能,该特性已被加入开发路线图中。同时,系统目前也不支持直接调用图片生成专用端点,只能在对话过程中通过主模型自主调用辅助工具(Tools)来间接触发图文生成能力。




























