部署分为四个关键步骤:
- 环境准备:安装 Python 3.8+ 和 Git,Linux/macOS 需通过 apt-get 安装 poppler-utils 等系统依赖,Windows 需额外配置。
- 模型服务配置:使用 vLLM 或 TGI 部署开源模型,例如通过命令
python -m vllm.entrypoints.openai.api_server
启动 Qwen3-8B-CK-Pro 模型服务。 - 浏览器服务启动:运行
run_local.sh
脚本启动 Playwright 浏览器服务,默认端口为 3001。 - 主程序执行:通过 JSON Lines 文件输入任务,指定模型和浏览器服务的 API 端点,例如
--updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}"
。
项目文档特别强调安全配置,建议通过 deluser ${USER} sudo
禁用权限提升。
本答案来源于文章《Cognitive Kernel-Pro:构建开源深度研究智能体的框架》