部署分为四个关键步骤:
- 环境准备:安装 Python 3.8+、Git 及系统依赖(如 Linux 需安装 poppler-utils 等工具),通过 pip 安装项目依赖包(boto3/pandas/selenium 等)。
- 模型服务配置:推荐使用 vLLM 部署开源模型,例如启动 Qwen3-8B-CK-Pro 服务需指定模型路径、并行度等参数,默认开放 8080 端口。
- 浏览器服务启动:通过运行
run_local.sh
脚本初始化 Playwright 浏览器服务,默认监听 3001 端口。 - 执行任务:使用 JSON Lines 格式定义输入任务文件,通过主程序调用模型和浏览器服务,输出结果将保存至指定文件。
注意:Windows 用户需额外处理依赖,建议优先使用 Linux/macOS 系统,生产环境务必配置沙箱隔离。
本答案来源于文章《Cognitive Kernel-Pro:构建开源深度研究智能体的框架》