A implantação é dividida em quatro etapas principais:
- Preparação ambientalInstale o Python 3.8+ e o Git; o Linux/macOS precisa instalar as dependências do sistema, como o poppler-utils, via apt-get; o Windows precisa de configuração adicional.
- Configuração do serviço modeloImplementação de modelos de código aberto usando vLLM ou TGI, por exemplo, com o comando
python -m vllm.entrypoints.openai.api_server
Inicie o serviço do modelo Qwen3-8B-CK-Pro. - Inicialização do serviço do navegador: Executar
run_local.sh
O script inicia o serviço do Playwright Browser na porta 3001 por padrão. - execução do programa principalEspecifique os pontos de extremidade da API para o modelo e os serviços do navegador por meio de uma tarefa de entrada de arquivo JSON Lines, por exemplo
--updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}"
.
A documentação do projeto dá ênfase especial às configurações de segurança, que são recomendadas para serem configuradas por meio do deluser ${USER} sudo
Desativar a elevação de privilégio.
Essa resposta foi extraída do artigoCognitive Kernel-Pro: uma estrutura para criar inteligências de pesquisa profunda de código abertoO