A implantação é dividida em quatro etapas principais:
- Preparação ambientalInstale o Python 3.8+, o Git e as dependências do sistema (por exemplo, poppler-utils para Linux) e as dependências do projeto (boto3/pandas/selenium etc.) via pip.
- Configuração do serviço modeloRecomenda-se usar o vLLM para implantar modelos de código aberto; por exemplo, para iniciar o serviço Qwen3-8B-CK-Pro, é necessário especificar parâmetros como caminho do modelo, paralelismo etc. A porta 8080 está aberta por padrão.
- Inicialização do serviço do navegador: executando
run_local.sh
O script inicializa o Playwright Browser Service, que escuta na porta 3001 por padrão. - operarArquivos de tarefas de entrada são definidos usando o formato JSON Lines, os serviços de modelo e navegador são chamados por meio do aplicativo principal e os resultados de saída são salvos nos arquivos especificados.
Observação: os usuários do Windows precisam lidar com dependências adicionais, é recomendável usar preferencialmente sistemas Linux/macOS, e os ambientes de produção devem ser configurados com isolamento de sandbox.
Essa resposta foi extraída do artigoCognitive Kernel-Pro: uma estrutura para criar inteligências de pesquisa profunda de código abertoO