Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como implantar o Cognitive Kernel-Pro localmente?

2025-08-14 111

A implantação é dividida em quatro etapas principais:

  1. Preparação ambientalInstale o Python 3.8+ e o Git; o Linux/macOS precisa instalar as dependências do sistema, como o poppler-utils, via apt-get; o Windows precisa de configuração adicional.
  2. Configuração do serviço modeloImplementação de modelos de código aberto usando vLLM ou TGI, por exemplo, com o comando python -m vllm.entrypoints.openai.api_server Inicie o serviço do modelo Qwen3-8B-CK-Pro.
  3. Inicialização do serviço do navegador: Executar run_local.sh O script inicia o serviço do Playwright Browser na porta 3001 por padrão.
  4. execução do programa principalEspecifique os pontos de extremidade da API para o modelo e os serviços do navegador por meio de uma tarefa de entrada de arquivo JSON Lines, por exemplo --updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}".

A documentação do projeto dá ênfase especial às configurações de segurança, que são recomendadas para serem configuradas por meio do deluser ${USER} sudo Desativar a elevação de privilégio.

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil