Etapas de construção e método de implementação de agente inteligente
Aqui está a solução completa baseada no n8n Self-Hosted AI Starter Kit:
- Preparação ambientalPrimeiro, certifique-se de que o Docker e o Git estejam instalados em seu sistema; recomenda-se o Linux ou o MacOS (o Windows precisa ser configurado com o WSL2).
- infraestrutura::
1. clonagem de armazéns:git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
2. seleção do modo de inicialização de acordo com o hardware:
- Os usuários de GPU da Nvidia usam--profile gpu-nvidiaparâmetros
- Os usuários do Apple Silicon têm a opção de usar o modo CPU ou a conexão local com o Ollama - Configuração de agentes inteligentes::
1. acesso à interface n8n (http://localhost:5678)
2. adicionar o nó "AI Agent" ao criar fluxos de trabalho
3. conectar os nós do Ollama para configurar o modelo LLM (por exemplo, Llama 3.2)
4. configurar acionadores de tarefas (por exemplo, eventos de calendário/acionadores de e-mail)
5. configurar ações de saída (por exemplo, enviar convites para reuniões/gerar listas de tarefas)
Recomendações de otimizaçãoObservação: O Ollama fará o download automático do modelo quando for executado pela primeira vez, portanto, é recomendável preparar um ambiente de rede estável com antecedência. Para uso em ambiente de produção, considere a possibilidade de montar o diretório de dados do PostgreSQL em um armazenamento persistente.
Essa resposta foi extraída do artigon8n Self-hosted AI Starter Kit: um modelo de código aberto para criar rapidamente um ambiente local de IAO































