Bauschritte und Verfahren zur Implementierung intelligenter Agenten
Hier ist die Komplettlösung auf der Grundlage des n8n Self-Hosted AI Starter Kit:
- Vorbereitung der UmweltStellen Sie zunächst sicher, dass Docker und Git auf Ihrem System installiert sind. Linux oder MacOS wird empfohlen (Windows muss mit WSL2 konfiguriert werden).
- Infrastruktur::
1. das Klonen von Lagern:git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
2. die Auswahl des Bootmodus je nach Hardware:
- Nvidia-GPU-Benutzer verwenden--profile gpu-nvidiaParameter
- Apple Silicon-Benutzer haben die Wahl zwischen CPU-Modus und lokaler Verbindung zu Ollama - Konfiguration intelligenter Agenten::
1. den Zugang zur n8n-Schnittstelle (http://localhost:5678)
2. bei der Erstellung von Workflows den Knoten "AI Agent" hinzuzufügen
3. die Verbindung von Ollama-Knoten zur Konfiguration des LLM-Modells (z. B. Llama 3.2)
4. die Einrichtung von Aufgabenauslösern (z. B. Kalenderereignisse/E-Mail-Auslöser)
5. die Ausgabeaktionen konfigurieren (z. B. Einladungen zu Besprechungen senden/ Aufgabenlisten erstellen)
OptimierungsempfehlungenOllama lädt das Modell automatisch herunter, wenn es zum ersten Mal gestartet wird. Es wird daher empfohlen, im Voraus eine stabile Netzwerkumgebung vorzubereiten. Für den Einsatz in einer Produktionsumgebung sollten Sie das PostgreSQL-Datenverzeichnis in einen dauerhaften Speicher einbinden.
Diese Antwort stammt aus dem Artikeln8n Self-hosted AI Starter Kit: eine Open-Source-Vorlage für den schnellen Aufbau einer lokalen KI-UmgebungDie































