ビルディングステップとインテリジェントエージェント実装方法
n8n Self-Hosted AI Starter Kitに基づく完全なソリューションをご紹介します:
- 環境準備DockerとGitがシステムにインストールされていることを確認する。
- インフラ::
1.倉庫のクローン化git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
2.ハードウェアに応じたブートモードの選択:
- NvidiaのGPUユーザーは--profile gpu-nvidiaパラメトリック
- Apple Siliconのユーザーは、CPUモードかOllamaへのローカル接続を選択できる - インテリジェント・エージェントの設定::
1.n8nインターフェースへのアクセス (http://localhost:5678)
2.ワークフロー作成時の「AIエージェント」ノードの追加
3.Ollamaノードを接続してLLMモデルを設定する(例:Llama 3.2)
4.タスクトリガーの設定(カレンダーイベントやメールトリガーなど)
5.出力アクションを設定する(例:会議の招待状を送る/ToDoリストを生成する)
最適化の提案Ollamaは初回実行時に自動的にモデルをダウンロードするので、安定したネットワーク環境を事前に準備することを推奨する。本番環境で使用する場合は、PostgreSQLのデータディレクトリを永続ストレージにマウントすることを検討してください。
この答えは記事から得たものである。n8n Self-hosted AI Starter Kit: ローカルAI環境を素早く構築するためのオープンソーステンプレートについて































