Dockerを使ったデプロイが推奨されるソリューションで、3つのステップで行われる:
- ベース環境の準備::
- Docker DesktopとDocker Composeのインストール
- とおす
git clone最新のコードベースを入手する - .envファイルで認証キーとデータベース・パラメーターを設定する。
- オッラマの統合::
- docker-compose.yml を修正して、以下を追加する。
extra_hosts地図 - セットアップ
OLLAMA_HOST=http://host.docker.internal:11434 - 目的のモデルをスクリプトに通します:
./scripts/ollama_docker.sh pull llama3
- docker-compose.yml を修正して、以下を追加する。
- サービス開始::
- GPUアクセラレーションモード:
docker compose up --profile local-gpu -d --build - 純粋なCPUモード:
docker compose up --profile local-cpu -d --build - インタビュー
http://localhost:3000プラットフォーム
- GPUアクセラレーションモード:
注:ローカルLLMの動作には16GB以上のRAMを推奨し、NVIDIA GPUはパフォーマンスを大幅に向上させます。ログはdocker compose logsライブビュー。
この答えは記事から得たものである。Sim Studio: AIエージェントのためのオープンソースワークフロービルダーについて































