海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする
現在の場所図頭 " AIアンサー

Sim Studioをローカルマシンに展開し、ローカルLLMに接続するにはどうすればよいですか?

2025-08-23 2.1 K

Dockerを使ったデプロイが推奨されるソリューションで、3つのステップで行われる:

  1. ベース環境の準備::
    • Docker DesktopとDocker Composeのインストール
    • とおすgit clone最新のコードベースを入手する
    • .envファイルで認証キーとデータベース・パラメーターを設定する。
  2. オッラマの統合::
    • docker-compose.yml を修正して、以下を追加する。extra_hosts地図
    • セットアップOLLAMA_HOST=http://host.docker.internal:11434
    • 目的のモデルをスクリプトに通します:./scripts/ollama_docker.sh pull llama3
  3. サービス開始::
    • GPUアクセラレーションモード:docker compose up --profile local-gpu -d --build
    • 純粋なCPUモード:docker compose up --profile local-cpu -d --build
    • インタビューhttp://localhost:3000プラットフォーム

注:ローカルLLMの動作には16GB以上のRAMを推奨し、NVIDIA GPUはパフォーマンスを大幅に向上させます。ログはdocker compose logsライブビュー。

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る