海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする

SimはオープンソースのAIエージェントワークフロー構築プラットフォームであり、様々なツールを接続する大規模言語モデル(LLM)の迅速な作成と展開を支援するように設計されています。Sim Studioは、クラウドとローカルの両方のデプロイをサポートし、幅広い動作環境に柔軟に対応します。シンプルなNPMコマンドやDocker Composeで素早く起動することも、コンテナの設定や開発によって手動で実行することもできます。Sim Studioは、AI主導のワークフローを迅速に開発するための軽量設計とユーザーフレンドリーな操作性を重視しています。

 

機能一覧

  • ワークフロー構築AIエージェントのワークフローを迅速に設計し、直感的なインターフェースで外部ツールやデータソースに接続します。
  • 複数の配備オプションクラウドホスティング、ローカルでの実行(NPM、Docker Compose、開発コンテナ、手動設定)をサポートします。
  • 現地モデルのサポートネイティブの大規模な言語モデルを統合し、スクリプトを介してそれらを引き出し、GPUまたはCPU環境に適応させます。
  • ライブサーバー動的なワークフロー調整とデータ相互作用をサポートするリアルタイム通信機能を提供する。
  • データベース統合Drizzle ORMを通してデータベースの設定をサポートし、データ管理を簡素化します。
  • オープンソースとコミュニティへの貢献Apache-2.0ライセンスに基づき、コミュニティによる開発と最適化が奨励されています。

ヘルプの使用

インストールと展開

Sim Studioは、さまざまなユーザーのニーズに対応するため、さまざまなインストールおよび配備オプションを提供しています。以下に詳細な手順を示します:

方法 1: NPM パッケージを使う (最も簡単)

Dockerをインストールするだけで、ローカルにデプロイできる。

  1. Dockerがインストールされ、実行されていることを確認する。
  2. ターミナルで以下のコマンドを実行する:
    npx simstudio
    
  3. ブラウザを開き、次のサイトにアクセスする。 http://localhost:3000/.
  4. オプションのパラメータ:
    • -p, --port <port>実行ポートを指定します(デフォルトは 3000)。
    • --no-pull最新のDockerイメージのプルをスキップします。

方法2:Docker Composeを使う

よりコントロールが必要なユーザーに最適。

  1. クローン倉庫
    git clone https://github.com/simstudioai/sim.git
    cd sim
    
  2. Docker Composeを実行する:
    docker compose -f docker-compose.prod.yml up -d
    
  3. インタビュー http://localhost:3000/.
  4. ローカルモデルを使用する場合
    • モデルを引っ張る:
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • ローカルモデルをサポートする環境を整える:
      • GPU環境:
        docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
        
      • CPU環境:
        docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
        
    • サーバー展開:編集部 docker-compose.prod.yml設定 OLLAMA_URL はサーバーのパブリックIP(例えば http://1.1.1.1:11434)、再実行する。

アプローチ3:開発コンテナの使用

VS Codeを使用している開発者向け。

  1. VS CodeとRemote - Containersエクステンションをインストールします。
  2. クローン化したSim Studioプロジェクトを開くと、VS Codeは「コンテナで再オープン」を促します。
  3. プロンプトをクリックすると、プロジェクトは自動的にコンテナ内で実行される。
  4. ターミナルで実行:
    bun run dev:full
    

    またはショートカットコマンドを使う:

    sim-start
    

方法4:手動設定

フルカスタマイズが必要なユーザーに最適。

  1. リポジトリをクローンし、依存関係をインストールする:
    git clone https://github.com/simstudioai/sim.git
    cd sim
    bun install
    
  2. 環境変数を設定する:
    cd apps/sim
    cp .env.example .env
    

    コンパイラ .env ファイルに DATABASE_URLそしてBETTER_AUTH_SECRET 歌で応える BETTER_AUTH_URL.

  3. データベースを初期化する:
    bunx drizzle-kit push
    
  4. サービスを開始する:
    • Next.jsフロントエンドを実行します:
      bun run dev
      
    • ライブサーバーを実行する:
      bun run dev:sockets
      
    • 両方を同時に実行する(推奨):
      bun run dev:full
      

主な機能

  1. AIワークフローの作成::
    • Sim Studio(クラウドまたはローカル)にログインします。
    • インターフェイスで「新規ワークフロー」を選択する。
    • モジュールをドラッグ・アンド・ドロップするか、テンプレートを使ってAIエージェントを構成し、Slack、Notion、カスタムAPIなどのツールに接続します。
    • トリガー条件と出力ターゲットを設定し、ワークフローを保存してテストします。
  2. ローカルモデルの使用::
    • プルモデル(LLaMAやその他のオープンソースモデルなど):
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • ワークフロー構成でローカルモデルを選択し、GPUまたはCPUモードを指定する。
    • モデルの応答をテストし、ワークフローが正しく動作していることを確認する。
  3. リアルタイム通信::
    • Sim Studioのリアルタイムサーバーは、ワークフローの動的調整をサポートします。
    • インターフェイスのリアルタイムモードを有効にして、データの流れと出力結果を観察する。
    • ワークフローの更新は、APIまたはインターフェイスを介して手動でトリガーすることができます。
  4. データベース管理::
    • Drizzle ORM を使用して、ワークフローデータを保存するデータベースを設定します。
    • ある .env セットアップ DATABASE_URLランニング bunx drizzle-kit push 初期化。
    • インターフェイスを通してデータテーブルを表示し、管理する。

ほら

  • 互換性の問題を避けるため、Dockerのバージョンが最新であることを確認してください。
  • ローカルモデルは大きなストレージスペースと計算リソースを必要とするため、高性能GPUが推奨される。
  • サーバーの展開には、適切な外部アクセスを確保するためのパブリックIPとポートの設定が必要です。

アプリケーションシナリオ

  1. 自動化されたカスタマーサービス
    Sim Studioを使用して、CRMシステムやチャットツールに接続し、人手をかけずに顧客からの問い合わせに自動的に対応するAIカスタマーサービスエージェントを構築します。
  2. コンテンツ生成
    開発者は、ネイティブモデルから記事、コード、デザインドラフトを生成することができます。 ノーティオン またはグーグル・ドライブのストレージに出力する。
  3. データ分析ワークフロー
    AIエージェントを設定してCSVデータを分析し、ビジュアルレポートを生成し、TableauやカスタムAPIに接続して処理を自動化する。
  4. 生産性向上ツール
    カレンダー、Eメール、タスク管理ツールと連携し、会議のスケジュールやサマリーを自動生成。

品質保証

  1. Sim Studioは無料ですか?
    Sim StudioはApache-2.0ライセンスに基づくオープンソースプロジェクトで、無料でご利用いただけます。クラウド版ではホスティング料金が発生する場合がありますので、詳細は公式価格をご確認ください。
  2. プログラミングの経験が必要ですか?
    必要ありません。インターフェースはシンプルで、技術者でないユーザーにも適している。しかし、開発者は、手動設定またはAPIを介してより複雑な機能を実装することができます。
  3. どのような大きな言語モデルに対応していますか?
    スクリプトから取り込んでローカルで実行できる、幅広いオープンソースモデル(LLaMAなど)をサポート。
  4. コードを提供するには?
    GitHubリポジトリのContributing Guideを参照し、Pull Requestを提出して開発に参加してください。
0ブックマークに登録
0表彰される

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る

ja日本語