モデルサポートとローカリゼーション設定
ジャアズは業界では珍しい幅広いモデル互換性::
主な対応機種
- クラウドAPIOpenAI GPTシリーズ、Claude、Replicate、Deepseekなど。
- ローカルモデルLLaMA、Stable Diffusionなど、Ollamaを通じて展開。
- プロのイメージモデルFlux Kontext(マルチロール一貫性)、gpt-image-1、Google Imagenなど。
- 今後のサポートビデオ生成モデルWan2.1とKling
ローカルモデルの設定ステップ
- 取り付けオーラマフレームワーク(Windows/MacOS/Linux)
- 対象モデルをダウンロードする:
ollama pull llama3 - Jaazの設定パネルでモデル管理 → ローカルモデル
- クラウドAPIオプションを無効にして、完全にローカルな操作を保証する。
- 成功した接続を確認するためのテスト生成
アドバンテージのヒント:ローカルモデルは、より高いハードウェア(GPUサポートを推奨)を必要とするがデータがローカル・デバイスから離れることはないこのプログラムは、デリケートなコンテンツを扱うのに特に適している。
この答えは記事から得たものである。Jaaz:ローカルで動作するAIクリエイティブデザインと画像生成インテリジェンスについて































