Coze Studioはオープンなモデル統合アーキテクチャを採用しており、現在以下の2種類のモデルサービスを正式にサポートしています:
- クラウドAPIモデル火山エンジンのArkシリーズ(例:doubao-seed-1.6)、OpenAI GPTシリーズなどの商用モデル。
- ローカリゼーション・モデルカスタムコンフィギュレーションにより、プライベートで展開されている大規模モデルサービスへのアクセスをサポート。
ボルケーノ・エンジンのモデルに特定のプロセスを設定します:
- Volcano Engineのコンソールでアプリケーションを作成し、API KeyとEndpoint IDを取得する(アカウント実名認証が必要)
- プロジェクトの
model_template_ark_doubao-seed-1.6.yaml
テンプレートファイル - キー・フィールドを修正する:
id
グローバルに一意な数値識別子として設定(配備後は変更不可)meta.conn_config.api_key
Volcano API キーを入力します。meta.conn_config.model
エンドポイントIDを入力
- 設定ファイルを
backend/conf/model/
カタログ発効
警告だ:
- ボルケーノ・エンジンは通話ごとに課金されます。
- 本番環境では、QPS のフロー制限と融合メカニズムを設定することを推奨します。
- モデル・レスポンスの待ち時間は、ログインすることで知ることができる。
latency
フィールド・モニタリング
この答えは記事から得たものである。Coze Studio(Cozeオープンソース版):AIインテリジェンスを迅速に構築するためのオープンソースのローコードプラットフォームについて