API経由でモデルを呼び出すには、3つのステップしかない:
1.アクセス資格情報の取得
- にアカウントを登録した後API管理ページ 専用キーの生成
- キーインベアラートークンの形で認証する。
2.APIリクエストの設定
curl -X POST https://llm.chutes.ai/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer YOUR_API_KEY"
-d '{
"model": "deepseek-ai/DeepSeek-V3",
"messages": [{"role": "user", "content": " explain quantum computing"}]
}'
3.対象モデルの指定
- リクエストボディの
modelフィールドには、プラットフォームがサポートするモデル識別子が入力される。 - 例えば
"model": "deepseek-ai/DeepSeek-V3"
こんな方に一般テンプレートシナリオでは、APIエンドポイントは、JanitorAIのようなサードパーティのアプリケーションでhttps://llm.chutes.ai/v1/chat/completionsコンピューティングのバックエンドにシームレスに切り替えることができる。
この答えは記事から得たものである。Chutes: オープンソースのAIモデルをデプロイおよびスケーリングするためのサーバーレス・コンピューティング・プラットフォームについて
































