海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする
現在の場所図頭 " AIアンサー

Cognitive Kernel-Proをローカルに展開するには?

2025-08-14 112

配備は4つの重要なステップに分かれている:

  1. 環境準備Python3.8+とGitをインストールしてください。Linux/macOSではapt-get経由でpoppler-utilsなどのシステム依存パッケージをインストールする必要があります。
  2. モデルサービス構成vLLMやTGIを使ってオープンソースのモデルをデプロイする。 python -m vllm.entrypoints.openai.api_server Qwen3-8B-CK-Proモデルのサービスを開始します。
  3. ブラウザサービス起動走る run_local.sh スクリプトは、デフォルトでポート3001でPlaywright Browserサービスを開始する。
  4. メインプログラム実行JSON Linesファイルの入力タスクで、モデルとブラウザサービスのAPIエンドポイントを指定します。 --updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}".

プロジェクトの文書では、セキュリティ設定に特に重点を置いています。 deluser ${USER} sudo 特権の昇格を無効にする。

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る

ja日本語