Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie kann ich Cognitive Kernel-Pro lokal einsetzen?

2025-08-14 110

Der Einsatz ist in vier wichtige Schritte unterteilt:

  1. Vorbereitung der UmweltInstallieren Sie Python 3.8+ und Git, Linux/macOS müssen Systemabhängigkeiten wie poppler-utils über apt-get installieren, Windows benötigt zusätzliche Konfiguration.
  2. Musterdienst KonfigurationBereitstellung von Open-Source-Modellen mit vLLM oder TGI, z. B. mit dem Befehl python -m vllm.entrypoints.openai.api_server Starten Sie den Qwen3-8B-CK-Pro-Modelldienst.
  3. Start des Browserdienstes: Lauf run_local.sh Das Skript startet den Playwright-Browser-Dienst standardmäßig an Port 3001.
  4. HauptprogrammausführungAPI-Endpunkte: Geben Sie die API-Endpunkte der Modell- und Browserdienste über eine JSON Lines-Datei-Eingabeaufgabe an, z. B. --updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}".

Die Projektdokumentation legt besonderen Wert auf die Sicherheitskonfigurationen, die am besten über die deluser ${USER} sudo Deaktivieren Sie die Erhöhung von Berechtigungen.

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch