Der Einsatz ist in vier wichtige Schritte unterteilt:
- Vorbereitung der UmweltInstallieren Sie Python 3.8+ und Git, Linux/macOS müssen Systemabhängigkeiten wie poppler-utils über apt-get installieren, Windows benötigt zusätzliche Konfiguration.
- Musterdienst KonfigurationBereitstellung von Open-Source-Modellen mit vLLM oder TGI, z. B. mit dem Befehl
python -m vllm.entrypoints.openai.api_server
Starten Sie den Qwen3-8B-CK-Pro-Modelldienst. - Start des Browserdienstes: Lauf
run_local.sh
Das Skript startet den Playwright-Browser-Dienst standardmäßig an Port 3001. - HauptprogrammausführungAPI-Endpunkte: Geben Sie die API-Endpunkte der Modell- und Browserdienste über eine JSON Lines-Datei-Eingabeaufgabe an, z. B.
--updates "{'web_agent': {'model': {'call_target': 'http://localhost:8080/v1/chat/completions'}}}"
.
Die Projektdokumentation legt besonderen Wert auf die Sicherheitskonfigurationen, die am besten über die deluser ${USER} sudo
Deaktivieren Sie die Erhöhung von Berechtigungen.
Diese Antwort stammt aus dem ArtikelCognitive Kernel-Pro: ein Rahmenwerk für den Aufbau von quelloffenen tiefen ForschungsintelligenzenDie