Der Einsatz ist in vier wichtige Schritte unterteilt:
- Vorbereitung der UmweltInstallieren Sie Python 3.8+, Git und Systemabhängigkeiten (z.B. poppler-utils für Linux), und Projektabhängigkeiten (boto3/pandas/selenium etc.) über pip.
- Musterdienst KonfigurationEs wird empfohlen, vLLM für die Bereitstellung von Open-Source-Modellen zu verwenden. Um beispielsweise den Qwen3-8B-CK-Pro-Dienst zu starten, müssen Sie Parameter wie den Modellpfad, die Parallelität usw. angeben.
- Start des Browserdienstes: durch Laufen
run_local.shDas Skript initialisiert den Playwright-Browserdienst, der standardmäßig auf Port 3001 wartet. - betreiben.Die Eingabedateien werden im JSON-Lines-Format definiert, die Modell- und Browserdienste werden über die Hauptanwendung aufgerufen, und die Ausgabeergebnisse werden in den angegebenen Dateien gespeichert.
Hinweis: Windows-Benutzer müssen sich mit zusätzlichen Abhängigkeiten auseinandersetzen, es wird empfohlen, bevorzugt Linux-/MacOS-Systeme zu verwenden, und Produktionsumgebungen müssen mit Sandbox-Isolierung konfiguriert werden.
Diese Antwort stammt aus dem ArtikelCognitive Kernel-Pro: ein Rahmenwerk für den Aufbau von quelloffenen tiefen ForschungsintelligenzenDie































