Die Stapelverarbeitung von Abstracts und das automatische Crawlen von Papers nach Schlüsselwörtern sind zwei verschiedene Funktionen von ArXiv Paper Summarizer, die sich im Wesentlichen wie folgt unterscheiden:
Stapelverarbeitung von Zusammenfassungen:
- Bearbeitungsobjekt: eine Liste bestimmter Papiere, die dem Benutzer ausdrücklich bekannt sind
- Eingabemethode: Textdatei mit mehreren arXiv-Zusammenfassungs-URLs
- Befehl ausführen: python url_summarize.py -batch urls.txt
- Geeignetes Szenario: Es sind mehrere Arbeiten bekannt, die gelesen werden müssen, und Sie möchten alle Zusammenfassungen auf einmal erhalten
Auto-Crawl von Schlüsselwörtern:
- Verarbeitungsobjekt: unbekannte Papers auf arXiv, die den Suchkriterien entsprechen
- Eingabemethode: Schlüsselwörter und Datumsbereich in der Konfigurationsdatei festlegen
- Führen Sie den Befehl: python keyword_summarize.py
- Geeignetes Szenario: Verfolgung der neuesten Forschungsfortschritte in einem bestimmten Bereich
- Zusätzlicher Vorteil: kann so eingestellt werden, dass er automatisch täglich ausgeführt wird, wodurch kontinuierliche Aktualisierungen entstehen
Vereinfacht gesagt, ist die Stapelverarbeitung ein Fall, in dem der Benutzer bereits ein klares Zielpapier hat, während das Keyword-Crawling ein Fall ist, in dem das Tool automatisch neue Papiere entdeckt und Zusammenfassungen erzeugt. Ersteres gewährleistet die Genauigkeit, letzteres die Wiederentdeckung. Die beiden Funktionen können in Kombination verwendet werden - zuerst die Schlagwortfunktion, um neue Artikel zu finden, und dann die Stapelverarbeitung, um die interessanten Teile zu verarbeiten.
Diese Antwort stammt aus dem ArtikelArXiv Paper Summarizer: ein Werkzeug zur automatischen Zusammenfassung von arXiv-PapersDie































