Dies ist eine alte Version des Dokuments!
LU13a - Crawler Aufbau
Damit alle relevanten Seiten von DokuWiki (https://wiki.bzz.ch) heruntergeladen werden können, nutzen wir eine Kombination aus Collector, Downloader und Orchestrator.
WikiPageCollectorService
Der WikiPageCollectorService sammelt die URLs von den Seiten, die heruntergeladen werden sollen.
Der Benutzer soll einen Unterordner beziehungsweise einen „Namespace“ angeben können und sämtliche darunterliegenden Seiten sollen rekursiv gesammelt werden.
Leider gibt es dazu keine geeignete und funktionierende XML-RPC-Funktion. Daher nutzen wir dieselbe Funktionen, die auch vom Wiki verwendet wird, um Unterseiten aufzulisten.
<nspages . -h1 -exclude -simpleList -textPages="">
WikiPageDownloaderService
WikiCrawlerPipelineService
Orchestriert wird das Ganze Filter