====== LU13b - Crawler Aufbau Teil 2 ====== ==== WikiPageCollectorService ==== Der ''WikiPageCollectorService'' sammelt die URLs von den Seiten, die heruntergeladen werden sollen. Der Benutzer soll einen Unterordner beziehungsweise einen "Namespace" angeben können und sämtliche darunterliegenden Seiten sollen rekursiv gesammelt werden. Leider gibt es dazu keine geeignete und funktionierende XML-RPC-Funktion. Theoretisch könnte man alle Seiten als HTML-Dokumente runterladen und dann sämtliche links (