Kostenloses OS X-Dienstprogramm zum Kratzen von Websites?


11

Ich möchte alle Seiten und Unterseiten einer Website kratzen (mit kratzen meine ich, alle Online-Inhalte in lokalen HTML-Dateien zu speichern).

Was ist das beste Dienstprogramm zum Crawlen aller Seiten? Im Idealfall möchte ich angeben, wie viele Schichten tief zu kratzen sind.

Antworten:


19

Sie haben zwei Möglichkeiten:

Sie können das wgetBefehlszeilenprogramm folgendermaßen verwenden:

wget -rl 10

Ersetzen Sie die 10durch die Anzahl der Ebenen, in die Sie zurückgreifen möchten.

Oder Sie können SiteSucker verwenden . Eine GUI-Anwendung, die rekursiv Websites herunterlädt. Sie können auch angeben, wie weit unten mit SiteSucker rekursiv gearbeitet werden soll.


1
SiteSucker ist großartig.
Neoneye

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.