Kostenloses OS X-Dienstprogramm zum Kratzen von Websites?

11

Ich möchte alle Seiten und Unterseiten einer Website kratzen (mit kratzen meine ich, alle Online-Inhalte in lokalen HTML-Dateien zu speichern).

Was ist das beste Dienstprogramm zum Crawlen aller Seiten? Im Idealfall möchte ich angeben, wie viele Schichten tief zu kratzen sind.

Chirag Patel
quelle

Antworten:

19

Sie haben zwei Möglichkeiten:

Sie können das wgetBefehlszeilenprogramm folgendermaßen verwenden:

wget -rl 10

Ersetzen Sie die 10durch die Anzahl der Ebenen, in die Sie zurückgreifen möchten.

Oder Sie können SiteSucker verwenden . Eine GUI-Anwendung, die rekursiv Websites herunterlädt. Sie können auch angeben, wie weit unten mit SiteSucker rekursiv gearbeitet werden soll.

Mark Szymanski
quelle
1
SiteSucker ist großartig.
Neoneye
1

DeepVacuum

GUI für wget, 15 $.

Cocoawget

(kostenlos)

Lri
quelle
Deepvacuum lässt mich an die Dire Straits denken: "Geld für nichts": D
Pitto