Ich habe ein Problem mit dem folgenden Befehl wget:
wget -nd -r -l 10 http://web.archive.org/web/20110726051510/http://feedparser.org/docs/
Es sollte rekursiv alle verknüpften Dokumente im Original-Web herunterladen, aber es werden nur zwei Dateien ( index.html
und robots.txt
) heruntergeladen .
Wie kann ich dieses Web rekursiv herunterladen ?
10
auf eine niedrigere Zahl abnehmen , aber es ist schwer zu erraten. Jetzt gibt es eine Dateiintroduction.html
,introduction.html.1
,introduction.html.2
und ich eher das Verfahren beendet.--mirror
Option für die Links zum Dateisystem zu leiten?-nd
, also werden verschiedeneindex.html
s in dasselbe Verzeichnis gestellt, und ohne-k
werden Sie die Links nicht umschreiben.Lädt rekursiv den Inhalt der URL herunter.
Einige andere nützliche Optionen sind:
quelle
-l 0 - remove recursion depth (which is 5 by default)
+1