Eine Seite enthält Links zu einer Reihe von ZIP-Dateien, die ich alle herunterladen möchte. Ich weiß, dass dies durch Wget und Curl geschehen kann. Wie wird es gemacht?
83
Der Befehl lautet:
wget -r -np -l 1 -A zip http://example.com/download/
Optionen Bedeutung:
-r, --recursive specify recursive download.
-np, --no-parent don't ascend to the parent directory.
-l, --level=NUMBER maximum recursion depth (inf or 0 for infinite).
-A, --accept=LIST comma-separated list of accepted extensions.
-nd
Flag (keine Verzeichnisse) ist praktisch, wenn keine zusätzlichen Verzeichnisse erstellt werden sollen (dh alle Dateien befinden sich im Stammordner).-np
. Wenn sie sich auf einem anderen Host befinden, benötigen Sie--span-host
.Die obige Lösung funktioniert bei mir nicht. Bei mir funktioniert nur dieser:
Optionen Bedeutung:
quelle
-H
Schalter. Dies hat verhindert, dass die erste Antwort (die ich vor dem Betrachten von SO ausprobiert habe) funktioniert.Für andere Szenarien mit paralleler Magie verwende ich:
quelle