Wie würde ich eine Liste von Dateien von einem Dateiserver wie diesem herunterladen http://www.apache.org/dist/httpd/binaries/ ?
Ich nehme an, ich könnte wget verwenden, aber dann wird versucht, alle Links und auch die HTML-Datei abzurufen. Gibt es ein besseres Werkzeug, um dies zu erreichen?
download
apache-http-server
wget
BinaryMisfit
quelle
quelle
Antworten:
Sie können angeben, welche Dateierweiterungen
wget
beim Crawlen von Seiten heruntergeladen werden sollen:Dies wird eine rekursive Suche und nur Download - Dateien mit den durchführt
.zip
,.rpm
und.tar.gz
Erweiterungen.quelle
Angenommen, Sie möchten wirklich nur eine Liste der Dateien auf dem Server, ohne sie (noch) abzurufen:
während 'filter.awk' so aussieht
dann müssen Sie möglicherweise einige Einträge wie herausfiltern
quelle
Ref: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Sie können folgenden Befehl verwenden:
Erläuterung zu den einzelnen Optionen
wget
: Einfacher Befehl zum Erstellen einer CURL-Anforderung und zum Herunterladen von Remote-Dateien auf unseren lokalen Computer.--execute="robots = off"
: Dadurch wird die Datei robots.txt beim Crawlen durch Seiten ignoriert. Es ist hilfreich, wenn Sie nicht alle Dateien erhalten.--mirror
: Diese Option spiegelt im Wesentlichen die Verzeichnisstruktur für die angegebene URL wider. Es ist eine Abkürzung für-N -r -l inf --no-remove-listing
die bedeutet:-N
: Dateien nicht erneut abrufen, es sei denn, sie sind neuer als lokal-r
: Geben Sie den rekursiven Download an-l inf
: maximale Rekursionstiefe (inf oder 0 für unendlich)--no-remove-listing
: Entfernen Sie keine '.listing'-Dateien--convert-links
: Stellen Sie Links in heruntergeladenem HTML oder CSS auf lokale Dateien--no-parent
: Steigen Sie nicht in das übergeordnete Verzeichnis auf--wait=5
: Warten Sie zwischen den Abrufen 5 Sekunden. Damit wir den Server nicht verprügeln.<website-url>
: Dies ist die Website-URL, von der die Dateien heruntergeladen werden können.Viel Spaß beim Herunterladen: smiley:
quelle