Ich habe ein Webverzeichnis, das viele Ordner und viele Unterordner enthält, die Dateien enthalten.
Ich muss alles mit wget oder bash herunterladen.
Versuchen Sie: wget -r
und sehen Sie, ob das funktioniert.
Der beste Weg ist:
wget -m <url>
Welches ist die Abkürzung für wget "Spiegel":
-m, --mirror shortcut for -N -r -l inf --no-remove-listing.
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
Dieser Befehl lädt die Website www.website.org/tutorials/html/ herunter.
Die Optionen sind:
Oder probieren Sie die Lösung von Ubuntu.
wget --recursive
(oder was auch immer) hat bei mir nicht funktioniert (ich bin auf CentOS). lftp
erledigt:
lftp -c "open http://your.server/path/to/directory/; mirror"
Siehe Wget Recursive Retrieval .
quelle
Sie haben ein Webverzeichnis? Befindet es sich auf einem Remotecomputer und Sie können nur über HTTP darauf zugreifen, oder haben Sie Shell-Zugriff? Ihre Erwähnung von Bash impliziert Shell-Zugriff, es sei denn, Sie möchten wget über die Bash-Eingabeaufforderung verwenden.
Wget ist nicht immer sehr effizient. Wenn Sie also Shell-Zugriff auf den Computer haben, auf dem sich das Webverzeichnis befindet, und Sie es herunterladen möchten, können Sie dies tun
und übertragen Sie dann das Archiv mit ftp oder scp.
quelle
Sie können auch Folgendes versuchen, wenn Sie ein FTP-Konto haben:
quelle