Ich möchte eine ganze Website (mit Unterseiten) herunterladen. Gibt es dafür ein Werkzeug?
software-recommendation
UAdapter
quelle
quelle
--convert-links
Hinweis: Wenn Sie nur Links folgen (z. B. in wget verwenden), werden Websites, die unter anderem nur durch das Absenden eines Formulars angezeigt werden, nicht angezeigt.Antworten:
Probieren Sie Beispiel 10 von hier aus :
–mirror
: Optionen für das Spiegeln aktivieren.-p
: Laden Sie alle Dateien herunter, die für die korrekte Anzeige einer bestimmten HTML-Seite erforderlich sind.--convert-links
: Konvertieren Sie nach dem Download die Links im Dokument für die lokale Anzeige.-P ./LOCAL-DIR
: Speichern Sie alle Dateien und Verzeichnisse im angegebenen Verzeichnis.quelle
--wait=seconds
Argument verwenden, wenn Sie der Site freundlicher gegenüberstehen möchten. Es wird die angegebene Anzahl von Sekunden zwischen den Abrufen gewartet.--no-parent
um "niemals in das übergeordnete Verzeichnis aufzusteigen" wird von hier ausgegangen .httrack ist das Tool, das Sie suchen.
quelle
Wenn
wget
Sie eine gesamte Website herunterladen können, sollten Sie-r
switch für einen rekursiven Download verwenden. Zum Beispiel,quelle
WEBHTTRACK WEBSITE COPIER ist ein praktisches Tool zum Herunterladen einer ganzen Website auf Ihre Festplatte zum Offline-Browsen. Starten Sie ubuntu software center und geben Sie "webhttrack website copier" ohne die Anführungszeichen in das Suchfeld ein. Wählen Sie es aus dem Software-Center aus und laden Sie es auf Ihr System herunter. Starten Sie den webHTTrack entweder über den Laucher oder über das Startmenü. Von dort aus können Sie dieses großartige Tool für Ihre Site-Downloads nutzen
quelle
Ich kenne keine Subdomains, dh Sub-Sites, aber wget kann verwendet werden, um eine vollständige Site zu erstellen. Werfen Sie einen Blick auf diese Superuser-Frage . Es heißt, dass Sie
-D domain1.com,domain2.com
verschiedene Domänen in einem einzigen Skript herunterladen können. Ich denke, Sie können diese Option zum Herunterladen von Subdomains verwenden, z-D site1.somesite.com,site2.somesite.com
quelle
Ich benutze Burp - das Spider-Tool ist viel intelligenter als Wget und kann so konfiguriert werden, dass bei Bedarf Abschnitte vermieden werden . Die Burp Suite selbst ist eine leistungsstarke Sammlung von Tools, die beim Testen helfen. Das Spider-Tool ist jedoch sehr effektiv.
quelle
Sie können Entire Website Command herunterladen:
Beispiel
quelle
Wenn die Geschwindigkeit eine Rolle spielt (und das Wohlbefinden des Servers nicht), können Sie puf ausprobieren , das wie wget funktioniert, aber mehrere Seiten gleichzeitig herunterladen kann. Es ist jedoch kein fertiges Produkt, nicht gewartet und fürchterlich undokumentiert. Zum Herunterladen einer Website mit vielen, vielen kleinen Dateien ist dies jedoch möglicherweise eine gute Option.
quelle