Wie können Sie mit wget eine gesamte Site (Domain A) herunterladen, wenn sich ihre Ressourcen in einer anderen Domain befinden (Domain B)? Ich habe es versucht: wget -r --level=inf -p -k -E --domains=domainA,domainB
Wie können Sie mit wget eine gesamte Site (Domain A) herunterladen, wenn sich ihre Ressourcen in einer anderen Domain befinden (Domain B)? Ich habe es versucht: wget -r --level=inf -p -k -E --domains=domainA,domainB
Ich benutze, wget --mirror --html-extension --convert-linksum eine Site zu spiegeln, aber am Ende habe ich viele Dateinamen im Format post.php?id=#.html. Wenn ich versuche, diese in einem Browser anzuzeigen, schlägt dies fehl, da der Browser die Abfragezeichenfolge beim Laden der Datei ignoriert....
wget --load-cookiesLädt Cookies als "Textdatei in dem Format, das ursprünglich von der Netscape-Datei cookies.txt verwendet wurde". Firefox speichert seine Cookies jedoch in einer SQLite- Datenbank. Gibt es eine Möglichkeit, die Datei "cookies.txt" von Netscape aus der Firefox- cookies.sqliteDatei...
Ich möchte einen Tarball dieser Python-Bibliothek aus dem Terminal holen. https://github.com/simplegeo/python-oauth2/downloads Ich kann aber nicht einfach anrufen wget https://github.com/simplegeo/python-oauth2/tarball/master weil dadurch eine Webseite abgerufen wird. Wie rufe ich diese...
Ich habe eine Website und möchte alle Seiten / Links auf dieser Website herunterladen. Ich möchte einen wget -rauf dieser URL machen. Keiner der Links geht "außerhalb" dieses spezifischen Verzeichnisses, daher mache ich mir keine Sorgen, das gesamte Internet herunterzuladen. Wie sich herausstellt,...
Ich versuche, einige Dateien von meinem FTP-Server über die Befehlszeile abzurufen. Ich verwende wget, um den gesamten Ordner auf einmal herunterzuladen. Der Befehl lautet: wget -m ftp://username:[email protected]:/path/to/folder Das Problem ist aber, dass mein Passwort das '@' Symbol...
Ich verwende Linux Mint 15 Cinnamon auf einem 8-GB-Pendrive. Ich möchte die ISO für 'Linux Mint 14 “Nadia” KDE' bekommen. Ich habe versucht, wgetim Terminal zu verwenden. Hier ist genau das, was ich eingegeben habe: wget
Grundsätzlich möchte ich eine ganze Site mit Wget crawlen, aber ich muss NIEMALS andere Assets (z. B. Bilder, CSS, JS usw.) herunterladen. Ich möchte nur die HTML-Dateien. Google-Suchen sind völlig nutzlos. Hier ist ein Befehl, den ich ausprobiert habe: wget --limit-rate=200k --no-clobber...
Wenn ich wget "no such address" -o "test.html" schreibe, wird zuerst die test.html erstellt und im Fehlerfall leer gelassen. Wenn Sie -o jedoch nicht verwenden, wird abgewartet, ob der Download erfolgreich war. Erst danach wird die Datei geschrieben. Ich möchte, dass das letztere Verhalten auch auf...
Wie weisen Sie wget an, eine Website rekursiv zu crawlen und nur bestimmte Arten von Bildern herunterzuladen? Ich habe versucht, damit eine Site zu crawlen und nur JPEG-Bilder herunterzuladen: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories...
Ich habe ein Webverzeichnis, das viele Ordner und viele Unterordner enthält, die Dateien enthalten. Ich muss alles mit wget oder bash
Ich weiß, dass Sie Webseiten rekursiv mit herunterladen können wget, aber ist es möglich, einen Probelauf durchzuführen? Damit Sie einen Testlauf durchführen können, um zu sehen, wie viel heruntergeladen wird, wenn Sie es tatsächlich tun? Denken Sie an Seiten, die viele Links zu Mediendateien...
Ich habe eine ziemlich große Datei auf fünf verschiedenen Servern gehostet. Ich möchte in der Lage sein, verschiedene Teile der Datei von jedem Server herunterzuladen und anschließend die Teile zu verketten, um die Originaldatei zu erstellen. Gibt es eine Möglichkeit, dies mit curl / wget oder...
Ich versuche, wget zu verwenden, um einen lokalen Spiegel einer Website zu erstellen. Aber ich stelle fest, dass ich nicht alle verlinkten Seiten bekomme. Hier ist die Website http://web.archive.org/web/20110722080716/http://cst-www.nrl.navy.mil/lattice/ Ich möchte nicht alle Seiten, die mit...
Ich versuche, zwei Websites zur Aufnahme auf eine CD herunterzuladen: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info Das Problem, das ich habe, ist, dass dies beide Wikis sind. Also beim Herunterladen mit zB: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ Ich...
Wenn ohne Parameter meine wgetDrucke ausgeführt: D:\>wget SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc syswgetrc = c:/progra~1/wget/etc/wgetrc D:\Apps\Util\wget: missing URL Usage: D:\Apps\Util\wget [OPTION]... [URL]... Try `D:\Apps\Util\wget --help' for more options. Dies bedeutet...
Okay, ich gebe auf. Wie kann ich die Größe der heruntergeladenen Dateien begrenzen, z. B. wenn ich keine Dateien mit mehr als 2 MB
Wie kann ich ein Bash-Skript schreiben, das Folgendes ausführt: URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done Ich muss also eine Reihe von Schleifen ausführen, eine URL, die mit einer Nummer aus der Schleife endet. Ich...
Stellen Sie sich vor, ich möchte, dass eine einfache Seitenkopie zur dauerhaften Aufbewahrung auf meine Festplatte heruntergeladen wird. Ich suche nicht nach einem tiefen rekursiven Abruf, sondern nur nach einer einzelnen Seite, sondern auch nach Ressourcen, die von dieser Seite geladen werden, um...
Ich versuche, eine URL herunterzuladen , die wie folgt ist http://www.somesite.com/restaurants.html#photo=22x00085. Ich habe es zwischen einfache Anführungszeichen gesetzt, aber es lädt nur http://www.somesite.com/restaurants.html herunter, was nicht die richtige Seite ist. Gibt es eine...