Ich lade mit wgeteinem langsamen Link herunter . Manchmal sieht der Fortschrittsbalken so aus: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Was bedeutet
Ich lade mit wgeteinem langsamen Link herunter . Manchmal sieht der Fortschrittsbalken so aus: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Was bedeutet
Ich habe derzeit ein Shell-Skript auf einem Linux-Server, der wget in verwendet, um eine Remote-Webseite herunterzuladen. Dies wird wiederum von einem Cron-Job ausgeführt, dessen Ausführung zu bestimmten Zeiten geplant ist. Kann jemand bitte bestätigen, dass das Hinzufügen der -qOption nicht nur...
Ich habe mich gefragt, ob wgetes möglich ist, ein RPM herunterzuladen und es dann sudo rpm -iin einer einzigen Zeile zu installieren. Mir ist klar, dass ich einfach rennen könnte: wget -c <URL> sudo rpm -i <PACKAGE-NAME>.rpm Um das Paket zu installieren, habe ich mich gefragt, ob es...
Ich bin auf diese Website gestoßen, die darüber spricht. Was ist also der richtige Befehl, wenn Sie die gesamte Website mit der komprimierten Version herunterladen? Ich habe diesen Befehl getestet, aber ich weiß nicht, ob ich wirklich die komprimierte Version bekommen werde: wget...
Wie kann ich wget verwenden, um Dateien von Onedrive herunterzuladen? (und Batch-Dateien und ganze Ordner, falls
Wenn ich wget auf einer Webseite versuche, erhalte ich die Seite als HTML. Ist es möglich, nur Text einer Datei ohne zugehöriges HTML abzurufen? (Dies ist für mich erforderlich, da einige der HTML-Seiten das Programm c enthalten, das mit HTML-Tags heruntergeladen wird. Ich muss es im Browser öffnen...
Ich bin an einem einzelnen Befehl interessiert, der den Inhalt eines Torrents herunterlädt (und möglicherweise als Startwert nach dem Herunterladen teilnimmt, bis ich ihn beende). Normalerweise gibt es einen Torrent-Client-Daemon, der zuvor separat gestartet werden sollte, und einen Client, der...
Ich versuche, Dateien von dieser Website herunterzuladen . Die URL lautet: http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Wenn ich diesen Befehl verwende: wget http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Ich bekomme nur
Ich habe nur puf (Parallel URL Fetcher) gefunden, konnte aber keine URLs aus einer Datei lesen. etwas wie puf < urls.txt geht auch nicht. Das auf dem Server installierte Betriebssystem ist
Grundsätzlich möchte ich einen wgetBefehl über SSH an eine Datei auf einem Remote-Server leiten. Wie kann ich das machen? Ich weiß, dass ich sshdie Datei einfach auf den Server herunterladen und herunterladen lassen könnte, aber ich würde es vorziehen, den lokalen Computer zu verwenden, um sie...
Ich schreibe ein Skript zum Herunterladen und Bearbeiten einer Datei und möchte sicherstellen, dass die Datei nicht unvollständig ist (z. B. aufgrund einer unterbrochenen Verbindung), bevor ich daran
Ich möchte wget(von einem PHP-Skript) zum Herunterladen von Bilddateien verwenden, möchte jedoch keine Dateien über eine bestimmte Größe herunterladen. Kann ich die Dateigröße mit einschränken wget? Wenn nicht, was ist ein besserer
Ich möchte Links unter www.website.com/XYZ crawlen und nur die Links unter www.website.com/ABC herunterladen. Ich benutze den folgenden Befehl wget, um die gewünschten Dateien zu erhalten: wget -I ABC -r -e robots=off --wait 0.25 http://www.website.com/XYZ Dies funktioniert einwandfrei, wenn ich...
Ich führe im folgenden Bash-Skript Tausende von Curl- Hintergrundprozessen parallel aus START=$(date +%s) for i in {1..100000} do curl -s "http://some_url_here/"$i > $i.txt& END=$(date +%s) DIFF=$(( $END - $START )) echo "It took $DIFF seconds" done Ich habe 49 GB Corei7-920 dedizierten...
Ich ging sshzu meinem Server und lief wget -r -np zzz.aaa/bbb/cccund es fing an zu arbeiten. Dann meine Internetverbindung (bei mir zu Hause) bekam unterbrochen und ich habe gesorgt davon aus, dass wgetwurde hupped , weil die sshVerbindung unterbrochen wurde und deshalb hatte das Terminal...
Ich möchte einfach in der Lage sein, ein Dropbox-Dateisystem zu erkunden, ohne viel zusätzliche Belastung für CPU, Speicher und Speicher (dh ohne Kopien der Remote-Dateien lokal zu speichern). Es scheint, dass der offizielle Client viel Ressourcen verbraucht (und unnötige Vorgänge wie das...
Ich verwende wget, um eine statische HTML-Seite herunterzuladen. Der W3C Validator teilt mir mit, dass die Seite in UTF-8 codiert ist. Doch wenn ich die Datei nach dem Download kate, bekomme ich eine Menge binären Blödsinn. Ich bin auf Ubuntu und dachte, die Standardkodierung wäre UTF-8? Das...
Ich habe eine Site auf einem Server, die im Grunde genommen aus einer Reihe von HTML-Seiten, Bildern und Sounds besteht. Ich habe mein Passwort für diesen Server verloren und muss alles abrufen, was dort gespeichert ist. Ich kann Seite für Seite gehen und alles speichern, aber die Site hat mehr als...
Wenn Sie die Klammererweiterung mit verwenden wget, können Sie problemlos fortlaufend nummerierte Bilder abrufen: $ wget 'http://www.iqandreas.com/sample-images/100-100-color/'{90..110}'.jpg' Es holt die ersten 10 Dateien nummerierten , 90.jpgum 99.jpgganz gut, aber 100.jpgund weiter gibt einen...
Ich lade Daten herunter, die auf mehrere Dateien verteilt sind, die sich nach der Veröffentlichung nicht ändern. Daher --timestampingist es nicht gut genug, weil ständig überprüft wird, welche Ressource geändert wird, was in meinem Fall völlig sinnlos ist. --no-clobberwürde perfekt passen. Leider...