Ich versuche, mit dd die optimale Größe für eine große Kopie von meiner Festplatte zu ermitteln. Ich versuche herauszufinden, welche Blockgröße für die Verwendung am besten geeignet ist. Ich gehe davon aus, dass dies die Hardware-Blockgröße für dieses Laufwerk ist.
linux
hard-drive
dd
Flamme
quelle
quelle
Antworten:
Der Befehl lsblk ist hierfür hervorragend geeignet :
Die Ergebnisse:
quelle
Linux legt die physische Sektorgröße in Dateien offen
/sys/block/sdX/queue/physical_block_size
. Um die bestmögliche Leistung zu erzielen, sollten Sie jedoch einige Tests mit unterschiedlichen Größen und Maßen durchführen. Ich konnte nicht finden , eine klare Antwort , dass genau die physikalische Blockgröße würde das optimale Ergebnis erhalten (obwohl ich es annehmen kann keine schlechte Wahl sein).quelle
hdparm
wird dich wahrscheinlich anlügen.http://wayback.archive.org/web/20150921015457/https://nxadm.wordpress.com/2010/04/30/4096-physical-block-size-drives/
quelle
hdparm -I /dev/sda | grep Sector
ist schöner, da es sowohl physikalische als auch logische Größen gleichzeitig anzeigt, um einen einfachen Vergleich zu ermöglichen.Meins soll keine vollständige Antwort sein, aber ich hoffe, es hilft auch.
Hier ist etwas von http://mark.koli.ch/2009/05/howto-whole-disk-backups-with-dd-gzip-and-p7zip.html
3 - Bestimmen Sie die geeignete Blockgröße
Für eine schnellere Sicherung kann es hilfreich sein, die optimale Blockgröße des zu sichernden Plattengeräts festzulegen. Angenommen, Sie möchten / dev / sda sichern, dann können Sie mit dem Befehl fdisk die beste Blockgröße ermitteln:
Beachten Sie, dass die fdisk-Ausgabe "cylinder of 16065 * 512" anzeigt. Dies bedeutet, dass sich 512 Bytes pro Block auf der Festplatte befinden. Sie können die Geschwindigkeit der Sicherung erheblich verbessern, indem Sie die Blockgröße um ein Vielfaches von 2 bis 4 erhöhen. In diesem Fall beträgt die optimale Blockgröße möglicherweise 1 KB (512 * 2) oder 2 KB (512 * 4). Übrigens hilft es nicht, gierig zu werden und eine Blockgröße von 5k (512 * 10) oder etwas übermäßigem zu verwenden. Schließlich wird das System Engpässe am Gerät selbst verursachen und Sie können keine zusätzliche Leistung aus dem Sicherungsprozess herausholen. (Betonung hinzugefügt)
Ich vermute, dass der Unterschied in der Leistung zwischen einer nahezu optimalen und einer optimalen Blockgröße für eine bestimmte Konfiguration vernachlässigbar ist, es sei denn, der Datensatz ist enorm. Ein Benutzer bei FixUnix (Beitrag von 2007) gab an, dass seine optimalen Zeiten nur 5% schneller waren als die suboptimalen. Vielleicht können Sie die Effizienz ein wenig steigern, indem Sie ein Vielfaches der "Cluster" - oder Dateisystemblockgröße verwenden.
Wenn Sie sich zu weit von der optimalen Blockgröße entfernen, treten natürlich Probleme auf.
Unter dem Strich werden Sie mit der absolut optimalen Blockgröße wahrscheinlich nur etwa 5% an Leistung (dh 3 Minuten pro Stunde) gewinnen. Überlegen Sie also, ob es Ihre Zeit und Mühe wert ist, weiter zu recherchieren. Solange Sie sich von Extremwerten fernhalten, sollten Sie nicht leiden.
quelle
echo "p" | /sbin/fdisk /dev/sda...
anstelle von/sbin/fdisk -l /dev/sda...
? Der zweite ist sauberer und versucht nicht, Änderungen vorzunehmen./sbin/fdisk -l /dev/sda | grep Units
. Es könnte in den letzten zwei Jahren geändert worden sein. Auf jeden Fall habe ich deine Antwort aktualisiert.Jede Datenträgerübertragung generiert einen Interrupt, den der Prozessor verarbeiten muss. Typische 50-MBit / s-Datenträger möchten 100.000 davon pro Sekunde bei einer Blockgröße von 512 KBit / s erzeugen. Ein normaler Prozessor würde Zehntausende davon verarbeiten. Eine größere (2-fache) Blockgröße wäre daher praktischer (4 KBit / s als Standard-FS-Blockgröße in den meisten Fällen) Systeme bis 64k ISA DMA-Größe) wären praktischer ...
quelle
Darüber hinaus können Sie die Ausgabe von
lshw
durchsehen, um andere Ergebnisse zu überprüfen (und auch, weilhdparm
meine Distribution anscheinend nicht verfügbar ist). Dies kann dazu beitragen, sie einzugrenzen:quelle