Ist mein Befehl zum Klonen eines Laufwerks optimal?

16

Ich habe eine halbe Stunde herumgelesen, um mich darauf vorzubereiten, meine Festplatte zu klonen. Es verfügt über mehrere Partitionen, einschließlich einer Windows-Partition. Ich werde eine sehr große externe Festplatte für das Backup kaufen. Ich möchte in der Lage sein, diesen Klon zu verwenden, um das gesamte Laufwerk wiederherzustellen, falls etwas schief geht (ich bin dabei, das Betriebssystem neu zu mischen). Ich möchte lernen, wie man das mit dd macht, da ich einfache Tools mag, für die keine Installation erforderlich ist.

Ich habe den folgenden nützlichen Code aus den Ubuntu-Foren gefunden (von einer Root-Shell mit einer Live-CD eingegeben):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(Ich weiß, dass ich die Eingabe- und Ausgabepositionen bearbeiten muss.) Ich habe jedoch zwei Fragen. Der erste ist sehr neugierig: Dieser Befehl ist auf zwei Zeilen aufgeteilt. Sicher, wenn ich nach dem Ausrufezeichen die Eingabetaste drücke, wird der Vorgang gestartet?

Zweitens wurde auf anderen Websites die Eingabe der Blockgröße empfohlen. So was:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Ich weiß nichts über Blockgrößen. Ist 64K richtig? Es sieht so aus, als ob meine Blockgröße 512 Bytes beträgt. Dies ist die Ausgabe von sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Vielen Dank.

Kit Johnson
quelle
Hast du mal ein einfaches ausprobiert dd if=/dev/hda of=hdb? Hier ist eine Antwort, die einige Details einschließlich der Laufzeit für 160 GB zeigt: askubuntu.com/questions/435694/…
SDsolar
Neuere Versionen von Ubuntu verwenden Coreutils Version 8.24 oder höher, in der ddein Fortschrittsschalter enthalten ist, wie hier
Elder Geek

Antworten:

22

Fortschritt

Der von Ihnen aufgeführte Befehl

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

ist ein netter Zweizeiler, um ddregelmäßig den Fortschritt zu erfahren. Ich benutze auch eine sehr ähnliche. Sieht gut aus. Fand es vielleicht hier ?

Blockgrößen mit dd: Ausrichtung und Leistung

Sie können eine Blockgröße hinzufügen, in der die Vorgänge stattfinden. Es spielt keine Rolle, wie groß der Block des zugrunde liegenden Blockgeräts ist, um die Operation gleich gut durchzuführen. Aus Leistungsgründen sollten Sie jedoch einen auswählen, der Ihren Anforderungen entspricht.

Zuallererst gibt es die Ausrichtungssache . Falls Ihr Block-Gerät mit 512 KB arbeitet (wie Flash-Laufwerke), wäre es sehr unglücklich, ddmit bs=512(Bytes) zu arbeiten, da dies aus Sicht des Geräts 1024 Schreibvorgänge (!) Für jeden Block verursacht. In der Praxis wird es nicht so schlimm sein, da Schreibvorgänge gepuffert und in einem Durchgang ausgeführt werden, aber während der Synchronisierung kann die Anzahl der Schreibvorgänge immer noch erheblich gesteigert werden .

Berücksichtigen Sie dann auch den normalen CPU-Mehraufwand, wenn Sie mit sehr vielen kleinen Vorgängen arbeiten. Es ist nur effizienter, Megabyte auf einmal zu benötigen, wenn Sie große Datenmengen kopieren.

Meine beste Praxis ist, mit 1 MB zu beginnen, da dies ein nettes Vielfaches der meisten Setups ist, einschließlich RAID-Stripe-Größen, LVM-Extent-Größen usw. Auf meinem Laptop mit SSD sehe ich eine leichte Verbesserung bei Verwendung von 10 MB als Blockgröße, während ich sehe es nicht mehr auf meiner physischen Festplatte.

Letzter Block

Machen Sie sich keine Sorgen, dass die Größe des Laufwerks / Volumes nicht ein Vielfaches der Blockgröße ist. Der letzte zu ddkopierende Block wird so angepasst, dass er mit dem letzten Datenbit übereinstimmt. Ob der letzte Block eine andere Größe hatte, können Sie an der Ausgabe erkennen.

18335302+0 records out

Das +0heißt, es war eine exakte Übereinstimmung, a+1 heißt, es war keine . Keine große Sache.

Siehe auch

gertvdijk
quelle
1
Wow, was für eine gründliche Antwort. Vielen Dank, dass Sie sich die Zeit dafür genommen haben. Ich werde die ursprüngliche Frage mit einem Link zu meiner Quelle aktualisieren. Ich werde dann mit 1 MB gehen. Also wird mein Befehl so sein, habe ich recht? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Kit Johnson
2
@oldmankit Ich würde tun bs=1M, was eine Potenz von 2 ist, anstatt bs=1MBeine Potenz von 10. Führen Sie jedoch nur einige Benchmarks auf Ihrem System aus, um zu sehen, was das Beste ist.
Gertvdijk
4
Beachten Sie, dass es, wie hier erwähnt , seit der Veröffentlichung von coreutils> = 8.24 (Standard in Ubuntu Xenial 16.04 oder höher) nicht mehr erforderlich kill -USR1 $pidist, einen Fortschrittsbericht zu erstellen, indem Sie den status=progressSchalter
Elder Geek
10

Wie andere gesagt haben, gibt es keine universell korrekte Blockgröße; Was für eine Situation oder ein Teil der Hardware optimal ist, kann für ein anderes schrecklich ineffizient sein. Abhängig vom Zustand der Festplatten kann es auch vorzuziehen sein, eine andere Blockgröße als die "optimale" zu verwenden.

Eine Sache, die auf moderner Hardware ziemlich zuverlässig ist, ist, dass die Standardblockgröße von 512 Bytes fast eine Größenordnung langsamer ist als eine optimalere Alternative. Im Zweifelsfall habe ich festgestellt, dass 64K ein ziemlich solider moderner Standard ist. Obwohl 64K normalerweise nicht DIE optimale Blockgröße ist, ist es meiner Erfahrung nach viel effizienter als die Standardgröße. 64K hat auch eine ziemlich solide Erfolgsgeschichte: Sie finden eine Nachricht in der Eug-Lug-Mailingliste ca. 2002, in der eine Blockgröße von 64K empfohlen wird.

Um DIE optimale Ausgabeblockgröße zu bestimmen, habe ich das folgende Skript geschrieben, das das Schreiben einer 128-MB-Testdatei mit dd in einem Bereich von verschiedenen Blockgrößen testet, von standardmäßig 512 Byte bis maximal 64 MB. Seien Sie gewarnt, dieses Skript verwendet dd intern. Seien Sie also vorsichtig.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Auf GitHub ansehen

Ich habe dieses Skript nur auf einem Debian (Ubuntu) -System und unter OSX Yosemite getestet, daher werden wahrscheinlich einige Anpassungen erforderlich sein, um an anderen Unix-Versionen zu arbeiten.

Standardmäßig erstellt der Befehl eine Testdatei mit dem Namen dd_obs_testfileim aktuellen Verzeichnis. Alternativ können Sie einen Pfad zu einer benutzerdefinierten Testdatei angeben, indem Sie einen Pfad nach dem Skriptnamen angeben:

$ ./dd_obs_test.sh /path/to/disk/test_file

Die Ausgabe des Skripts ist eine Liste der getesteten Blockgrößen und ihrer jeweiligen Übertragungsraten wie folgt:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Hinweis: Die Einheit der Übertragungsraten variiert je nach Betriebssystem.)

Um die optimale Leseblockgröße zu testen, könnten Sie mehr oder weniger den gleichen Prozess verwenden, aber anstatt von /dev/zeroder Festplatte zu lesen und auf die Festplatte zu schreiben, würden Sie von der Festplatte lesen und darauf schreiben /dev/null. Ein Skript dafür könnte so aussehen:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Auf GitHub ansehen

Ein wichtiger Unterschied in diesem Fall ist, dass die Testdatei eine Datei ist, die vom Skript geschrieben wird. Richten Sie diesen Befehl nicht auf eine vorhandene Datei, da sonst die vorhandene Datei mit zufälligen Daten überschrieben wird!

Für meine spezielle Hardware stellte ich fest, dass 128 KB die optimalste Eingangsblockgröße auf einer Festplatte und 32 KB die optimalste auf einer SSD war.

Obwohl diese Antwort die meisten meiner Ergebnisse abdeckt, musste ich die optimale Größe des dd-Blocks so oft bestimmen, dass ich einen Blog-Post darüber schrieb . Weitere Einzelheiten zu den dort durchgeführten Tests finden Sie hier.

Dieser StackOverflow-Beitrag kann auch nützlich sein: dd: Wie berechnet man die optimale Blockgröße?

tdg5
quelle
Bringe
@ tdg5 Dies ist ein großartiges Skript, bei dessen Ausführung in Cygwin unter Windows 7 treten jedoch schwerwiegende Fehler auf. Gibt es eine Version davon, die auf Cygwin funktioniert?
Hashim