Wie füge ich ein Laufwerk erneut hinzu, wenn sich RAID im herabgesetzten Modus befindet?

11

Ich verwende einen nicht verwalteten Ubuntu-Server und habe aufgrund eines kürzlich aufgetretenen Leistungsproblems eine Anfrage an den Anbieter gesendet, um nur die folgende Antwort zu erhalten:

"Sehr geehrter Kunde,

Wie gewünscht haben wir Ihre Laufwerke überprüft. Beide Laufwerke bestehen einen fehlerfreien Test und zeigen hier keinen kritischen Wert. Wir haben festgestellt, dass der RAID-Status beeinträchtigt ist. Daher müssen Sie das Laufwerk hier erneut zum Array hinzufügen:

-----------------%<-----------------
Personalities : [raid1]
md3 : active raid1 sda4[0]
      1839089920 blocks super 1.2 [2/1] [U_]

md2 : active raid1 sda3[0]
      1073610560 blocks super 1.2 [2/1] [U_]

md1 : active raid1 sda2[0]
      523968 blocks super 1.2 [2/1] [U_]

md0 : active raid1 sda1[0]
      16768896 blocks super 1.2 [2/1] [U_]

unused devices: <none>
-----------------%<-----------------"

Laut Google weist U_ auf ein ausgefallenes Laufwerk hin, was im Widerspruch zu den Angaben des Supports zu stehen scheint. Wie gehe ich von hier aus vor?

Etwas wie

mdadm /dev/mdX -r /dev/sdaY  
mdadm /dev/mdX -a /dev/sdaY  

Und wenn ja, was ist X und Y für meinen Fall? Wenn weitere Informationen zu meiner Konfiguration benötigt werden, lassen Sie es mich bitte wissen.

EDIT, weitere Infos unten:

root@Ubuntu-1204-precise-64-minimal /home # df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/md2       1008G   26G  931G   3% /
none            4.0K     0  4.0K   0% /sys/fs/cgroup
udev             16G  4.0K   16G   1% /dev
tmpfs           3.2G  504K  3.2G   1% /run
none            5.0M     0  5.0M   0% /run/lock
none             16G     0   16G   0% /run/shm
none            100M     0  100M   0% /run/user
/dev/md1        488M   66M  397M  15% /boot
/dev/md3        1.7T   31G  1.6T   2% /home

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:41 2013
     Raid Level : raid1
     Array Size : 16768896 (15.99 GiB 17.17 GB)
  Used Dev Size : 16768896 (15.99 GiB 17.17 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 03:50:13 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:0
           UUID : 872ad258:c42ccb36:e9e19c96:98b55ee9
         Events : 816844

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:41 2013
     Raid Level : raid1
     Array Size : 523968 (511.77 MiB 536.54 MB)
  Used Dev Size : 523968 (511.77 MiB 536.54 MB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:30:55 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:1
           UUID : 18cb39fc:9eaea61c:0074a6c2:661b5862
         Events : 387

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:42 2013
     Raid Level : raid1
     Array Size : 1073610560 (1023.87 GiB 1099.38 GB)
  Used Dev Size : 1073610560 (1023.87 GiB 1099.38 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:58:52 2016
          State : active, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:2
           UUID : eb9be750:7ff778b4:31fd7ce9:9d86d191
         Events : 38799724

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md3
/dev/md3:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:42 2013
     Raid Level : raid1
     Array Size : 1839089920 (1753.89 GiB 1883.23 GB)
  Used Dev Size : 1839089920 (1753.89 GiB 1883.23 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:57:41 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:3
           UUID : c9b748ef:332d3bf9:5fa8fef1:5b433b0a
         Events : 7429895

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed
Kapitän Eidechse
quelle
Suchen Sie nach einer Möglichkeit, dieses Laufwerksproblem zu beheben, oder wie Sie mit der Support-Antwort umgehen können?
Tolsadus
Bitte beachten Sie, dass ich Ihre Rechtschreibkorrektur zurückgesetzt habe (gelesen wird wirklich gelesen oder erneut hinzugefügt, nicht gelesen).
Kapitän Eidechse
1
Wenn der Controller ein Laufwerk aus dem Array ausgeworfen hat, habe ich niemals eine Festplatte zurückgeschoben, auch wenn kein schwerer Fehler angezeigt wird. Ich habe bereits ein fehlerfreies Laufwerk gesehen, das die Array-Daten beschädigt hat.
Yagmoth555

Antworten:

11

Hinzufügen eines RAID 1-Mitglieds

Verwenden Sie Folgendes, um ein RAID-Mitglied wieder zum Array hinzuzufügen:

mdadm <RAID Device> -a <Device to add into the array>

Zum Beispiel:

$ mdadm /dev/md0 -a /dev/sdc1
mdadm: re-added /dev/sdc1

Wenn Sie erneut mit mdadm --detail prüfen, wird / dev / sdc1 als "Neuerstellung" angezeigt:

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   2       8       33        1      spare rebuilding   /dev/sdc1

Dies bedeutet, dass das neu hinzugefügte Mitglied mit den Daten des anderen Mitglieds synchronisiert wird. Wenn Sie jetzt proc / mdstat überprüfen, können Sie den Synchronisierungsfortschritt als Prozentsatz und Balkendiagramm anzeigen:

$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdc1[2] sdb1[0]
      976759936 blocks [2/1] [U_]
      [>....................]  recovery =  1.2% (12409024/976759936) finish=195.2min speed=82312K/sec

unused devices: <none>

Stellen Sie sicher, dass Ihre Dateien nach dem Hinzufügen des neuen RAID-Mitglieds weiterhin auf dem RAID-Laufwerk angezeigt werden:

$ ls /mnt/raid1
Music  lost+found  Images Films Misc
Tolsadus
quelle
Vielen Dank, aber in diesem Tutorial wird davon ausgegangen, dass nur eine Disc ausgefallen ist, aber in meiner Konfiguration haben alle Discs U_ und keine UU. Ich habe den Beitrag mit mehr Infos bearbeitet.
Kapitän Eidechse
aplawrence.com/Linux/rebuildraid.html fühlt sich Ihrem Szenario näher?
Tolsadus
Wenn Sie
zfs ausführen
1

Ich habe mein eigenes Problem gelöst. Ich habe nicht verstanden, dass mdX Partitionen sind und sda und sdb tatsächliche physische Datenträger sind. Da SDB fehlte, musste ich es wieder hinzufügen. Ich habe folgende Befehle ausgeführt:

sgdisk -R /dev/sdb /dev/sda
sgdisk -G /dev/sdb
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
mdadm /dev/md2 -a /dev/sdb3
mdadm /dev/md3 -a /dev/sdb4

Nach einem Tag der Resynchronisation (kann beobachtet werden mit)

cat /proc/mdstat

Was ich heute sehe, sieht wieder gut aus:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sdb4[2] sda4[0]
      1839089920 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb2[2] sda2[0]
      523968 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sdb3[2] sda3[0]
      1073610560 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sdb1[2] sda1[0]
      16768896 blocks super 1.2 [2/2] [UU]
Kapitän Eidechse
quelle
Herzliche Glückwünsche !
Tolsadus
0

Vor dem Hinzufügen des Antriebs , wie durch @Tolsadus eine gute Idee vorgeschlagen , um das Laufwerk Gesundheit zu überprüfen mit smartmontools von kurzen und langen Tests ausführen:

Zunächst müssen Sie sicherstellen, dass die Festplatte SMART unterstützt und aktiviert ist:

smartctl -i /dev/sdb

Kurztest:

smartctl -t short /dev/sdb

langer Test:

smartctl -l selftest /dev/sdb

Vikelidis Kostas
quelle
Ich habe das erst jetzt gesehen. Kann ich diese Tests möglicherweise ausführen, nachdem ich sdb hinzugefügt habe? Im Moment scheint alles in Ordnung zu sein.
Kapitän Eidechse
Ja, Sie können dies nach dem Hinzufügen der Festplatte
Vikelidis Kostas