mdadm: Bricht den Start aufgrund des Fehlers "ist noch nicht fertig oder nicht vorhanden" ab

7

Das ist so verdammt frustrierend: - | Ich habe ungefähr 20 Stunden mit diesem netten Fehler verbracht und scheint auch über das Internet wie Dutzende von Menschen zu sein, und es gibt noch keine klare Lösung.

Ich habe Nicht-System-RAID-5 von 5 Festplatten, und es ist in Ordnung. Während des Startvorgangs wird jedoch angezeigt, dass "/ dev / md0 noch nicht bereit oder nicht vorhanden ist", und es wird aufgefordert, 'S' zu drücken. Sehr schön für Ubuntu Server - ich muss Monitor und Tastatur mitbringen, um als nächstes zu gehen.

Nachdem dieses System gestartet wurde, ist alles in Ordnung. md0 Gerät funktioniert, / proc / mdstat ist in Ordnung. Wenn ich -a einbinde, wird dieses Array fehlerfrei bereitgestellt und funktioniert einwandfrei.


Als dumme und beschämende Problemumgehung habe ich noauto in / etc / fstab hinzugefügt und in /etc/rc.local gemountet - dann funktioniert es einwandfrei.

Irgendwelche Tipps, wie es richtig funktioniert?


fstab :

UUID=3588dfed-47ae-4c32-9855-2d69df713b86 /var/bigfatdisk ext4 noauto,noatime,data=writeback,barrier=0,nobh,commit=5 0 0

mdadm config : Es wird automatisch generiert :

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR CENSORED

# definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 bitmap=/var/md0_intent UUID=efccbeb6:a0a65cd6:470dcdf3:62781188 name=LBox2:0

# This file was auto-generated on Mon, 10 Jan 2011 04:06:55 +0200
# by mkconf 3.1.2-2

Partitionen:

root@LBox2:/home/px# cat /proc/partitions
major minor  #blocks  name

   8        0  976762584 sda
   8        1  976562483 sda1
   8        2     131072 sda2
   8       16  976762584 sdb
   8       17  976562483 sdb1
   8       18     131072 sdb2
   8       32   78150744 sdc
   8       33   74919096 sdc1
   8       34          1 sdc2
   8       37    3229033 sdc5
   8       48  976762584 sdd
   8       49  976562483 sdd1
   8       50     131072 sdd2
   8       64  976762584 sde
   8       65  976655593 sde1
   8       80  976762584 sdf
   8       81  976655593 sdf1
   9        0 2929683456 md0

mdstat:

root@LBox2:/home/px# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid6 sda1[0] sdd1[4] sde1[5] sdf1[2] sdb1[1]
      2929683456 blocks super 1.2 level 6, 1024k chunk, algorithm 2 [5/5] [UUUUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk, file: /var/md0_intent

unused devices: <none>
BarsMonster
quelle
Können Sie die Ausgabe von /proc/partitionsund /proc/mdstatvon dem gebooteten System einbeziehen? Dies klingt nach einer Rennbedingung mit mdadm beim Booten.
Kees Cook
@ Kees Cook - es ist aktualisiert.
BarsMonster

Antworten:

6

Ich hatte gelegentlich das gleiche Problem auf meinem kopflosen Server und habe es behoben, indem ich die nobootwaitOption in angehängt habe /etc/fstab:

/dev/md0    /mnt/raid   ext4    defaults,noatime,nobootwait 0   0

Es weist den Startvorgang an, nicht auf das RAID zu warten, aber das RAID ist immer verfügbar, wenn ich in die Box ssh kann. Im Prinzip unterscheidet es sich nicht allzu sehr von dem, was Sie bereits tun, aber Sie müssen die Mount-Logik nicht auf zwei verschiedene Dateien verteilen.

Es gibt einen Fehlerbericht über das System, das beim Booten hängt, es nobootwaitsei denn, es handelt sich um die letzte Mount-Option. Diese wurde jedoch vermutlich zum Zeitpunkt der 10.10-Version behoben.

Siehe auch Wie kann ich die „S zu überspringen“ Nachricht beim Booten vermeiden .

jg-faustus
quelle
Endlich ein paar Fortschritte :-) Ich werde das heute Abend versuchen und wenn es funktioniert - WhoHooooo!
BarsMonster
1

Sie versuchen, /dev/md0automatisch zu starten oder zu mounten , aber es scheint, dass Sie einen anderen Namen für den Raid in Ihrem mdadm.conf:

...existing MD arrays
ARRAY /dev**/md/0** metadata=1.2 bitmap=/var/md0_intent 
UUID=efccbeb6:a0a65cd6:470dcdf3:62781188 name=LBox2:0

Benennen Sie das Array in md0statt um md/0.

Verwenden Sie die Assemble-Skriptzeile mit: --name=md0 --update=name

nitram2037
quelle