Also versuche ich / dev / md127 auf meiner Ubuntu 12.10 Box zu stoppen. Es wurde als RAID1 eingerichtet, aber ich versuche, alles (naja, umbenennen) auf md0 zu verschieben. Ich habe gelesen, dass ein Umbenennen nicht möglich ist, daher versuche ich, die Laufwerke zu entfernen und sie als md0 in ein neues Array einzufügen. Ich konnte ein Laufwerk (sdb) mit --fail und --remove entfernen, aber sdc reagiert nicht und md127 reagiert auch nicht auf --stop --force.
Ich habe fuser und lsof ausgeführt und mit md127 auch nichts angezeigt. Ich habe LVM auf md127 ausgeführt, aber ich habe die LVs umountet und "{lv, vg} change -an vg_Name" durchgeführt.
Ich weiß nicht, was ich als nächstes versuchen soll. Und für diejenigen, die wissen wollen, warum ich umbenennen / verschieben möchte, bin ich eine kleine Zwangsstörung über solche Dinge.
Wenn es relevant ist, sind hier die genauen Befehle, die ich verwendet habe, obwohl die Befehle zum Stoppen / Scheitern / Entfernen mehrmals versucht wurden:
mdadm --stop --force /dev/md127 # this failed with the error message "mdadm: Cannot get exclusive access to /dev/md127:Perhaps a running process, mounted filesystem or active volume group?"
fuser /dev/md127 # no output
lsof /dev/md127 # no output
mdadm --fail /dev/md127 /dev/sdb # succeeded
mdadm --remove /dev/md127 /dev/sdb # succeeded
mdadm --fail /dev/md127 /dev/sdc # this failed - "device or resource busy"
mdadm --remove /dev/md127 /dev/sdc # this failed - "device or resource busy"
lvchange -an vg_Name
vgchange -an vg_Name
mount
?Antworten:
Wenn Sie lediglich die Gerätenummer ändern möchten, fügen Sie das Array mit der folgenden Gerätenummer mit der folgenden Gerätenummer zu Ihrer Konfigurationsdatei hinzu:
Sobald Sie Ihren RAID in /etc/mdadm.conf abgelegt haben, starten Sie ihn einfach neu und der RAID sollte automatisch unter Verwendung der von Ihnen angegebenen Gerätenummer wieder zusammengesetzt werden. Dies hat den zusätzlichen Vorteil, dass sichergestellt wird, dass Ihr RAID bei jedem Start mit demselben Gerätenamen erstellt wird.
quelle
Wenn Sie LVM über mdadm verwenden, löscht LVM manchmal die Device Mapper-Geräte nicht, wenn die Datenträgergruppe deaktiviert wird. Sie können es manuell löschen.
sudo vgdisplay
./dev/mapper/
. Neben dercontrol
Datei sollte ein Device Mapper-Gerät vorhanden sein, das nach Ihrer Volume-Gruppe benannt ist, zVolGroupArray-name
.sudo dmsetup remove VolGroupArray-name
(VolGroupArray-name
durch den Namen des Device Mapper-Geräts ersetzen ).sudo mdadm --stop /dev/md0
(oder wie auch immer der Name desmdadm
Geräts lautet).quelle
Können Sie bitte die Ausgabe der folgenden Befehle einfügen?
mdadm -D /dev/md127
mdadm -E /dev/sdc
cat /proc/mdstat
Bitte beachten Sie, dass es möglich ist, den Raid "umzubenennen". Das Umbenennen hängt in diesem Fall von der Superblock-Version ab, die Ihr Raid verwendet.
Um einen Superblock 0.90-Raid umzubenennen, sollten Sie den folgenden Befehl verwenden:
mdadm -A /dev/md0 -U super-minor -u <uuid of the array>
Um einen Superblock 1.X-Raid umzubenennen, sollten Sie den folgenden Befehl verwenden:
mdadm -A /dev/md0 -U name -N <new name> -u <uuid of the array>
Können Sie mir bitte erklären, warum Sie es umbenennen möchten, da ich es nicht verstanden habe? Der Knotenname md127 wird von Ihren initramfs-Skripten zusammengestellt, da diese von md127 ausgehen. Soweit ich weiß, können Sie die bevorzugte Nebennummer ändern, aber die initramfs-Skripte beginnen unabhängig von der Nebennummer mit dem Zusammenbau des Knotens 127.
quelle
Ich hatte dieses Problem. Ich hatte zwei SATA in CentOS 6.5 gespiegelt und auf 7.5 aktualisiert. Mein 3Ware-Controller wurde nicht mehr unterstützt.
HINWEIS: Ich hatte einen 3Ware-RAID-Controller, aber ich habe mdadm verwendet, um ein Software-RAID auf 6.5 zu erstellen, sodass ich nie ein Hardware-RAID erstellt habe.
Während ich im Computergeschäft einen neuen PCI-SATA-Controller kaufte, beschloss ich, ein weiteres Laufwerk hinzuzufügen und zu einem RAID 5-Setup zu wechseln. Ich konnte kein mkfs auf dem Volume machen; es hieß, ein anderer Prozess habe es benutzt. Ich konnte es nicht stoppen oder entfernen.
Während ich alles versuchte, was mir einfiel, bekam ich folgende Nachricht:
So tat ich:
Beachten Sie das Raid Level RAID 1 (ich hatte immer noch einige Superblocks mit den alten Raid-Informationen), aber ich konnte es immer noch nicht löschen.
Ich habe es endlich getan:
Verwenden Sie die
--scan
Option, anstatt es/dev/md5
endlich zu tun. Ich konnte es dann entfernen, die Superblöcke auf Null setzen und es neu erstellenquelle
Ich denke, dies wurde oben erwähnt, aber nur für den Fall: Wenn Sie ein aktives logisches lvm-Volume definiert haben, das das zu entfernende mdX verwendet, wird mdadm dies ablehnen, bis Sie das logische Volume entfernen, das dieses Laufwerk verwendet, oder Befreie zumindest das md-Laufwerk vom lvm. Sobald Sie das logische Volume entfernt haben, stoppt mdadm den Raid gerne.
quelle