Ich habe die Größe meines logischen Volumes und meines Dateisystems geändert und alles verlief reibungslos. Ich habe einen neuen Kernel installiert und nach dem Neustart kann ich weder den aktuellen noch den früheren starten. Nach Auswahl der Option grub (2) wird der Fehler "Volume Group Not Found" angezeigt. Die Überprüfung von der Besetztbox zeigt, dass die Volumes nicht im Geräte-Mapper registriert sind und inaktiv sind. Ich konnte sie nach der Aktivierung nicht mounten. Ich habe den Fehler "Datei nicht gefunden" gefunden (mount / dev / mapper / all-root / mnt).
Irgendwelche Ideen, wie Sie fortfahren oder sie beim Booten aktivieren können? Oder warum sind die Volumes beim Booten plötzlich inaktiv?
Grüße,
Marek
EDIT: Weitere Untersuchungen ergaben, dass dies nichts mit der Größenänderung logischer Volumes zu tun hat. Die Tatsache, dass logische Volumes nach einem fehlgeschlagenen Start und einer möglichen Lösung für dieses Problem manuell in der Ash-Shell aktiviert werden mussten, wird in meiner Antwort unten behandelt.
GRUB_PRELOAD_MODULES="lvm"
4)GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
5)sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
6)sudo apt-get install --reinstall lvm2 grub-pc grub-common
7) Hinzufügenlvm vgchange -ay
zum Ende von/usr/share/initramfs-tools/scripts/local-top/lvm2
Ich habe schnell keine Dinge mehr zum Ausprobieren.Antworten:
Also habe ich es irgendwann geschafft, das zu lösen. Es gibt ein Problem (Fehler) beim Erkennen logischer Volumes, was eine Art Race-Bedingung ist (möglicherweise in meinem Fall in Bezug auf die Tatsache, dass dies in KVM geschieht). Dies wird in der folgenden Diskussion behandelt . In meinem speziellen Fall (Debian Squeeze) lautet die Lösung wie folgt:
Das hat mir geholfen, hoffe es hilft anderen (seltsamerweise ist dies noch nicht Teil des Mainstreams).
Link zum Patch: _http: //bugs.debian.org/cgi-bin/bugreport.cgi? Msg = 10; Dateiname = lvm2_wait-lvm.patch; att = 1; Fehler = 568838
Unten ist eine Kopie für die Nachwelt.
quelle
Erstellen Sie ein Startskript
/etc/init.d/lvm
, das Folgendes enthält:Führen Sie dann die folgenden Befehle aus:
Sollte den Trick für Debian-Systeme tun.
quelle
vgscan
nach Volume-Gruppen auf dem System suchen undvgchange -a
Volume-Gruppen verfügbar machen (-ay
) oder nicht (-an
).Ich hatte auch dieses Problem. Am Ende schien dies das Problem zu beheben:
Andere Dinge, die ich versucht habe:
GRUB_PRELOAD_MODULES="lvm"
GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
sudo apt-get install --reinstall lvm2 grub-pc grub-common
Ich ging durch und machte die anderen Änderungen rückgängig, dies ist die einzige, die für mich wichtig war, obwohl es wahrscheinlich die am wenigsten elegante ist.
quelle
Wenn
vgscan
Sie die Volumes "finden", sollten Sie sie mit aktivieren könnenvgchange -ay /dev/volumegroupname
Ich bin mir nicht sicher, was dazu führen würde, dass sie nach einem Neustart inaktiv werden.
quelle
Ohne die Konfigurationsdetails oder Fehlermeldungen, die wir benötigen, um eine tatsächliche Antwort zu geben, werde ich
grub-mkdevicemap
als Lösung einen Stich in die Dunkelheit machen .quelle
Angenommen, Ihr System verwendet initramfs, liegt dort wahrscheinlich ein Konfigurationsproblem vor. Sie sollten Ihr initramfs-Image aktualisieren, das beim Booten von grub gestartet wurde (in Debian tun Sie dies mit update-initramfs, wissen nichts über andere Distributionen).
Sie können dies auch von Hand tun, indem Sie initramfs entpacken und /etc/lvm/lvm.conf (oder ähnliches) in Ihrem initramfs-Image ändern und dann erneut verpacken.
quelle
Ich habe das gleiche Problem in meiner Umgebung, in der Red Hat 7.4 als KVM-Gast ausgeführt wird. Ich verwende qemu-kvm-1.5.3-141 und virt-manager 1.4.1. Zuerst habe ich Red Hat 7.2 ohne Probleme als Gast ausgeführt, aber nach dem Upgrade der Nebenversion von 7.2 auf 7.4 und des Kernels auf die neueste Version 3.10.0-693.5.2 ist ein Fehler aufgetreten und meine / var LV-Partition konnte nicht gestartet werden Mehr. Das System ging in den Notfallmodus und fragte nach dem Root-Passwort. Die Eingabe mit root - Passwort und die Befehle ausführen
lvm vgchange -ay
undsystemctl default
ich konnte meine aktivieren/var
LV und das System zu booten.Ich habe herausgefunden, was nicht dieses Problem verursacht, aber meine Abhilfe war die LV enthält
/var
in/etc/default/grub
wie Sie unten sehen:GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=vg_local/root rd.lvm.lv=vg_local/var rd.lvm.lv=vg_local/swap rhgb quiet biosdevname=0 net.ifnames=0 ipv6.disable=1"
Dann musste ich laufen
grub2-mkconfig -o /boot/grub2/grub.cfg
und prüfen, ob dasrd.lvm.lv=vg_local/var
in der vmlinuz-Zeile von enthalten war/boot/grub2/grub.cfg
. Nach dem Neustart des Systems wurde der Fehler zum Aktivieren meines/var
LV nicht mehr angezeigt, und das System schließt den Startvorgang mit Erfolg ab.quelle
Ich habe in meinem Fall herausgefunden, dass die Madenwurzel root = / dev / vgname / root ist
Also der Test in / usr / share / initramfs-tools / scripts / local-top / lvm2
war immer falsch. und Root-Volume nie aktiviert.
aktualisiert / etc / fstab von
zu
und tat:
löste mein Problem
quelle
ich lief in dieses Problem und fand , dass das Deaktivieren
lvmetad
durch Einstellenuse_lvmetad=0
in/etc/lvm/lvm.conf
Zwängen der Volumina beim Booten gefunden und mae zugänglich werden.quelle