Problem :::
Ich installiere Redhat 5.10 x64 auf einem Server mit fehlerhafter Festplatte. Ich habe die alte fehlerhafte Festplatte entfernt und eine neue mit 500 GB Kapazität installiert. Nach der Installation muss ich einige Daten von der alten Festplatte unter / u001 auf die neue Festplatte kopieren. Also habe ich alte Festplatte (320 GB) mit Server verbunden. Es wird angezeigt, fdisk -l
aber wenn ich versuche, mit zu mounten
sudo mount / dev / sdb2 oder / dev / sdb5 heißt es
Hinweis: Auf der alten Festplatte war auch das alte Betriebssystem installiert, wie Sie unter fdisk -l
/ dev / sda = Neue Festplatte
/ dev / sdb = Alte Festplatte sehen können
Gerät bereits gemountet oder Ressource ist ausgelastet
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Mount Ergebnis :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY :: Ausgabe
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
quelle
mount
?findmnt
odermount
anzeigen?lsof +D /media/test/
wäre hilfreichlvdisplay
, welche LVM-Geräte erkannt werden. Sie sollten stattdessen auf diese zugreifen können/dev/sdbX
.Antworten:
Bereits in 5.x verwendete RHEL standardmäßig LVM. Sie müssen zuerst einige Schritte ausführen, bevor Sie LVM-Volumes bereitstellen können.
Wenn Sie auf der neuen Festplatte denselben VGs-Namen wie auf der alten Festplatte verwendet haben, haben Sie ein kleines Problem: Sie haben zwei VGs mit demselben Namen. Um die zu manipulierenden VGs (dh die aktivierte) eindeutig zu identifizieren
/dev/sdb
, benötigen Sie die VG-UUIDs. Lauf:um alle erkannten LVM-PVs einschließlich ihrer VG-UUIDs aufzulisten. Außerdem wird der VG-Name jeder Partition angezeigt, sodass Sie sehen können, ob Namenskonflikte vorliegen oder nicht.
LVM ist im Großen und Ganzen intelligent genug, um Ihre aktive VG-Konfiguration nicht durcheinander zu bringen, es sei denn, Sie geben sich wirklich alle Mühe, sie zu verwirren. Wenn der oben genannte
pvs
Befehl nichts anzeigt/dev/sdb
, führen Sie ihn ausvgscan
und versuchen Sie es erneut.Sobald Sie die VG-UUIDs kennen, können Sie mit dem Befehl vgrename alle widersprüchlichen VGs umbenennen. Wenn keine Namenskonflikte vorliegen, können Sie mit fortfahren
vgchange
.(Um die LV (s) in einer VG zu mounten, müssen Sie die VG aktivieren, und eine VG wird nicht aktiviert, wenn ihr Name mit einer bereits vorhandenen VG in Konflikt steht.)
Der Befehl zum Umbenennen einer VG sieht folgendermaßen aus:
Dabei ist die
Zvlifi-...
Alphabetsuppe die VG-UUID, und der andere Parameter ist nur der neue Name für diese VG.Sobald die VG-Namenskonflikte gelöst sind (oder wenn überhaupt keine Konflikte vorliegen), müssen Sie die VG (s) aktivieren
/dev/sdb
. Mit diesem Befehl können Sie einfach alle nicht aktivierten VGs aktivieren, die LVM sieht:Wenn Sie eine VG aktivieren, werden die Gerätenamen (Links) aller darin enthaltenen LVs als angezeigt
/dev/mapper/<VG name>-<LV name>
. (Auch/dev/<VG name>/<LV name>
aus Gründen der Legacy-Kompatibilität.)Zu diesem Zeitpunkt können Sie sie wie gewohnt mounten.
quelle
vgchange -ay
und konnte dannmount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Wenn z
druckt
Überprüfen Sie, ob mit diesem Gerät ein Prozess ausgeführt wird (/ dev / sda1).
Es ist oft ein fsck-Prozess, der beim Systemstart automatisch ausgeführt wird. Sie können es schnell überprüfen, zB durch
quelle
Ich habe mich einer solchen Situation gestellt. Die Erfahrung und Lösung wird in meinem Blog erzählt .
Das Snippet ist da:
Fehler: mount: / dev / mapper / STORBCK-backup bereits gemountet oder / STORBCK beschäftigt?
Diagnose: Wenn wir versuchen, den / STORBCK FS zu mounten, wird der oben genannte Fehler angezeigt.
Lösung: 1. Da der andere FS schreibgeschützt wurde, habe ich den iscsi-Dienst gestoppt / gestartet. Es wurde erfolgreich beim Gerät angemeldet. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html
quelle