Ich habe einen ZFS-Zpool unter Linux unter Kernel 2.6.32-431.11.2.el6.x86_64, der eine einzelne vdev hat. Das vdev ist ein SAN-Gerät. I erweitert die Größe des SAN und trotz der zpool haben autoexpand
zu setzen on
, auch nach dem Neustart des Computers, Export / Import auf den Pool und die Verwendung zpool online -e
, ich war nicht in der Lage den Pool zu bekommen zu erweitern. Ich bin sicher, dass der vdev größer ist, weil fdisk
er von 215GiB auf 250 GiB gestiegen ist. Hier ist ein Beispiel von dem, was ich getan habe:
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/
pool: dfbackup
id: 12129781223864362535
state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:
dfbackup ONLINE
virtio-sbs-XLPH83 ONLINE
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/ dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool get autoexpand dfbackup
NAME PROPERTY VALUE SOURCE
dfbackup autoexpand on local
[root@timestandstill ~]# zpool set autoexpand=off dfbackup
[root@timestandstill ~]# zpool set autoexpand=on dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
[root@timestandstill ~]# fdisk /dev/disk/by-id/virtio-sbs-XLPH83
WARNING: GPT (GUID Partition Table) detected on '/dev/disk/by-id/virtio-sbs-XLPH83'! The util fdisk doesn't support GPT. Use GNU Parted.
WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
switch off the mode (command 'c') and change display units to
sectors (command 'u').
Command (m for help): p
Disk /dev/disk/by-id/virtio-sbs-XLPH83: 268.4 GB, 268435456000 bytes
256 heads, 63 sectors/track, 32507 cylinders
Units = cylinders of 16128 * 512 = 8257536 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/disk/by-id/virtio-sbs-XLPH83-part1 1 27957 225443839+ ee GPT
Command (m for help): q
[root@timestandstill ~]# zpool online -e dfbackup /dev/disk/by-id/virtio-sbs-XLPH83
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
Wie kann ich diesen Zpool erweitern?
quelle
zpool online -e pool vdb
ist der Befehl, der den Trick macht. Ich benutze jetzt ZFS-on-Linux auf einer Reihe von libvirt-Servern und das funktioniert für mich (ohne partprobe)partprobe
(vorher und nachher ausgeführtzpool online
) kein Neustart erforderlich war.Ich habe in den freebsd-Foren einen Beitrag gelesen, der die Verwendung vorschlug
zpool online -e <pool> <vdev>
(ohne zuerst das vdev offline schalten zu müssen).Dies war letztendlich die Lösung, aber es war erforderlich, dass die automatische Erweiterung von ZFS zuerst deaktiviert wurde :
Die Verwendung von
zpool set autoexpand=off
gefolgt vonzpool online -e
war erforderlich, um den zpool für mich zu erweitern, wobei ZFS unter Linux verwendet wurde (im Kernel, ohne FUSE).quelle
zpool online -e
undzpool set autoexpand=off
für mich @ewwhite ... Ich habe den vollständigen Verlauf in meinem Terminal verfügbar. Ich bin mir nicht sicher, was das Problem war.