Mam ZFS ZFS na Linuksie pod jądrem 2.6.32-431.11.2.el6.x86_64, który ma jeden vdev. Vdev jest urządzeniem SAN. Rozszerzyłem rozmiar SAN i pomimo tego, że zpool autoexpand
ustawił się na on
, nawet po ponownym uruchomieniu komputera, eksportowaniu / importowaniu puli i korzystaniu z niej zpool online -e
, nie byłem w stanie zmusić puli do rozszerzenia. Jestem pewien, że vdev jest większy, ponieważ fdisk
pokazuje, że wzrósł z 215GiB do 250 GiB. Oto próbka tego, co zrobiłem:
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/
pool: dfbackup
id: 12129781223864362535
state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:
dfbackup ONLINE
virtio-sbs-XLPH83 ONLINE
[root@timestandstill ~]# zpool import -d /dev/disk/by-id/ dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool get autoexpand dfbackup
NAME PROPERTY VALUE SOURCE
dfbackup autoexpand on local
[root@timestandstill ~]# zpool set autoexpand=off dfbackup
[root@timestandstill ~]# zpool set autoexpand=on dfbackup
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
[root@timestandstill ~]# fdisk /dev/disk/by-id/virtio-sbs-XLPH83
WARNING: GPT (GUID Partition Table) detected on '/dev/disk/by-id/virtio-sbs-XLPH83'! The util fdisk doesn't support GPT. Use GNU Parted.
WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
switch off the mode (command 'c') and change display units to
sectors (command 'u').
Command (m for help): p
Disk /dev/disk/by-id/virtio-sbs-XLPH83: 268.4 GB, 268435456000 bytes
256 heads, 63 sectors/track, 32507 cylinders
Units = cylinders of 16128 * 512 = 8257536 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/disk/by-id/virtio-sbs-XLPH83-part1 1 27957 225443839+ ee GPT
Command (m for help): q
[root@timestandstill ~]# zpool online -e dfbackup /dev/disk/by-id/virtio-sbs-XLPH83
[root@timestandstill ~]# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dfbackup 214G 207G 7.49G 96% 1.00x ONLINE -
venuebackup 248G 244G 3.87G 98% 1.00x ONLINE -
[root@timestandstill ~]# zpool status -v dfbackup
pool: dfbackup
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
dfbackup ONLINE 0 0 0
virtio-sbs-XLPH83 ONLINE 0 0 0
errors: No known data errors
Jak mogę rozwinąć ten Zpool?
źródło
zpool online -e pool vdb
jest to polecenie, które załatwia sprawę. Teraz używam ZFS-on-Linux na wielu serwerach libvirt i to działa dla mnie (bez partprobe)partprobe
(uruchamianie przed i pozpool online
) wyeliminowało potrzebę ponownego uruchomienia komputera.Przeczytałem na forach freebsd post, który sugerował użycie
zpool online -e <pool> <vdev>
(bez konieczności wyłączania najpierw vdev w trybie offline)To ostatecznie było rozwiązanie, ale wymagało najpierw automatycznego rozszerzenia ZFS :
Użycie polecenia
zpool set autoexpand=off
follow byzpool online -e
było wymagane, aby Zpool mógł się dla mnie rozwinąć, używając ZFS na Linuksie (w jądrze, nie używając FUSE)źródło
zpool online -e
izpool set autoexpand=off
zrobiłem to dla mnie @ewwhite ... Mam pełną historię dostępną w moim terminalu. Nie jestem pewien, na czym polegał problem.