Zmieniłem rozmiar mojego logicznego woluminu i systemu plików i wszystko poszło gładko. Zainstalowałem nowe jądro i po ponownym uruchomieniu nie mogę uruchomić ani obecnego, ani poprzedniego. Po wybraniu opcji grub (2) pojawia się błąd „Nie znaleziono grupy woluminów”. Inspekcja z zajętego pola ujawnia, że woluminy nie są zarejestrowane w programie mapującym urządzenia i że są nieaktywne. Nie byłem w stanie zamontować ich po aktywacji, dostałem błąd znalezienia pliku (mount / dev / mapper / all-root / mnt).
Jakieś pomysły, jak postępować lub aktywować je podczas uruchamiania? Lub dlaczego woluminy są nagle nieaktywne podczas uruchamiania?
Pozdrowienia,
Marek
EDYCJA: Dalsze dochodzenie ujawniło, że nie miało to nic wspólnego ze zmianą wielkości woluminów logicznych. Fakt, że woluminy logiczne musiały zostać aktywowane ręcznie w powłoce popiołu po nieudanym rozruchu i możliwym rozwiązaniu tego problemu, znajduje się w mojej odpowiedzi poniżej.
GRUB_PRELOAD_MODULES="lvm"
4)GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
5)sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
6)sudo apt-get install --reinstall lvm2 grub-pc grub-common
7) dodająclvm vgchange -ay
do końca/usr/share/initramfs-tools/scripts/local-top/lvm2
szybko brakuje mi rzeczy do wypróbowania.Odpowiedzi:
W końcu udało mi się to rozwiązać. Wystąpił problem (błąd) w wykrywaniu woluminów logicznych, co jest pewnego rodzaju warunkiem wyścigu (może w moim przypadku w związku z faktem, że dzieje się to w KVM). Jest to omówione w poniższej dyskusji . W moim szczególnym przypadku (Debian Squeeze) rozwiązanie jest następujące:
Pomogło mi to, mam nadzieję, że pomoże innym (co dziwne, nie jest to jeszcze częścią głównego nurtu).
Link do łatki: _http: //bugs.debian.org/cgi-bin/bugreport.cgi? Msg = 10; nazwa_pliku = lvm2_wait-lvm.patch; att = 1; błąd = 568838
Poniżej znajduje się kopia dla potomności.
źródło
Utwórz skrypt startowy
/etc/init.d/lvm
zawierający:Następnie wykonaj polecenia:
Powinien załatwić sprawę w systemach Debian.
źródło
vgscan
szuka grup woluminów w systemie ivgchange -a
udostępnia grupy woluminów (-ay
) lub nie (-an
).Też miałem ten problem. Ostatecznie wydaje się, że to naprawia:
Inne rzeczy, których próbowałem:
GRUB_PRELOAD_MODULES="lvm"
GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
sudo apt-get install --reinstall lvm2 grub-pc grub-common
Przeszedłem i cofnąłem pozostałe zmiany, to jedyna, która się dla mnie liczyła, choć prawdopodobnie jest najmniej elegancka.
źródło
Jeśli
vgscan
„znajdzie” woluminy, powinieneś być w stanie je aktywowaćvgchange -ay /dev/volumegroupname
Nie jestem jednak pewien, co spowodowałoby, że staną się nieaktywni po ponownym uruchomieniu.
źródło
Bez szczegółów konfiguracji lub komunikatów o błędach, które musielibyśmy udzielić rzeczywistej odpowiedzi,
grub-mkdevicemap
jako rozwiązanie wezmę dźgnięcie w ciemność .źródło
Zakładając, że Twój system używa initramfs, prawdopodobnie występuje tam problem z konfiguracją. Powinieneś zaktualizować obraz initramfs, który zaczął się w czasie uruchamiania przez grub (w Debianie robisz to z update-initramfs, nie wiem o innych dystrybucjach).
Możesz to również zrobić ręcznie, rozpakowując initramfs i zmieniając /etc/lvm/lvm.conf (lub coś podobnego) na obrazie initramfs, a następnie ponownie go pakując.
źródło
Mam ten sam problem w moim środowisku, w którym działa Red Hat 7.4 jako gość KVM. Używam qemu-kvm-1.5.3-141 i virt-manager 1.4.1. Na początku działałem jako Red Hat 7.2 bez problemu, ale po aktualizacji mniejszej wersji z 7.2 do 7.4 i jądra do najnowszej wersji 3.10.0-693.5.2 coś poszło nie tak i nie mogłem uruchomić żadnej partycji LV / var więcej. System przeszedł do trybu awaryjnego z prośbą o hasło roota. Wprowadzanie hasłem root i systemem poleceń
lvm vgchange -ay
isystemctl default
byłem w stanie aktywować/var
LV i uruchomić system.I nie zorientowali się, co powoduje ten problem, ale mój obejście było to LV
/var
w/etc/default/grub
jak widać poniżej:GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=vg_local/root rd.lvm.lv=vg_local/var rd.lvm.lv=vg_local/swap rhgb quiet biosdevname=0 net.ifnames=0 ipv6.disable=1"
Następnie musiałem uruchomić
grub2-mkconfig -o /boot/grub2/grub.cfg
i sprawdzić, czyrd.lvm.lv=vg_local/var
został uwzględniony w linii vmlinuz/boot/grub2/grub.cfg
. Po ponownym uruchomieniu systemu nie dostałem już błędu aktywacji mojego/var
LV i system kończy proces rozruchu z powodzeniem.źródło
zorientowałem się w moim przypadku, że grub root to root = / dev / vgname / root
więc test w / usr / share / initramfs-tools / scripts / local-top / lvm2
zawsze było fałszywe. i wolumin root nigdy nie został aktywowany.
zaktualizowano / etc / fstab z
do
I zrobił:
rozwiązał mój problem
źródło
wpadliśmy na ten problem i okazało się, że wyłączenie
lvmetad
przez ustawienieuse_lvmetad=0
w/etc/lvm/lvm.conf
przymusowych wielkości można znaleźć i mae dostępny w bagażniku.źródło