Jak ponownie aktywować moją macierz MDADM RAID5?

22

Właśnie przeprowadziłam się do domu, co wymagało demontażu serwera i ponownego podłączenia go. Od tego czasu jedna z moich macierzy MDADM RAID5 wygląda na nieaktywną:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

Wydaje mi się, że znaleziono wszystkie dyski, ale z jakiegoś powodu nie chce ich używać.

Co więc oznaczają etykiety (S) i jak mogę powiedzieć MDADM, aby ponownie zaczął korzystać z tablicy?

[Edytuj] Właśnie próbowałem zatrzymać i złożyć tablicę za pomocą -v:

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

.. i wchodzenie kota /proc/mdstatnie wygląda inaczej.

[Edytuj2] Nie jestem pewien, czy to pomaga, ale jest to wynik badania każdego dysku:

root @ mserver: ~ # mdadm --examine / dev / sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

root @ mserver: ~ # mdadm --examine / dev / sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

Mam kilka uwag, które sugerują, że dyski zostały pierwotnie zmontowane w następujący sposób:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Edytuj3]

Patrząc przez dziennik to wygląda tak się stało (na podstawie Update Timew --examinewynikach):

  1. sdb i sdf zostały wyeliminowane jakiś czas po 13:22 20-go
  2. sdd został wyeliminowany jakiś czas po 18:37 20-go
  3. serwer został zamknięty jakiś czas po godzinie 14:00 pierwszego

Biorąc pod uwagę, że dwa dyski spadły (najwyraźniej) jednocześnie, uważam, że należy rozsądnie założyć, że tablica nie zostałaby zapisana po tym punkcie (?), A zatem powinno być względnie bezpieczne wymuszenie jej ponownego uruchomienia w właściwa kolejność? Jakie jest najbezpieczniejsze polecenie i czy można to zrobić bez zapisywania zmian?

Jon Cage
źródło

Odpowiedzi:

28

Te Setykiety oznacza, że dysk jest traktowany jako „zapasowy”. Powinieneś spróbować zatrzymać i ponownie uruchomić tablicę:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

aby ponownie zmontować tablicę, a jeśli to nie zadziała, może być konieczna aktualizacja mdadm.conf, patrz na przykład to pytanie, aby dowiedzieć się, jak to zrobić.

Stefan Seidel
źródło
Próbowaliśmy, że (i dodał -v, aby zobaczyć, co się dzieje), ale wszystkie dyski, które powinny być dodawane uzyskać odpowiedzi zgodnie z poniższymi wytycznymi: mdadm: /dev/sdb1 is busy - skipping.
Jon Cage
po prostu zatrzymaj md0 i ponownie złóż tablicę
krizna
próbowałem tego - wciąż bez powodzenia (patrz moja edycja)
Jon Cage
2
Ok, wygląda na to, że myśli, że RAID nie został poprawnie zamknięty, jeśli jesteś pewien, że nie, spróbuj -Rlub -f. Jeśli to też się nie powiedzie, ponownie utwórz tablicę za pomocą mdadm create /dev/md0 --assume-clean <original create options> /dev/sd[dbfe]1. Uwaga: wszystkie te opcje mogą zniszczyć Twoje dane.
Stefan Seidel
3
Poszedłem na to i mdadm --assemble --scan --forcepracowałem. Tablica jest z powrotem uruchomiona i mam dostęp do moich danych :)
Jon Cage
9

To pytanie jest trochę stare, ale odpowiedź może pomóc komuś w podobnej sytuacji. Patrząc na wydarzenie, liczy się od dostarczonego przez ciebie wyjścia mdadm -examine , wydają się one wystarczająco bliskie (955190 - dla sdb1 i sdf1, 955219 dla sde1 i dla sdd1 masz 955205). Jeśli są poniżej 40-50, jest to w porządku, w takim przypadku zalecanym działaniem jest ręczne złożenie tablicy, zmuszając mdadm do akceptowania dysków pomimo różnicy w liczbie zdarzeń:

Zatrzymaj tablicę:

mdadm --stop /dev/md0

Następnie spróbuj ręcznie złożyć tablicę ręcznie:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

Sprawdź status tablicy, aby sprawdzić, czy lista / struktura napędu jest w porządku (dolna część danych wyjściowych polecenia pokaże, który dysk ma status i na jakiej pozycji w tablicy):

mdadm --detail /dev/md0

Jeśli struktura jest w porządku, sprawdź postęp przebudowy:

cat /proc/mdstat
Milen
źródło
0

Możesz aktywować Raid md0 za pomocą poniższego polecenia

mdadm -A /dev/md0

i to polecenie, aby zaktualizować plik mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
krizna
źródło