2013-06-04 08:15:37 +0000 2013-06-04 08:15:37 +0000
22
22

Jak ponownie uaktywnić macierz MDADM RAID5?

Właśnie się przeprowadziłem, co wiązało się z demontażem mojego serwera i ponownym jego podłączeniem. Od tego czasu jedna z moich macierzy RAID5 w MDADM jest nieaktywna:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

Wygląda na to, że MDADM znalazł wszystkie dyski, ale z jakiegoś powodu nie chce ich użyć.

Więc co oznaczają etykiety (S) i jak mogę powiedzieć MDADM, żeby zaczął ponownie używać tablicy?

[Edit] Właśnie próbowałem zatrzymać i złożyć tablicę za pomocą -v:

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

..i wpisanie cat /proc/mdstat nie wygląda inaczej.

[Edit2] Nie jestem pewien czy to pomoże, ale to jest wynik badania każdego dysku:

root@mserver:~# mdadm –examine /dev/sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb 1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number Major Minor RaidDevice State
this 1 8 17 1 active sync /dev/sdb1

   0 0 8 113 0 active sync /dev/sdh1
   1 1 8 17 1 active sync /dev/sdb1
   2 2 8 97 2 active sync /dev/sdg1
   3 3 8 33 3 active sync /dev/sdc1

root@mserver:~# mdadm –examine /dev/sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb 1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number Major Minor RaidDevice State
this 0 8 113 0 active sync /dev/sdh1

   0 0 8 113 0 active sync /dev/sdh1
   1 1 0 0 1 faulty removed
   2 2 8 97 2 active sync /dev/sdg1
   3 3 0 0 3 faulty removed

root@mserver: ~# mdadm –examine /dev/sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb 1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number Major Minor RaidDevice State
this 2 8 97 2 active sync /dev/sdg1

   0 0 0 0 0 removed
   1 1 0 0 1 faulty removed
   2 2 8 97 2 active sync /dev/sdg1
   3 3 0 0 3 faulty removed

root@mserver:~# mdadm –examine /dev/sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb 1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number Major Minor RaidDevice State
this 3 8 33 3 active sync /dev/sdc1

   0 0 8 113 0 active sync /dev/sdh1
   1 1 8 17 1 active sync /dev/sdb1
   2 2 8 97 2 active sync /dev/sdg1
   3 3 8 33 3 active sync /dev/sdc1

Mam kilka notatek, które sugerują, że dyski były oryginalnie zmontowane w następujący sposób:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Edit3]

Przeglądając log wygląda na to, że wydarzyły się następujące rzeczy (na podstawie Update Time w wynikach --examine):

  1. sdb i sdf zostały wywalone jakiś czas po 13:22 dnia 20
  2. sdd został wywalony jakiś czas po 18:37 dnia 20
  3. serwer został wyłączony po godzinie 14:00 dnia 1.

Biorąc pod uwagę, że dwa dyski wysiadły (najwyraźniej) jednocześnie, myślę, że powinno być w miarę bezpiecznie założyć, że macierz nie była zapisywana po tym momencie(?) i dlatego powinno być relatywnie bezpiecznie zmusić ją do reinstalacji we właściwej kolejności? Jaka jest najbezpieczniejsza komenda, aby to zrobić i czy istnieje sposób, aby to zrobić bez zapisywania jakichkolwiek zmian?

Odpowiedzi (3)

28
28
28
2013-06-04 09:14:49 +0000

Etykiety S oznaczają, że dysk jest traktowany jako “zapasowy”. Powinieneś spróbować zatrzymać i ponownie uruchomić macierz:

mdadm --stop /dev/md0
  mdadm --assemble --scan

, aby ponownie złożyć macierz, a jeśli to nie zadziała, być może trzeba będzie zaktualizować etykiety mdadm.conf, zobacz na przykład to pytanie , aby uzyskać szczegółowe informacje, jak to zrobić.

9
9
9
2014-09-13 01:33:49 +0000

To pytanie jest trochę stare, ale odpowiedź może pomóc komuś, kto stoi w podobnej sytuacji. Patrząc na liczbę zdarzeń z wyjścia mdadm –examine, które dostarczyłeś, wydają się one wystarczająco zbliżone (955190 - dla sdb1 i sdf1, 955219 dla sde1, a dla sdd1 masz 955205). Jeśli są one niższe niż 40-50, to jest to w porządku, a w takim przypadku zalecanym sposobem postępowania jest ręczne złożenie macierzy, zmuszając mdadm do zaakceptowania dysków pomimo różnicy w liczbie zdarzeń:

Zatrzymaj macierz:

mdadm --stop /dev/md0

Następnie spróbuj ponownie złożyć macierz ręcznie:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

Sprawdź status macierzy, aby zbadać czy lista/struktura dysków jest OK (na dole wyjścia komendy będzie pokazane, który dysk jest w jakim statusie i na jakiej pozycji w macierzy):

mdadm --detail /dev/md0

Jeśli struktura jest OK, sprawdź postęp odbudowy:

cat /proc/mdstat
```.
0
0
0
2013-06-04 09:02:31 +0000

Możesz aktywować Raid md0 poniższą komendą

mdadm -A /dev/md0

oraz tą komendą zaktualizować plik mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf