MDADM RAID5 dizimi nasıl yeniden etkinleştiririm?


22

Sunucumu söküp yeniden bağlamayı içeren evi yeni taşıdım. Bunu yaptığımdan beri, MDADM RAID5 dizilerimden biri etkin değil gibi görünüyor:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

Bana bütün diskleri bulmuş gibi bakıyor ama bir nedenden dolayı onları kullanmak istemiyor.

Peki, (S) etiketleri ne anlama geliyor ve MDADM'ye diziyi tekrar kullanmaya başlamasını nasıl söyleyebilirim?

[Düzenle] Sadece diziyi durdurmayı ve birleştirmeyi denedim -v:

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

..ve kediyi girmek /proc/mdstathiç de farklı değil.

[Düzenle2] Yardımcı olup olmadığından emin değilim, ancak bu her diskin incelenmesinin sonucudur:

root @ mserver: ~ # mdadm --examine / dev / sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

root @ mserver: ~ # mdadm --examine / dev / sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

Sürücülerin orijinal olarak aşağıdaki şekilde monte edildiğini öneren bazı notlar var:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Edit3]

Aşağıdaki olmuş gibi görünüyor günlüğüne içinden bakıyor (dayanan Update Timeiçinde --examinesonuçları):

  1. sdb ve sdf, 20’de 13: 22’den bir süre sonra bayılmıştı.
  2. sdd 20'nci saat 18: 37'den sonra bir süre nakavt edildi.
  3. sunucu 1'de saat 14: 00'dan sonra bir süre kapatıldı.

İki diskin aynı anda (görünüşe göre) yere düştüğü göz önüne alındığında, dizinin bu noktadan sonra yazılmayacağını varsaymanın makul derecede güvenli olması gerektiğini düşünüyorum (?) Ve bu nedenle onu yeniden yerleştirmeye zorlamak için nispeten güvenli olması gerektiğini düşünüyorum . doğru sipariş? Bunu yapmak için en güvenli komut nedir ve herhangi bir değişiklik yapmadan bunu yapmanın bir yolu var mı?

Yanıtlar:


28

SEtiketler diski "yedek" olarak kabul edilir demektir. Diziyi durdurup yeniden başlatmayı denemelisiniz:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

Diziyi yeniden monte etmek için ve bu işe yaramazsa, güncelleme yapmanız gerekebilir mdadm.conf, bunun nasıl yapılacağı hakkında ayrıntılı bilgi için örneğin bu soruya bakın.


Bu çalıştı (ve ilave -vneler olduğunu görmek için) ama eklenmelidir tüm diskleri aşağıdaki satırlar boyunca yanıtları almak: mdadm: /dev/sdb1 is busy - skipping.
Jon Cage


bunu denedim - hala şans yok (düzenlememe bakın)
Jon Cage

2
Tamam, RAID'in düzgün kapanmadığını düşünüyor gibi görünüyor, eğer emin değilseniz, deneyin -Rveya deneyin -f. Bu da başarısız olursa, diziyi kullanarak yeniden oluşturun mdadm create /dev/md0 --assume-clean <original create options> /dev/sd[dbfe]1. Dikkatli olun: Bu seçeneklerin tümü verilerinizi tahrip edebilir.
Stefan Seidel

3
Ben bunun için gittim ve mdadm --assemble --scan --forceçalıştım. Dizi yedeklendi ve çalışıyor ve verilerime erişimim var :)
Jon Cage

9

Bu soru biraz eski ama cevap, benzer bir durumla karşı karşıya olan birine yardımcı olabilir. Olay sayıları baktığımızda mdadm --examine (- sde1 için sdb1 ve SDF1, 955.219 ve sdd1 için size 955205 var 955190) Verdiğiniz çıktı, bunlar yakın yeterince görünüyor. 40-50'nin altındalarsa, bu tamamdır ve bu durumda önerilen eylem şekli, dizinizi manuel olarak bir araya getirerek, olay sayım farkına rağmen mdadm'i sürücüleri kabul etmeye zorlamaktır:

Diziyi durdur:

mdadm --stop /dev/md0

Ardından diziyi elle yeniden monte etmeye çalışın:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

Sürücü listesinin / yapısının uygun olup olmadığını incelemek için dizinin durumunu kontrol edin (komut çıktısının alt kısmı, hangi sürücünün hangi durumda olduğunu ve dizideki hangi konumda olduğunu gösterir):

mdadm --detail /dev/md0

Yapı uygunsa, yeniden oluşturma işlemini kontrol edin:

cat /proc/mdstat

0

Raid md0'ı aşağıdaki komutla aktif hale getirebilirsiniz.

mdadm -A /dev/md0

ve mdadm.conf dosyasını güncellemek için bu komut

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.