Як повторно активувати свій масив MDADM RAID5?


22

Я щойно переїхав будинок, який передбачав демонтаж мого сервера та його повторне підключення. Оскільки це робиться, один із моїх масивів MDADM RAID5 видається неактивним:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

Мені здається, ніби він знайдений на всіх дисках, але чомусь не хоче їх використовувати.

Що значать мітки (S) і як я можу сказати MDADM знову почати використовувати масив?

[Редагувати] Я просто спробував зупинити та зібрати масив за допомогою -v:

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

..і вхід кота /proc/mdstatвиглядає не інакше.

[Edit2] Не впевнений, чи допомагає це, але це результат вивчення кожного диска:

root @ mserver: ~ # mdadm --examine / dev / sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

root @ mserver: ~ # mdadm --examine / dev / sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver: ~ # mdadm --examine / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

У мене є деякі примітки, які дозволяють припустити, що накопичувачі спочатку збиралися таким чином:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Редагувати3]

Переглядаючи журнал це виглядає як сталося наступне (на основі Update Timeв --examineрезультатах):

  1. sdb та sdf були вибиті через деякий час після 13:22 20-го
  2. sdd було вибито через деякий час після 18:37 20-го
  3. сервер був відключений через деякий час після 14:00 1-го

Зважаючи на те, що два диски знизилися (мабуть) одночасно, я думаю, що це має бути досить безпечно припустити, що масив не був би записаний після цього пункту (?), І тому слід відносно безпечно змусити його повторно встановити в Виправити замовлення? З якою найбезпечнішою командою це зробити і чи є спосіб це зробити, не записуючи жодних змін?

Відповіді:


28

Ці Sмітки означають , що диск розглядаються як «запасний». Спробуйте зупинити та перезапустити масив:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

щоб повторно зібрати масив, і якщо це не працює, можливо, вам доведеться оновити своє mdadm.conf, див., наприклад, це питання, щоб дізнатися, як це зробити.


Пробував , що (і додав , -vщоб побачити , що відбувається) , але все диски , які повинні бути додані отримати відповіді за наступними напрямками: mdadm: /dev/sdb1 is busy - skipping.
Джон Кейдж

просто зупиніть md0 і знову зібрати масив
krizna

спробував це - все ще не пощастило (див. мою редакцію)
Джон Кейдж

2
Гаразд, це здається, що він думає, що RAID не було закрито належним чином, якщо ви впевнені, що це не так, спробуйте -Rабо -f. Якщо це не вдається, також створіть масив, використовуючи mdadm create /dev/md0 --assume-clean <original create options> /dev/sd[dbfe]1. Будьте попереджені: Усі ці параметри можуть знищити ваші дані.
Стефан Зайдель

3
Ну я пішов на це і mdadm --assemble --scan --forceпрацював. Масив резервного копіювання працює і я маю доступ до своїх даних :)
Джон Кейдж,

9

Це запитання трохи старе, але відповідь може допомогти тому, хто стикається з подібною ситуацією. Дивлячись на кількість подій від наданого вами результату mdadm --examine , вони здаються досить близькими (955190 - для sdb1 та sdf1, 955219 для sde1 та для sdd1 у вас 955205). Якщо вони нижче 40-50, це нормально, і в цьому випадку рекомендований курс дій полягає в тому, щоб зібрати свій масив вручну, змусивши mdadm приймати накопичувачі, незважаючи на різницю в кількості подій:

Зупинка масиву:

mdadm --stop /dev/md0

Потім спробуйте зібрати масив вручну:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

Перевірте стан масиву, щоб перевірити, чи все в списку / структурі дисководів добре (внизу виводу команди буде показано, який диск знаходиться в якому статусі та в якому положенні в масиві):

mdadm --detail /dev/md0

Якщо структура гаразд, перевірте хід відновлення:

cat /proc/mdstat

0

Ви можете активувати Raid md0 за допомогою команди нижче

mdadm -A /dev/md0

і ця команда для оновлення файлу mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.