Чому мій RAID / dev / md1 відображається як / dev / md126? Чи ігнорується mdadm.conf?


26

Я створив RAID за допомогою:

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

sudo mdadm --detail --scan повертає:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

До чого я додав його /etc/mdadm/mdadm.conf, дивіться нижче:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat повертає:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md повертає:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

Тому я думаю, що все добре, і я перезавантажуюсь.


Після перезавантаження / dev / md1 зараз / dev / md126 і / dev / md2 зараз / dev / md127 ?????

sudo mdadm --detail --scan повертає:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat повертає:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md повертає:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

Все не втрачено, я:

sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

і перевірте все:

sudo mdadm --detail --scan повертає:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat повертає:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md повертає:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

Тож ще раз, я думаю, що все добре і перезавантажуюсь.


Знову ж таки, після перезавантаження / dev / md1 є / dev / md126 та / dev / md2 є / dev / md127 ?????

sudo mdadm --detail --scan повертає:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat повертає:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md повертає:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

Що я тут пропускаю?

Відповіді:


26

Тут я знайшов відповідь: RAID починається з md127 замість md0 . Коротше кажучи, я вирізав свої /etc/mdadm/mdadm.conf визначення з:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

до:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

і побіг:

sudo update-initramfs -u

Я далеко не експерт з цього питання, але моє розуміння таке ...

Ядро зібрало масиви до того, як відбувається звичайний час для збирання масивів. Коли ядро ​​збирає масиви, воно не використовує mdadm.conf. Оскільки ядра вже були зібрані ядром, нормальна збірка масиву, яка використовує mdadm.conf, була пропущена.

Виклик sudo update-initramfs -uповідомляє ядру ще раз переглянути систему, щоб зрозуміти, як запустити.

Я впевнений, що хтось з кращими знаннями мене виправить / деталізує.

Використовуйте наступний рядок для оновлення initrd для кожного відповідного ядра, яке існує у вашій системі:

sudo update-initramfs -k all -u

3
Так, насправді це відновить initrd для ядра та включить файли конфігурації, що стосуються конфігурації MD-RAID. Це означає, що коли створені пристрої ядро ​​буде знати, як їх називати відповідно до ваших налаштувань. Хороший улов. +1 ... btw: зауважив, що це також пояснено у пов'язаній темі форуму.
0xC0000022L

Привіт, ця відповідь вирішила повільну проблему ініціалізації RAID у моїй системі Arch Linux. Під час завантаження масив RAID0 запрацює та запрацює масив RAID0. Змінивши mdadm.conf, як описано, та запустивши mkinitcpio, це займе незначний час!
rep_movsd

Не вдалося отримати Ubuntu 12.04 (Mint 13) для завантаження без цього. Я навіть не міг змусити мого кореневого FS монтуватись із оболонки initramfs. Під час спроби встановити було багато лінійних помилок dm та помилок суперблоку. Я також переконався перейменувати свій md0 пристрій у 0, а md1 - на 1. Я не знаю, чи це теж було потрібно.
cmcginty

6
sudo update-initramfs -u

було все, що мені потрібно було виправити. Я нічого не редагував у /etc/mdadm/mdadm.conf.



0

Мені вдалося повторити проблему наступним чином:

Коли "Оновлення програмного забезпечення" запитав, чи хочу я оновити пакети (включаючи базу Ubuntu "та ядро, я сказав: ОК. Щойно встановлене ядро ​​використовувало поточні налаштування ядра / системи. Потім я створив масив. Оновлено лише ядро, що працює на даний момент з новими налаштуваннями RAID. Після того як я перезавантажився, нове ядро ​​нічого не знало про рейд, і дало йому ім'я md127!

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.