Synology має індивідуальну версію драйвера md та наборів інструментів mdadm, яка додає прапор "DriveError" до структури прапорів rdev-> у ядрі.
Чистий ефект - якщо вам не шкода отримати помилку масиву (перший диск) у поєднанні з помилкою на другому диску - масив переходить у стан, що не дозволяє вам ремонтувати / реконструювати масив, навіть незважаючи на те, що читання з накопичувача працюють штрафу.
На даний момент я не дуже переживаю це питання з точки зору цього масиву, оскільки я вже витягнув вміст і маю намір реконструювати, але більше від того, щоб бажати мати шлях до вирішення цього питання в майбутньому , оскільки я вже вдруге пережив це, і я знаю, що бачив інших, що задають подібні запитання на форумах.
Підтримка Synology була менш ніж корисною (і, як правило, не реагує на реалізацію), і не надаватиме жодної інформації НА ВСІХ щодо боротьби з набором рейдів у коробці.
Зміст / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
Статус від mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
Як бачите - / dev / sda5 було додано до масиву. (Якраз цей диск виявився невдалим) - але, хоча md сприймає привід як запасний, він не відновиться до нього. / dev / sde5 у цьому випадку - проблемний диск із станом (E) DiskError.
Я спробував зупинити пристрій md, запустивши повторно збирати, видалити / прочитати sda5 з пристрою / тощо. Без змін у поведінці.
Я зміг повністю відтворити масив за допомогою наступної команди:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
який повернув масив до цього стану:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
Потім я знову додав / dev / sda5:
mdadm --manage /dev/md2 --add /dev/sda5
після чого він розпочав перебудову:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
Зверніть увагу на положення "відсутнього" накопичувача, що відповідає точному положенню відсутнього гнізда.
Як тільки це закінчиться, я думаю, що я, мабуть, потягнуть за собою сумнівний привід і зможу його відновити знову.
Я шукаю будь-які пропозиції щодо того, чи є якийсь "менш страшний" спосіб зробити цей ремонт - чи хтось пережив цей досвід із масиву Synology і знає, як змусити його відновити інше, ніж вимкнути пристрій md в автономному режимі та відтворення масиву з нуля.