Tl; dr: як би я поступив про виправлення поганого блоку на 1 диску в масиві RAID1?
Але, будь ласка, прочитайте всю цю справу щодо того, що я вже намагався, і можливих помилок у своїх методах. Я намагався бути максимально детальним, і я дуже сподіваюся на відгуки
Така моя ситуація: у мене є два диски 2 ТБ (одна і та ж модель), встановлені в масиві RAID1, яким керує mdadm
. Близько 6 місяців тому я помітив перший поганий блок, коли SMART повідомив про це. Сьогодні я помітив більше, і зараз намагаюся це виправити.
Здається, ця сторінка HOWTO є однією статтею, до якої всі посилаються, щоб виправити погані блоки, про які повідомляє SMART. Це чудова сторінка, повна інформації, проте вона досить застаріла і не стосується моїх налаштувань. Ось як відрізняється мій конфігурація:
- Замість одного диска я використовую два диски в масиві RAID1. Один диск повідомляє про помилки, а інший добре. HOWTO написаний з урахуванням лише одного диска, який викликає різні питання, такі як "чи я використовую цю команду на дисковому пристрої чи на пристрої RAID"?
- Я використовую GPT, який fdisk не підтримує. Я використовував gdisk замість цього, і сподіваюся, що він дає мені ту саму інформацію, яка мені потрібна
Отже, давайте перейдемо до цього. Це те, що я зробив, проте, схоже, це не працює. Будь ласка, двічі перевіряйте мої розрахунки та метод на наявність помилок. Помилки звітності на диску / dev / sda:
# smartctl -l selftest /dev/sda
smartctl 5.42 2011-10-20 r3458 [x86_64-linux-3.4.4-2-ARCH] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed: read failure 90% 12169 3212761936
З цього ми бачимо, що помилка знаходиться на LBA 3212761936. Слідуючи HOWTO, я використовую gdisk, щоб знайти стартовий сектор, який буде використаний пізніше для визначення номера блоку (оскільки я не можу використовувати fdisk, оскільки він не підтримує GPT):
# gdisk -l /dev/sda
GPT fdisk (gdisk) version 0.8.5
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 3907029168 sectors, 1.8 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): CFB87C67-1993-4517-8301-76E16BBEA901
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 3907029134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2014 sectors (1007.0 KiB)
Number Start (sector) End (sector) Size Code Name
1 2048 3907029134 1.8 TiB FD00 Linux RAID
Використовуючи, tunefs
я знаходжу розмір блоку 4096
. Використовуючи цю інформацію та обчислення HOWTO, я роблю висновок, що йдеться про блок ((3212761936 - 2048) * 512) / 4096 = 401594986
.
Потім HOWTO спрямовує мене debugfs
перевірити, чи використовується блок (я використовую пристрій RAID, оскільки йому потрібна файлова система EXT. Це була одна з команд, яка мене збила з пантелику, оскільки я, спочатку, не знаю, чи варто використовувати / dev / sda або / dev / md0):
# debugfs
debugfs 1.42.4 (12-June-2012)
debugfs: open /dev/md0
debugfs: testb 401594986
Block 401594986 not in use
Отже, блок 401594986 - це порожній простір, я повинен мати можливість без проблем писати через нього. Перш ніж писати до нього, я намагаюся переконатися, що він справді не може бути прочитаний:
# dd if=/dev/sda1 of=/dev/null bs=4096 count=1 seek=401594986
1+0 records in
1+0 records out
4096 bytes (4.1 kB) copied, 0.000198887 s, 20.6 MB/s
Якби не вдалося прочитати блок, я б не очікував, що це спрацює. Однак це робить. Я повторюю , використовуючи /dev/sda
, /dev/sda1
, /dev/sdb
, /dev/sdb1
, /dev/md0
, і ± 5 до номера блоку для пошуку навколо поганого блоку. Це все працює. Я знижую плечима і йду вперед і здійснюю запис і синхронізацію (я використовую / dev / md0, тому що я зрозумів, що зміна одного диска, а не інший може спричинити проблеми, таким чином обидва диски замінюють поганий блок):
# dd if=/dev/zero of=/dev/md0 bs=4096 count=1 seek=401594986
1+0 records in
1+0 records out
4096 bytes (4.1 kB) copied, 0.000142366 s, 28.8 MB/s
# sync
Я б очікував, що запис у поганий блок призведе до того, щоб диски перевлаштували цей блок на хороший, проте виконання іншого тесту SMART показує інакше:
# 1 Short offline Completed: read failure 90% 12170 3212761936
Повернутися до квадрата 1. Отже, в основному, як я можу виправити поганий блок на 1 диску в масиві RAID1? Я впевнений, що я щось не зробив правильно ...
Дякуємо за ваш час та терпіння.
EDIT 1:
Я намагався провести довгий тест SMART, з тим самим LBA, який повертається як поганий (різниця лише в тому, що він повідомляє, що 30% залишається замість 90%):
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 30% 12180 3212761936
# 2 Short offline Completed: read failure 90% 12170 3212761936
Я також використовував погані блоки із наступним результатом. Вихід є дивним і, здається, відформатованим, але я спробував перевірити числа, витіснені як блоки, але налагодження видає помилку
# badblocks -sv /dev/sda
Checking blocks 0 to 1953514583
Checking for bad blocks (read-only test): 1606380968ne, 3:57:08 elapsed. (0/0/0 errors)
1606380969ne, 3:57:39 elapsed. (1/0/0 errors)
1606380970ne, 3:58:11 elapsed. (2/0/0 errors)
1606380971ne, 3:58:43 elapsed. (3/0/0 errors)
done
Pass completed, 4 bad blocks found. (4/0/0 errors)
# debugfs
debugfs 1.42.4 (12-June-2012)
debugfs: open /dev/md0
debugfs: testb 1606380968
Illegal block number passed to ext2fs_test_block_bitmap #1606380968 for block bitmap for /dev/md0
Block 1606380968 not in use
Не впевнений, куди піти звідси. badblocks
Виразно щось знайшли, але я не впевнений, що робити з представленою інформацією ...
EDIT 2
Більше команд та інформації.
Я відчуваю, що ідіот забув включити це оригінально. Це значення SMART для /dev/sda
. У мене є 1 Current_Pending_Sector та 0 Offline_Uncorrectable.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 166
2 Throughput_Performance 0x0026 055 055 000 Old_age Always - 18345
3 Spin_Up_Time 0x0023 084 068 025 Pre-fail Always - 5078
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 75
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 12224
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 252 252 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 75
181 Program_Fail_Cnt_Total 0x0022 100 100 000 Old_age Always - 1646911
191 G-Sense_Error_Rate 0x0022 100 100 000 Old_age Always - 12
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
194 Temperature_Celsius 0x0002 064 059 000 Old_age Always - 36 (Min/Max 22/41)
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0030 252 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 30
223 Load_Retry_Count 0x0032 252 252 000 Old_age Always - 0
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 77
# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu May 5 06:30:21 2011
Raid Level : raid1
Array Size : 1953512383 (1863.01 GiB 2000.40 GB)
Used Dev Size : 1953512383 (1863.01 GiB 2000.40 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Jul 3 22:15:51 2012
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : server:0 (local to host server)
UUID : e7ebaefd:e05c9d6e:3b558391:9b131afb
Events : 67889
Number Major Minor RaidDevice State
2 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Відповідно до однієї з відповідей: здавалося б, я перейшов seek
і skip
на dd
. Я використовував пошук, як це те, що використовується з HOWTO. Використання цієї команди призводить dd
до зависання: # dd, якщо = / dev / sda1 of = / dev / null bs = 4096 count = 1 пропуск = 401594986
Використання блоків навколо цього (..84, ..85, ..87, ..88), здається, працює чудово, а також використання / dev / sdb1 з блоком 401594986
читається також добре (як і очікувалося, коли цей диск пройшов тестування SMART ). Тепер, питання, яке у мене є: Коли я пишу над цією областю для перепризначення блоків, чи використовувати я /dev/sda1
чи /dev/md0
? Я не хочу викликати жодних проблем з масивом RAID, записуючи безпосередньо на один диск і не оновлюючи інший диск.
EDIT 3
Запис у блок безпосередньо створює помилки файлової системи. Я вибрав відповідь, яка швидко вирішила проблему:
# 1 Short offline Completed without error 00% 14211 -
# 2 Extended offline Completed: read failure 30% 12244 3212761936
Дякую всім, хто допомагав. =)
/sbin/badblocks -sv /dev/sda
перевірити диск.
sudo mdadm -D /dev/md0
smartctl -t long /dev/sda
і побачити, чи зміниться LBA першої помилки.