Опис
Сьогодні я підключив інший жорсткий диск і відключив підключення рейдових накопичувачів, щоб переконатися, що, коли я витер диск, я випадково не вибрав неправильні диски.
Тепер, коли я знову підключив свої накопичувачі, масив програмного рейду 1 більше не монтується / розпізнається / не знайдено. Використовуючи утиліту диска, я міг бачити, що накопичувачами є / dev / sda та / dev / sdb, тому я спробував працювати, на sudo mdadm -A /dev/sda /dev/sdb
жаль, я продовжую отримувати повідомлення про помилку із зазначеннямmdadm: device /dev/sda exists but is not an md array
Технічні умови:
ОС: Ubuntu 12.04 LTS Desktop (64 біт)
Приводи: 2 х 3 Тб WD червоний (ті ж моделі абсолютно нові) ОС, встановлена на третьому диску (64 Гб ssd) (багато встановлень Linux)
Материнська плата: P55 FTW
Процесор: Intel i7-870 Повні характеристики
Результат sudo mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
Коли я завантажуюся з режиму відновлення, я отримую злітові коди "помилки ata1", які пролітають дуже довго.
Чи може хто-небудь повідомити мені належні кроки для відновлення масиву?
Я був би радий просто відновити дані, якщо це є можливою альтернативою відновлення масиву. Я читав про " тестовий диск ", і у вікі вказується, що він може знайти втрачені розділи для Linux RAID md 0.9 / 1.0 / 1.1 / 1.2, але я запускаю mdadm версії 3.2.5. Хто-небудь ще мав досвід використання цього інструменту для відновлення даних програмного рейду 1?
Результат sudo mdadm --examine /dev/sd* | grep -E "(^\/dev|UUID)"
mdadm: No md superblock detected on /dev/sda.
mdadm: No md superblock detected on /dev/sdb.
mdadm: No md superblock detected on /dev/sdc1.
mdadm: No md superblock detected on /dev/sdc3.
mdadm: No md superblock detected on /dev/sdc5.
mdadm: No md superblock detected on /dev/sdd1.
mdadm: No md superblock detected on /dev/sdd2.
mdadm: No md superblock detected on /dev/sde.
/dev/sdc:
/dev/sdc2:
/dev/sdd:
Зміст mdadm.conf:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Tue, 08 Jan 2013 19:53:56 +0000
# by mkconf $Id$
Результат, sudo fdisk -l
як ви бачите, sda та sdb відсутні.
Disk /dev/sdc: 64.0 GB, 64023257088 bytes
255 heads, 63 sectors/track, 7783 cylinders, total 125045424 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0009f38d
Device Boot Start End Blocks Id System
/dev/sdc1 * 2048 2000895 999424 82 Linux swap / Solaris
/dev/sdc2 2002942 60594175 29295617 5 Extended
/dev/sdc3 60594176 125044735 32225280 83 Linux
/dev/sdc5 2002944 60594175 29295616 83 Linux
Disk /dev/sdd: 60.0 GB, 60022480896 bytes
255 heads, 63 sectors/track, 7297 cylinders, total 117231408 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x58c29606
Device Boot Start End Blocks Id System
/dev/sdd1 * 2048 206847 102400 7 HPFS/NTFS/exFAT
/dev/sdd2 206848 234455039 117124096 7 HPFS/NTFS/exFAT
Disk /dev/sde: 60.0 GB, 60022480896 bytes
255 heads, 63 sectors/track, 7297 cylinders, total 117231408 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sde doesn't contain a valid partition table
Вихід dmesg | grep ata був дуже довгим, ось ось посилання: http://pastebin.com/raw.php?i=H2dph66y
Вихід dmesg | греп ата | head -n 200 після встановлення біосу на ahci та після завантаження без цих двох дисків.
[ 0.000000] BIOS-e820: 000000007f780000 - 000000007f78e000 (ACPI data)
[ 0.000000] Memory: 16408080k/18874368k available (6570k kernel code, 2106324k absent, 359964k reserved, 6634k data, 924k init)
[ 1.043555] libata version 3.00 loaded.
[ 1.381056] ata1: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4100 irq 47
[ 1.381059] ata2: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4180 irq 47
[ 1.381061] ata3: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4200 irq 47
[ 1.381063] ata4: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4280 irq 47
[ 1.381065] ata5: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4300 irq 47
[ 1.381067] ata6: SATA max UDMA/133 abar m2048@0xfbff4000 port 0xfbff4380 irq 47
[ 1.381140] pata_acpi 0000:0b:00.0: PCI INT A -> GSI 18 (level, low) -> IRQ 18
[ 1.381157] pata_acpi 0000:0b:00.0: setting latency timer to 64
[ 1.381167] pata_acpi 0000:0b:00.0: PCI INT A disabled
[ 1.429675] ata_link link4: hash matches
[ 1.699735] ata1: SATA link down (SStatus 0 SControl 300)
[ 2.018981] ata2: SATA link down (SStatus 0 SControl 300)
[ 2.338066] ata3: SATA link down (SStatus 0 SControl 300)
[ 2.657266] ata4: SATA link down (SStatus 0 SControl 300)
[ 2.976528] ata5: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
[ 2.979582] ata5.00: ATAPI: HL-DT-ST DVDRAM GH22NS50, TN03, max UDMA/100
[ 2.983356] ata5.00: configured for UDMA/100
[ 3.319598] ata6: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[ 3.320252] ata6.00: ATA-9: SAMSUNG SSD 830 Series, CXM03B1Q, max UDMA/133
[ 3.320258] ata6.00: 125045424 sectors, multi 16: LBA48 NCQ (depth 31/32), AA
[ 3.320803] ata6.00: configured for UDMA/133
[ 3.324863] Write protecting the kernel read-only data: 12288k
[ 3.374767] pata_marvell 0000:0b:00.0: PCI INT A -> GSI 18 (level, low) -> IRQ 18
[ 3.374795] pata_marvell 0000:0b:00.0: setting latency timer to 64
[ 3.375759] scsi6 : pata_marvell
[ 3.376650] scsi7 : pata_marvell
[ 3.376704] ata7: PATA max UDMA/100 cmd 0xdc00 ctl 0xd880 bmdma 0xd400 irq 18
[ 3.376707] ata8: PATA max UDMA/133 cmd 0xd800 ctl 0xd480 bmdma 0xd408 irq 18
[ 3.387938] sata_sil24 0000:07:00.0: version 1.1
[ 3.387951] sata_sil24 0000:07:00.0: PCI INT A -> GSI 19 (level, low) -> IRQ 19
[ 3.387974] sata_sil24 0000:07:00.0: Applying completion IRQ loss on PCI-X errata fix
[ 3.388621] scsi8 : sata_sil24
[ 3.388825] scsi9 : sata_sil24
[ 3.388887] scsi10 : sata_sil24
[ 3.388956] scsi11 : sata_sil24
[ 3.389001] ata9: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf0000 irq 19
[ 3.389004] ata10: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf2000 irq 19
[ 3.389007] ata11: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf4000 irq 19
[ 3.389010] ata12: SATA max UDMA/100 host m128@0xfbaffc00 port 0xfbaf6000 irq 19
[ 5.581907] ata9: SATA link up 3.0 Gbps (SStatus 123 SControl 0)
[ 5.618168] ata9.00: ATA-8: OCZ-REVODRIVE, 1.20, max UDMA/133
[ 5.618175] ata9.00: 117231408 sectors, multi 16: LBA48 NCQ (depth 31/32)
[ 5.658070] ata9.00: configured for UDMA/100
[ 7.852250] ata10: SATA link up 3.0 Gbps (SStatus 123 SControl 0)
[ 7.891798] ata10.00: ATA-8: OCZ-REVODRIVE, 1.20, max UDMA/133
[ 7.891804] ata10.00: 117231408 sectors, multi 16: LBA48 NCQ (depth 31/32)
[ 7.931675] ata10.00: configured for UDMA/100
[ 10.022799] ata11: SATA link down (SStatus 0 SControl 0)
[ 12.097658] ata12: SATA link down (SStatus 0 SControl 0)
[ 12.738446] EXT4-fs (sda3): mounted filesystem with ordered data mode. Opts: (null)
Інтелектуальні тести на накопичувачах повернулися «здоровими», проте я не можу завантажувати машину з підключеними дисками, коли машина перебуває в режимі AHCI (не знаю, чи це має значення, але це червоні WD 3tb). Я сподіваюся, що це означає, що приводи прекрасні, оскільки їх було зовсім небагато, щоб придбати і зовсім нові. Утиліта диска показує масивний сірий "невідомий", показаний нижче:
З тих пір я видалив свій RevoDrive, щоб спробувати зробити речі простішими / зрозумілішими.
Наскільки я можу сказати, на материнській платі немає двох контролерів. Можливо Revodrive, який я зняв після цього, який підключається через pci, плутав речі?
Хто-небудь отримав якісь пропозиції щодо відновлення даних з накопичувача, а не відновлення масиву? Тобто покрокове використання testdisk або іншої програми відновлення даних ....
Я спробував поставити накопичувачі в іншу машину. У мене був той самий випуск, коли машина не пройшла повз екран біоса, але ця постійно перезавантажувала б себе. Єдиним способом змусити машину до завантаження було б відключити диски. Я також намагався використовувати різні сата-кабелі, не маючи допомоги. Одного разу мені вдалося змусити його виявити диск, але знову mdadm --examine не виявив жодного блоку. Чи дозволяє це зробити висновок, що самі мої диски # @@ # $ # @, хоча короткі розумні тести заявляють, що вони "здорові"?
Здається, накопичувачі справді не врятують. Я не можу навіть відформатувати обсяги в дисковій утиліті. Gparted не побачить диски, щоб поставити таблицю розділів. Я навіть не можу випустити безпечну команду стирання, щоб повністю скинути диски. Це був безумовно програмний рейд, який я створив після виявлення, що апаратний рейд, який я спочатку намагався, був насправді "підробленим" нальотом і повільніше, ніж програмний наліт.
Дякую за всі ваші зусилля, щоб намагатися допомогти мені. Я думаю, що "відповідь", що ви нічого не можете зробити, якщо вам якось вдасться одночасно вбити обидва ваші диски.
Я повторений SMART тести ( на цей раз в командному рядку , а не корисність диска) і диски роблять реагувати успішно «без помилок» . Однак я не в змозі відформатувати накопичувачі (використовуючи дискову утиліту) або визнати їх Gparted на тій чи іншій машині. Я також не в змозі запустити команди накопичувачів стирання hdparm або безпечного стирання на дисках. Можливо, мені потрібно dd / dev / null цілі накопичувачі? Як же вони все ще реагують на SMART, але два комп’ютери нічого не можуть зробити з ними? Зараз я працюю на довгих розумних тестах на обох накопичувачах і опублікую результати через 255 хвилин (саме стільки часу сказали, що це буде потрібно).
Я поставив інформацію про процесор разом з іншими технічними характеристиками (за материнською платою тощо). Це виявляється архітектурою, що попередньо піщана.
Вихід розширеного сканування SMART одного диска:
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-36-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WMC1T1480750
LU WWN Device Id: 5 0014ee 058d18349
Firmware Version: 80.00A80
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: 9
ATA Standard is: Exact ATA specification draft version not indicated
Local Time is: Sun Jan 27 18:21:48 2013 GMT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (41040) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 255) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 196 176 021 Pre-fail Always - 5175
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 29
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 439
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 29
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 24
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 4
194 Temperature_Celsius 0x0022 121 113 000 Old_age Always - 29
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed without error 00% 437 -
# 2 Short offline Completed without error 00% 430 -
# 3 Extended offline Aborted by host 90% 430 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Він сказав, що завершено без помилок. Чи означає це, що привід повинен бути добре чи просто тест вдалося виконати? Чи варто запускати нове запитання, оскільки я більше стурбований тим, як повернути використання накопичувачів, а не масив даних / рейду в цей момент ...
Ну і сьогодні я переглядав свою файлову систему, щоб побачити, чи є якісь дані, які потрібно зберегти, перш ніж встановлювати centOS. Я помітив папку під назвою dmraid.sil у своїй домашній папці. Я здогадуюсь це з того часу, коли я спочатку налаштував рейдовий масив з підробленим контролером рейду? Я обов'язково видалив пристрій (досить давно, перш ніж вирішити цю проблему) і безпосередньо перед тим, як використовувати mdadm для створення "програмного нальоту". Чи є якимось чином я десь пропустив хитрість, і це якимось чином було запущено "підроблений" рейд без пристрою, і саме про це йде ця папка dmraid.sil? Так заплутався. Тут є такі файли, як sda.size sda_0.dat sda_0.offset тощо. Будь-яка порада щодо того, що ця папка являє, була б корисною.
Виявляється, накопичувачі були заблоковані! Я розблокував їх досить легко за допомогою команди hdparm. Це, мабуть, і стало причиною всіх помилок вхідного виводу. На жаль, у мене зараз така проблема:
Мені вдалося встановити пристрій md. Чи можна відключити один привід, відформатувати його на звичайний диск і скопіювати дані на нього? Ive вистачило 'розваги' з рейдом, і я збираюся спуститись автоматизованим маршрутом резервного копіювання з rsync я думаю. Я хочу запитати, перш ніж робити щось, що може спричинити проблеми з цілісністю даних.