Не вдається видалити програмний масив raid-1, коли він знаходиться в деградованому стані


2

Я хочу видалити програмний масив raid-1 [коли він деградований стан], налаштований на LVM в системі Linux і не зможе видалити його. Я навіть намагався використовувати компакт-диск Knoppix Live для видалення RAID-1, пов’язаного з LVM, але ця спроба також не вдалася. Коли я аналізував проблему, існує LVM, налаштований разом з RAID, і логічний том (vg0-root) встановлений на файлову систему "/". Ви можете запропонувати будь-який спосіб видалити цей масив Raid-1 із втратою даних.

Будь ласка, дізнайтеся конфігурацію системи:

root@:~# fdisk -l

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    34613373    17305663   da  Non-FS data
/dev/sdb4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000bb738

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048    34613373    17305663   da  Non-FS data
/dev/sda4   *    34613374   156248189    60817408   fd  Linux raid autodetect
Partition 4 does not start on physical sector boundary.


root@:~# lsblk
NAME                    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                       8:0    0 465.8G  0 disk
├─sda1                    8:1    0  16.5G  0 part
└─sda4                    8:4    0    58G  0 part
  └─md0                   9:0    0    58G  0 raid1
    ├─vg0-swap (dm-0)   252:0    0   1.9G  0 lvm   [SWAP]
    ├─vg0-root (dm-1)   252:1    0  19.6G  0 lvm   /
    └─vg0-backup (dm-2) 252:2    0  19.6G  0 lvm
sdb                       8:16   0 465.8G  0 disk
├─sdb1                    8:17   0  16.5G  0 part
└─sdb4                    8:20   0    58G  0 part

root@S761012:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda4[0]
      60801024 blocks super 1.2 [2/1] [U_]

unused devices: <none>


root@:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Sep 23 02:59:04 2015
     Raid Level : raid1
     Array Size : 60801024 (57.98 GiB 62.26 GB)
  Used Dev Size : 60801024 (57.98 GiB 62.26 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Tue Mar  7 23:38:20 2017
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : Raja:0
           UUID : 8b007464:369201ca:13634910:1d1d4bbf
         Events : 823063

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed


root@:~# mdadm --manage /dev/md0 --fail /dev/sda4
mdadm: set device faulty failed for /dev/sda4:  Device or resource busy

root@:~# mdadm --manage /dev/md0 --remove /dev/sda4
mdadm: hot remove failed for /dev/sda4: Device or resource busy

root@:~# mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?


    root@:~# pvdisplay
      --- Physical volume ---
      PV Name               /dev/md0
      VG Name               vg0
      PV Size               57.98 GiB / not usable 3.00 MiB
      Allocatable           yes
      PE Size               4.00 MiB
      Total PE              14843
      Free PE               4361
      Allocated PE          10482
      PV UUID               uxH3FS-sUOF-LsIP-kAjq-7Bwq-suhK-CLJXI1

    root@:~#:~# lvdisplay
      --- Logical volume ---
      LV Path                /dev/vg0/swap
      LV Name                swap
      VG Name                vg0
      LV UUID                BIwp5H-NYlf-drQJ-12Vf-5qYM-7NUj-ty9GhE
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:00:58 +0000
      LV Status              available
      # open                 2
      LV Size                1.86 GiB
      Current LE             476
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:0

      --- Logical volume ---
      LV Path                /dev/vg0/root
      LV Name                root
      VG Name                vg0
      LV UUID                SBf1mc-iqaB-noBx-1neo-IEPi-HhsH-SM14er
      LV Write Access        read/write
      LV Creation host, time S000001, 2015-09-23 03:01:19 +0000
      LV Status              available
      # open                 1
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:1

      --- Logical volume ---
      LV Path                /dev/vg0/backup
      LV Name                backup
      VG Name                vg0
      LV UUID                w1jGGy-KkfJ-0lDp-MFDl-8BJU-uJWU-24XKSL
      LV Write Access        read/write
      LV Creation host, time SRAJA, 2016-10-22 05:30:03 +0000
      LV Status              available
      # open                 0
      LV Size                19.54 GiB
      Current LE             5003
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:2

    root@:~# vgdisplay
      --- Volume group ---
      VG Name               vg0
      System ID
      Format                lvm2
      Metadata Areas        1
      Metadata Sequence No  674
      VG Access             read/write
      VG Status             resizable
      MAX LV                0
      Cur LV                3
      Open LV               2
      Max PV                0
      Cur PV                1
      Act PV                1
      VG Size               57.98 GiB
      PE Size               4.00 MiB
      Total PE              14843
      Alloc PE / Size       10482 / 40.95 GiB
      Free  PE / Size       4361 / 17.04 GiB
      VG UUID               LjCUyX-25MQ-WCFT-j2eF-2UWX-LYCp-TtLVJ5

Нарешті я намагався зробити:

 root@S761012:~# mdadm --zero-superblock /dev/md0
 mdadm: Couldn't open /dev/md0 for write - not zeroing

root @: ~ # umount / dev / md0 umount: / dev / md0: не встановлений root @: ~ # root @: ~ # mdadm --manage / dev / md0 --remove / dev / sda4 mdadm: гаряче видалення не вдалося для / dev / sda4: Пристрій або ресурс зайнятий корінь @: ~ # mdadm --stop / dev / md0 mdadm: Неможливо отримати ексклюзивний доступ до / dev / md0: Можливо, запущений процес, встановлена ​​файлова система або активна група томів? root @: ~ # mdadm --zero-superblock / dev / sda4 mdadm: Не вдалося відкрити / dev / sda4 для запису - не занулення

Оскільки sda4 - це активний диск, він не дозволяє мені робити жодних операцій. Чи можете ви запропонувати будь-які інші способи досягти цього.

  • Спробувавши на живому дисках knoppix та на Gparted live, результат такий же.

Я намагався використовувати як зазначені кроки:

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search   -> After deep search is not showing any thing.

-> Для відновлення не знайдено або вибрано розділ. Вона порожня. Через що ремонт завантаження також не працює, як очікувалося. Завжди він перебуває в режимі рятувальної роботи.

Відповіді:


2

Перед усім ви повинні зрозуміти, як це працює. Розділи працюють на SSD цілого диска, програмний RAID працює над розділами і далі, як на схемі:

Диск sda -> розділ sda4 -> програмне забезпечення RAID md0 -> фізичний об'єм LVM -> Група томів LVM vg0 -> логічний об'єм LVM -> файлова система -> точка монтажу системи.

Ви не можете відключити кореневу файлову систему з інтерфейсу командного рядка, який працює з неї. Ось чому вам потрібно запустити ту саму систему Linux з CD / DVD. Ви можете використовувати той самий компакт-диск для встановлення Linux або останню версію SystemRescueCD . Вам потрібно перевірити після запуску з CD:

  • Чи запускається програмний RAID та його стан командою cat /proc/mdstat? RAID-пристрій mdможе мати інший номер.

  • Чи активна команда томів LVM командою vgdisplay?

  • Чи файлові системи (на томах LVM) монтуються командою mount?

Потім відключіть всі файлові системи, розміщені на томах LVM за командою umount, деактивуйте групу томів LVM vg0 за командою vgchange -a n vg0, за командою вимкніть масив RAID mdadm --stop /dev/md0, видаліть пристрій RAID за командою mdadm --remove /dev/md0і лише потім зануліть суперблок на sda4 за командою mdadm --zero-superblock /dev/sda4.

Перед цим потрібно створити резервну копію всіх файлів у всіх файлових системах томів LVM.

Можливо, ви відновите завантажувач grub.

Оновлення:

Перед відновленням завантаження вам потрібно відновити LVM! Завантажте свою систему знову з SystemResqueCD. Запустіть fdisk /dev/sdaі натисніть:

t (type)
4
8e (Linux LVM)
w

Потім запустіть testdisk:

create new log file
select /dev/sda and press Proceed
select Intel/PC partition type
select Analyse
select Backup (at first starting `testdisk`) or select Quick Search and Press Enter
select Deeper Search
select Linux LVM with heights start CHS values and press space key to change this found structure as Primary partition and press enter
select Write

Потім зберігайте резервну копію testdisk кудись scp backup.log user@somehost:~ і перезавантажте знову з SystemResqueCD. після перезавантаження ви можете побачити свою групу томів vg0за допомогою команди vgdisplay. Якщо це не запустити testdiskще раз, завантажте резервну копію testdisk і почніть знову з іншого заснованого Linux LVM-розділу.

Після успішного відновлення LVM ви можете відновити завантаження, як описано в ремонті завантаження Ubuntu .


Команда mdadm - stop / dev / md0 працювала за допомогою SystemRescueCD. Чи є у SystemRescueCD інструменти для резервного копіювання файлових систем LVM, якщо так, то, будь ласка, повідомте мене про це.
Сонячний

Ви можете використовувати tar gzip scp rsync ftp dd FSArchiver PartImage Gparted.
Михайло Хиргій

Після того, як я зробив, mdadm --zero-superblock / dev / sda4, машина Linux перейде в режим реструктуризації, і завантажився завантажувач машини. Я намагався з диском для відновлення завантаження, все ще не мав успіху. Чи є якісь вклади чи пропозиції щодо відновлення цієї проблеми.
Сонячно

Яка версія Linux була на вашому жорсткому диску?
Михайло Хиргій

ubuntu 14.04 LTS Kernel 3.13-0-85
Сонячний

0

Вам, швидше за все, доведеться повернутися до режиму "єдиний користувач" за допомогою команди вимкнення, а потім відключити гучність, перебуваючи в режимі для одного користувача. У цей момент том RAID-1 не буде використовуватись, і ви зможете видалити масив RAID.

відключення зараз має привести вас до однокористувача.

відключення -h тепер зупинить систему

shutdown -r зараз перезапустить його

вимкнення - допомога надає всі параметри команди, включаючи надсилання повідомлень користувачам, які ввійшли в систему, що ви переводите систему в режим однокористувача.


Дякую і вибачте за пізню відповідь. Я спробував вище пропозицію, але все ж я стикаюся з тими ж помилками. root @: ~ # umount / dev / md0 umount: / dev / md0: не встановлений root @: ~ # root @: ~ # mdadm --manage / dev / md0 --remove / dev / sda4 mdadm: гаряче видалення не вдалося для / dev / sda4: Пристрій або ресурс зайнятий корінь @: ~ # mdadm --stop / dev / md0 mdadm: Неможливо отримати ексклюзивний доступ до / dev / md0: Можливо, запущений процес, встановлена ​​файлова система або активна група томів? root @: ~ # mdadm --zero-superblock / dev / sda4 mdadm: Не вдалося відкрити / dev / sda4 для запису - не занулення
Сонячний

Схоже, причина полягає в тому, що Михайло вказав - навіть в режимі для однокористувача ваше ядро ​​все ще використовує накопичувач (адже саме там він завантажився.) Тому вам потрібно буде підвести систему за допомогою USB або CD Live Завантажте, а потім працюйте з масивом.
Джордж Ерхард
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.