[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: не инициализируется md raid с корневым разделом при загрузке



05.12.2013, 09:24, "Vladimir Skubriev" <vladimir@skubriev.ru>:
> 04.12.2013 21:27, Alexander пишет:
>
>>  Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком отдано как PV под lvm.
>>
>>  После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри), и перезагрузки - на стадии монтирования корня пишется следующее:
>>
>>  assembling all MD arrays ... Failure: faild to assemble all arrays.
>
> Судя вот по этому и
>
>>  Volume group "vg1" not found
>>  Unable to find LVM volume vg1/lv_root
>>  Waiting for root file system ...
>>  Gave up waiting for root device.
>>  ALERT! /dev/mapper/vg1-lv_root does not exist.
>>
>>  и вываливается в шелл бизибокса - initramfs
>>
>>  Сдается мне с переименованием VG это не связано - просто совпадение, ибо проделал аналогичные действия на виртуалке и все взлетело (fstab отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо до lvm дело даже и не доходит, как я понимаю...
>>
>>  в бизибоксе:
>>
>>  mdadm --examine --scan
>>  показывает рейд
>>
>>  mdadm --assemble --scan
>>  тишина
>
> вот по этому
>
>>  mdadm --detail --scan
>>  тишина
>
> странно почему тишина
>
>>  uuid в mdadm.conf правильный
>>
>>  подскажите куда копать?..
>
> дело в том, что не собирается Raid
>
> лично мне как то маловато информации чтобы догадаться до того где собака
> зарыта
>
> но скорее всего то, что дело в не сборке массивов с vg автоматом
>
> нужен mdadm.conf из busybox
>
> и пожалуй еще
> #mdadm -Q --detail /dev/md*
> из того же busybox'a
>
> ну тогда еще и (вопрос в конце часть команды)
> #mdadm -E /dev/sd[a-z]?
>
> cat /proc/mdstat тоже из busybox на всякий случай
>
> и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd,
> хотя вот тут не факт что mdadm это важно.
>

небольшое уточнение - система в таком конфиге работала, несколько раз перезагружалась, все было хорошо. Последнее что с ней было сделано и могло привести к текущему состоянию это буквально следующее:
# vgrename vg0 vg1
# nano /etc/fstab
# update-initramfs -u -k all
# dprg-reconfigure-grub
# reboot

в итоге сейчас доигрался до того что убрал второй диск из рейда, т.е. в данный момент рейд /dev/md0 состоит из одного устройства /dev/sda1


вывод из rescue live cd:


# cat /proc/mdstat

Personalities : [raid1]
md0 : active raid1 sda1[0]
      1953382272 blocks super 1.2 [1/1] [U]

unused devices: <none>


# mdadm -Q --detail /dev/md0

/dev/md0:
        Version : 1.2
  Creation Time : Thu Nov 28 12:53:31 2013
     Raid Level : raid1
     Array Size : 1953382272 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 1953382272 (1862.89 GiB 2000.26 GB)
   Raid Devices : 1
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Dec  5 10:27:04 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:0  (local to host rescue)
           UUID : 81fa3479:745027e0:569b096e:eb83e983
         Events : 85

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1


# mdadm -E /dev/sda1

/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 81fa3479:745027e0:569b096e:eb83e983
           Name : rescue:0  (local to host rescue)
  Creation Time : Thu Nov 28 12:53:31 2013
     Raid Level : raid1
   Raid Devices : 1

 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382272 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764544 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 72696fdd:19d2f476:628e23ae:2cdd214c

    Update Time : Thu Dec  5 10:27:38 2013
       Checksum : 4d854cf1 - correct
         Events : 85


   Device Role : Active device 0
   Array State : A ('A' == active, '.' == missing)


# cat /etc/mdadm/mdadm.conf | grep ARRAY
ARRAY /dev/md/0 metadata=1.2 UUID=81fa3479:745027e0:569b096e:eb83e983 name=hv3:0


# fdisk -l /dev/sda | grep sda
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect


из бизибокса:

mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=81fa3479:745027e0:569b096e:eb83e983 name=hv3:0

mdadm --assemble --scan
тишина

mdadm -Q --detail /dev/md0
нет такого устройства

# cat /etc/mdadm/mdadm.conf | grep ARRAY
аналогично выводу в livecd

# mdadm -E /dev/sda1
аналогично выводу в livecd

# cat /proc/mdstat
Personalities : [raid10] [raid1] [raid6] [raid5] [raid4]
unused devices: <none>


Reply to: