[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Restauration d'une config LVM / mdadm raid 1



Bonjour,

Suite à une manip physique (changement de pâte thermique), mon raid ne
veut plus se monter. J'ai peut-être touché un câble, mais en tout cas
l'UEFI de la CM reconnait bien 2 disques actifs (+ SSD système, pas de
soucis avec celui là), Debian aussi.

Les 2 disques sont assez vieux (dont un dont le connecteur s'est
"intégré" dans le câble... dur à expliquer), mais SMART ne me donne rien
d'alarmant.


Depuis, pour démarrer, je suis obliger de virer le RAID de fstab et il
n'y a pas moyen de monter le disque.

C'est un RAID 1 mdadm, avec une unique partition LVM, et autant les
disques sont bien reconnus, autant LVM n'arrive pas à me trouver de PV,
VG, ni de LV.


J'ai essayé avec vgcfgrestore, mais il me dit qu'il n'arrive pas à
trouver l'uuid correspondant au fichier.
J'ai mis dans le fichier de backup l'uuid que me donne blkid, rien à
faire non plus... Je commence à sécher un peu là...

Voici ce que je peux vous dire :

root@olorin-fixe:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sun Jan 17 22:18:35 2016
     Raid Level : raid1
     Array Size : 160704384 (153.26 GiB 164.56 GB)
  Used Dev Size : 160704384 (153.26 GiB 164.56 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Jan 21 01:06:17 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : olorin-fixe:0  (local to host olorin-fixe)
           UUID : f84fe148:a775eac4:76ff776e:5845be39
         Events : 764

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1


-------------------------------

root@olorin-fixe:~# mdadm --examine --scan /dev/sdb1 /dev/sdc1
ARRAY /dev/md/0  metadata=1.2 UUID=f84fe148:a775eac4:76ff776e:5845be39
name=olorin-fixe:0

-------------------------------

root@olorin-fixe:~# e2fsck -f /dev/md0
e2fsck 1.42.13 (17-May-2015)
ext2fs_open2: Numéro magique invalide dans le super-bloc
e2fsck : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
e2fsck: Numéro magique invalide dans le super-bloc lors de la tentative
d'ouverture de /dev/md0

Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient
réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou
autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
    e2fsck -b 8193 <périphérique>
 ou
    e2fsck -b 32768 <périphérique>


-------------------------------

root@olorin-fixe:~# lvscan -a
  ACTIVE            '/dev/olorin-fixe-vg/root' [20,00 GiB] inherit
  ACTIVE            '/dev/olorin-fixe-vg/swap_1' [15,76 GiB] inherit
  ACTIVE            '/dev/olorin-fixe-vg/home' [320,00 GiB] inherit

root@olorin-fixe:~# vgscan
  Reading all physical volumes.  This may take a while...
  Found volume group "olorin-fixe-vg" using metadata type lvm2

root@olorin-fixe:~# pvscan
  PV /dev/sda5   VG olorin-fixe-vg   lvm2 [465,52 GiB / 109,76 GiB free]
  Total: 1 [465,52 GiB] / in use: 1 [465,52 GiB] / in no VG: 0 [0   ]


-------> Le LVM sur le RAID c'est VG olorin-fixe-storage  / LV storage0,
là il reconnait le SSD système uniquement.


Reply to: