grub2 et raid1
Bonjour,
Je viens de récupérer un serveur (OVH) qui a eu un souci de disque. Celui ci a
été remplacé. Voilà la situation
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
[multipath] [faulty] md1 : active raid1 sdb1[0] sda1[1]
307198912 blocks [2/2] [UU]
md2 : active raid1 sdb2[0] sda2[1]
102398912 blocks [2/2] [UU]
md3 : active raid1 sdb3[0] sda3[1]
271770560 blocks [2/2] [UU]
md5 : active raid1 sdb5[0] sda5[1]
46078848 blocks [2/2] [UU]
La racine est /dev/md1. Le disque mort était (ou est devenu) /dev/sdb. La
machine ne démarrait plus sur le disque dur. En démraant sur un noyau OVH,
1) J'ai refait le RAID1 (en clair repartitionné et reintégré sdb1, sdb2, sdb3
et sdb5 dans les md correspondant). Celui ci est opérationnel comme le montre
ce qui précède.
Le fichier mdadm.co,f a été refait via /usr/share/mdadm/mkconf
2) J'ai fait
grub-mkdevicemap
grub-install "(hd0)"
grub-install "(hd1)"
# cat /boot/grub/device.map donne
(hd0) /dev/disk/by-id/ata-ST3750525AS_5VP7WBDR
(hd1) /dev/disk/by-id/ata-ST3750528AS_6VPDCZQJ
et les deux grub-install renvoient
Installation finished. No error reported.
3) Puis je termine par un
update-grub
qui ne signale aucune erreur.
Dans le grub.cfg, on retrouve bien
insmod diskfilter
insmod mdraid09
ainsi que
set root='mduuid/db60a4b7487d052ba4d2adc226fd5302'
(c'est bien l'UUID de /dev/md1)
et
linux /boot/vmlinuz-3.5.0-34-generic root=/dev/md1
Bref je ne vois pas d'erreurs là dedans.
4) Un update-initramfs -u donne
cryptsetup: WARNING: failed to detect canonical device of /dev/md1
cryptsetup: WARNING: could not determine root device from /etc/fstab
bien que
********* /etc/fstab *************
<file system> <mount point> <type> <options> <dump> <pass>
/dev/md1 / ext3 errors=remount-ro,relatime 0 1
/dev/md2 /home ext3 defaults,relatime 1 2
/dev/md3 /var ext3 defaults,relatime 1 2
/dev/md5 /sauvegarde ext3 defaults,relatime 1 2
/dev/sda6 swap swap defaults 0 0
/dev/sdb6 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
dev /dev devtmpfs rw 0 0
et que rien n'est crypté.
Avec tout ça rien à faire pour bouter la machine elle même. Le système
boute sur le noyau OVH en déclarant la racine sur /dev/md1 mais impossible
de bouter sur le noyau local. Je ne peux évidemment pas voir si ça coince
au niveau de grub (grub2 2.00-7) ou de l'initramfs.
Je n'ai pas beaucoup d'expérience sur les RAID1 logiciels, quelqu'un aurait-il
une indication ou un doc un peu précise sur la configuration
RAID1 sans LVM + grub2 avec racine sur /dev/md1 (pas de
/dev/md0 je ne sais pas pourquoi, oubli à la création je pense).
Merci d'avoir lu
François Boisson
Reply to: