[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: mdadm "not large enough to join array" et fdisk incohérent



Le 26 octobre 2010 22:00, Kevin Hinault <hinault@gmail.com> a écrit :
> Le 26 octobre 2010 20:56, Sylvain L. Sauvage
> <Sylvain.L.Sauvage@free.fr> a écrit :
>
> Donc a priori il suffirait de trouver où j'ai perdu les 512ko... Piste
> intéressante merci !!
>
>> Tu utilises directement /dev/sd. ou tu as fait une partition
>> /dev/sd.1 ?
>
> Oui j'ai créé une partition de type primaire sur sdb donc sdb1.
>
>> Si partition, est-ce que c’est bien la même table ? (Je pense
>> p.ex. à une différence de taille entre une table ms-dos et une
>> GPT.)


Tes excellentes questions viennent de me sauver. J'ai tenté dans un
premier temps de copier la table de partition d'un disque à l'autre
pour être certain d'avoir les mêmes puis j'ai retenté un luksFormat
sur sdb1 ...
... et manque de pot je revient exactement au même chiffre sur
/dev/dm-4. A mon avis  il y a eu une mise à jour de cryptsetup ou luks
depuis le début de l'année qui doit maintenant utiliser un entête plus
grand sur le disque. (Ce n'est qu'une supposition mais je ne vois pas
d'autres possibilités).

# fdisk -l /dev/mapper/raid_disk1
Disk /dev/mapper/raid_disk1: 1000.2 GB, 1000201188352 bytes

Par contre ça m'a permis de trouver une parade, j'ai fait le
luksFormat directement sur le disque /dev/sdb

# cryptsetup luksFormat -c aes -h sha256 /dev/sdb

Et je gagne 2Mo environ.

# fdisk -l /dev/mapper/raid_disk1
Disk /dev/mapper/raid_disk1: 1000.2 GB, 1000203833344 bytes

Et donc je peux reconstruire mon array !!! :

# mdadm --manage /dev/md0 --add /dev/dm-5
mdadm: added /dev/dm-5

# mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Feb 11 22:39:46 2010
     Raid Level : raid1
     Array Size : 976759360 (931.51 GiB 1000.20 GB)
  Used Dev Size : 976759360 (931.51 GiB 1000.20 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Tue Oct 26 22:52:05 2010
          State : clean, degraded, recovering
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

 Rebuild Status : 0% complete

           UUID : e6d41a96:ca63711a:333fb2a5:6fcb4886 (local to host loki)
         Events : 0.1151744

    Number   Major   Minor   RaidDevice State
       2     253        5        0      spare rebuilding   /dev/dm-5
       1     253        4        1      active sync   /dev/dm-4


L'autre piste que j'aurais suivi ensuite aurais été de faire un dd
complet d'un disque à l'autre.

-- 
Kévin


Reply to: