[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Raid1 nach Neustart immer Degraded weil Device fehlt...



Am 13.03.2011 10:37, schrieb Peter Funk:
Hallo Stefan,

Stefan Drees schrieb am Sonntag, den 13.03.2011 um 01:12:
Hallo,
ich hoffe Ihr könnt mir weiterhelfen. Nutze schon seit Jahren
Debian, aber so einen Fehler
hatte Ich noch nicht. Vor ca. 2 Wochen, habe ich ein Raid1 mit
2x500GB (sdc&sdd) auf ein Raid1
mit 1500GB migriert. Dazu habe Ich eine HDD entfernt, um die zweite
HDD anschliessen zu
können und ein neues Raid1 mit einer HDD "missing" erstellt.
Dann die Daten übertragen, die zweite HDD ausgetauscht und Resync gestartet.
Alles scheinbar in Ordnung.

Nach einem Neustart, ist das neu erstellte Raid1 aber immer degraded.

cat /proc/mdstat
md10 : active (auto-read-only) raid1 sdc1[0]
       1465135936 blocks [2/1] [U_]

mdadm --detail /dev/md10
/dev/md10:
         Version : 0.90
   Creation Time : Sat Feb 19 14:31:00 2011
      Raid Level : raid1
      Array Size : 1465135936 (1397.26 GiB 1500.30 GB)
   Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
    Raid Devices : 2
   Total Devices : 1
Preferred Minor : 10
     Persistence : Superblock is persistent

     Update Time : Thu Mar 10 23:15:41 2011
           State : clean, degraded
  Active Devices : 1
Working Devices : 1
  Failed Devices : 0
   Spare Devices : 0

            UUID : 1208e3eb:9b2ac43b:93d0152c:154fa719 (local to host lost)
          Events : 0.13248

     Number   Major   Minor   RaidDevice State
        0       8       33        0      active sync   /dev/sdc1
        1       0        0        1      removed

Der Grund, /dev/sdd1 fehlt, /dev/sdd ist vorhanden.

fdisk -l /dev/sdd:
/dev/sdd1   *           1      182401  1465136001   fd  Linux raid
autodetect


Starte Ich "fdisk /dev/sdd" und schreibe nur mit "w" die
Partitionstabelle, ist /dev/sdd1 wieder
vorhanden, bis zum nächsten Reboot.

~# fdisk /dev/sdd
Command (m for help): w
Calling ioctl() to re-read partition table.
Syncing disks.

~# ls -al /dev/sdd*
brw-rw---- 1 root disk 8, 48 11. Mär 07:18 /dev/sdd
brw-rw---- 1 root disk 8, 49 11. Mär 07:18 /dev/sdd1

Das Raid neu aufbauen klappt auch:
mdadm --add /dev/md10 /dev/sdd1

cat /proc/mdstat
md10 : active raid1 sdd1[2] sdc1[0]
       1465135936 blocks [2/1] [U_]
       [>....................]  recovery =  0.1% (1782656/1465135936)
finish=287.3min speed=84888K/sec


Den Bootsekter habe ich schon genullt, ohne Erfolg. Auch ein neues
Raid1, nur mit /dev/sdd1 bringt das selbe Problem.
Habe auch schon die Festplattenanschlüsse getauscht. Selbes Problem.
Dmesg zeigt mir nix verdächtiges an.

Hat irgend jemand vielleicht noch eine Idee?

Vielen Dank.


Gruss
Stefan D.
Vermutlich ist die Platte /dev/sdd irgendwann mal
(vielleicht versehentlich?) als Ganzes für ein
Linux-Software RAID benutzt worden und deshalb
befindet sich am Ende der Platte hinter /dev/sdd1
noch ein weiterer RAID-Superblock.
Probiere mal, was
	mdadm --examine /dev/sdd
sagt.  Wenn meine Vermutung stimmen sollte, dann kannst
Du diesen Superblock mit der Option --zero-superblock
wieder los werden.

Mit freundlichen Grüßen,
Peter Funk


Jep, das war es. Hatte mich anfangs tatsächlich vertippt und sdd statt sdd1 angegeben. Tja, ein nullen der ersten X MB hat wohl nicht gereicht aber dafür --zero-superblock :-).

Nochmals vielen Dank und wieder was dazu gelernt.

Gruss
Stefan D.



Reply to: