[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Raid1 nach Neustart immer Degraded weil Device fehlt...



Hallo,
ich hoffe Ihr könnt mir weiterhelfen. Nutze schon seit Jahren Debian, aber so einen Fehler hatte Ich noch nicht. Vor ca. 2 Wochen, habe ich ein Raid1 mit 2x500GB (sdc&sdd) auf ein Raid1 mit 1500GB migriert. Dazu habe Ich eine HDD entfernt, um die zweite HDD anschliessen zu
können und ein neues Raid1 mit einer HDD "missing" erstellt.
Dann die Daten übertragen, die zweite HDD ausgetauscht und Resync gestartet.
Alles scheinbar in Ordnung.

Nach einem Neustart, ist das neu erstellte Raid1 aber immer degraded.

cat /proc/mdstat
md10 : active (auto-read-only) raid1 sdc1[0]
      1465135936 blocks [2/1] [U_]

mdadm --detail /dev/md10
/dev/md10:
        Version : 0.90
  Creation Time : Sat Feb 19 14:31:00 2011
     Raid Level : raid1
     Array Size : 1465135936 (1397.26 GiB 1500.30 GB)
  Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 10
    Persistence : Superblock is persistent

    Update Time : Thu Mar 10 23:15:41 2011
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : 1208e3eb:9b2ac43b:93d0152c:154fa719 (local to host lost)
         Events : 0.13248

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       0        0        1      removed

Der Grund, /dev/sdd1 fehlt, /dev/sdd ist vorhanden.

fdisk -l /dev/sdd:
/dev/sdd1 * 1 182401 1465136001 fd Linux raid autodetect


Starte Ich "fdisk /dev/sdd" und schreibe nur mit "w" die Partitionstabelle, ist /dev/sdd1 wieder
vorhanden, bis zum nächsten Reboot.

~# fdisk /dev/sdd
Command (m for help): w
Calling ioctl() to re-read partition table.
Syncing disks.

~# ls -al /dev/sdd*
brw-rw---- 1 root disk 8, 48 11. Mär 07:18 /dev/sdd
brw-rw---- 1 root disk 8, 49 11. Mär 07:18 /dev/sdd1

Das Raid neu aufbauen klappt auch:
mdadm --add /dev/md10 /dev/sdd1

cat /proc/mdstat
md10 : active raid1 sdd1[2] sdc1[0]
      1465135936 blocks [2/1] [U_]
[>....................] recovery = 0.1% (1782656/1465135936) finish=287.3min speed=84888K/sec


Den Bootsekter habe ich schon genullt, ohne Erfolg. Auch ein neues Raid1, nur mit /dev/sdd1 bringt das selbe Problem. Habe auch schon die Festplattenanschlüsse getauscht. Selbes Problem. Dmesg zeigt mir nix verdächtiges an.

Hat irgend jemand vielleicht noch eine Idee?

Vielen Dank.


Gruss
Stefan D.


Reply to: