Re: Software-RAID und initrd
Hallo Pater
Danke für die Infomationen.
Die Hilfe der anderen hat in diesem Fall nicht zum Erfolg geführt :-(
Zur Info:
Raid 5
4 devices á 500GB
P-ATA (/dev/hde1,/dev/hdf1,/dev/hdg1,/dev/hdh1)
Peter Funk wrote:
> Guten Abend,
>
> Normalerweise muss das initiale Wurzeldateisystem ``initrd.img`` die
> Konfigurationsdatei /etc/mdadm/mdadm.conf gar nicht enthalten, da beim
> Booten die RAID-Superblöcke der Platten automatisch gelesen werden.
Benötige ich nicht. Ich verwende die Autostart funktion.
> Fehler (Beispiel: angenommen /dev/sda1 ist Teil eines RAID-Verbundes)::
>
> mdadm -v --examine /dev/sda1
Schon versucht aber erst jetzt weiss ich die Informationen mehr/besser
zu deuten. :-) Danke!
> Es kann vor allem abgelesen werden, welche Geräte zu diesem RAID-Verbund
> dazu gehören und welchen Zustand das RAID wohl hatte, als das betreffende
> Teil-Gerät (hier /dev/sda1) beim letzten Mal Teil dieses Verbundes war.
>
> Besonderes Augenmerk verdient dabei der Zähler "Events:"!
> Der sollte bei allen Geräten aus diesem Verbund den gleichen Wert
> haben.
Ok, eine Platte scheint einen anderen Wert zu haben und diese hat vor
kurzem Smart (exit error) Fehler gemeldet und syslog meldet nun.
-->--
Device: /dev/hdf, 6 Currently unreadable (pending) sectors
Device: /dev/hdf, 6 Offline uncorrectable sectors
--<--
Vier Wochen alte Festplatten :-/
Beim bind oder unbind wird je immer die defekte Platte als erstes
genommen (lt. log Reihenfolge).
Möglicher weise die Ursache, das Raid nicht mehr zum laufen zu bekommen?
-->--
kernel: md: md0 stopped.
kernel: md: unbind<hdf1>
kernel: md: export_rdev(hdf1)
kernel: md: unbind<hde1>
kernel: md: export_rdev(hde1)
kernel: md: unbind<hdh1>
kernel: md: export_rdev(hdh1)
kernel: md: unbind<hdg1>
kernel: md: export_rdev(hdg1)
--<--
> Wenn sich der Wert unterscheidet, dann kann es sein, dass irgendwann
> (z.B. durch Plattenlesefehler) eine oder mehrere Platten aus dem
> Verbund heraus geworfen worden sind.
>
> In dem Fall sollten alle diese Superblöcke betrachtet werden und
> falls möglich die zeitlich dazu gehörigen Fehlermeldungen aus
> /var/log/syslog extrahiert werden. Damit ist dann eine genauere
> Beurteilung der Situation möglich.
>
> Wenn mehr als eine Platte aus einem RAID5-Verbund heraus gefallen ist,
> sind die auf dem Verbund gespeicherten Daten normalerweise verloren.
Die Daten sollten noch nicht weg sein, oder? Das wäre mehr als fatal :-(
Ersatz ist bereits Bestellt.
Was für möglichkeiten habe ich nun noch?
Das ist mein Storrage & Backup Server. :)
Ersatzgerät für ein Backup steht bereit allerdings hat es genau das
gleiche Problem nur das dort alle Platten OK sind.
-->--
defekte Platte:
mdadm -v --examine /dev/hdf1
/dev/hdf1:
Magic : a92b4efc
Version : 00.90.00
UUID : 8e9afa9a:e20dba24:95f68a65:0da9cd6d
Creation Time : Thu Oct 11 02:20:38 2007
Raid Level : raid5
Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Sun Nov 4 04:41:20 2007
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 68d61847 - correct
Events : 0.324764
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 33 65 1 active sync /dev/hdf1
0 0 33 1 0 active sync /dev/hde1
1 1 33 65 1 active sync /dev/hdf1
2 2 34 1 2 active sync /dev/hdg1
3 3 34 65 3 active sync /dev/hdh1
--<--
-->--
mdadm -v --examine /dev/hdh1
/dev/hdh1:
Magic : a92b4efc
Version : 00.90.00
UUID : 8e9afa9a:e20dba24:95f68a65:0da9cd6d
Creation Time : Thu Oct 11 02:20:38 2007
Raid Level : raid5
Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 0
Update Time : Mon Nov 12 03:57:01 2007
State : active
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 68dcb2be - correct
Events : 0.393839
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 34 65 3 active sync /dev/hdh1
0 0 33 1 0 active sync /dev/hde1
1 1 0 0 1 faulty removed
2 2 34 1 2 active sync /dev/hdg1
3 3 34 65 3 active sync /dev/hdh1
--<--
> Mit freundlichen Grüßen,
> Peter Funk
Gruß Florian
Reply to: