Re: mdadm inactive
Am Dienstag, den 02.09.2008, 20:12 +0200 schrieb Ingo Juergensmann:
... das RAID scheint wohl ein RAID5 gewesen zu sein, es sind aber nur
noch
> zwei Platten im RAID vorhanden (sda3 und sdb3) und beide
sind nicht active,
> sondern als S markiert.
> Wo ist
also die dritte, fehlende Platte hin? Normalerweise muesste die z.B.
> als sdc3 aufgefuehrt und der Status sollte dann (UU_) sein.
>
So - nun ist es wieder active
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md1 : active raid5 sda3[0] sdb3[1]
1435841280 blocks level 5, 64k chunk,
algorithm 2 [3/2] [UU_]
md0 :
active raid1 sdb1[0] sda1[1]
11719296
blocks [2/2] [UU]
unused
devices: <none>
ein
# mdadm --assembe
--scan --force
hatte geholfen. Ohne das --force hatte er
gemeckert, dass nur 2 Platten verfügbar sein und er es lieber nicht
starten wolle :)
Nun schauts so aus:
# mdadm --detail
/dev/md1
/dev/md1:
Version : 00.90.03
Creation Time : Sun Apr 13 16:20:25 2008
Raid Level : raid5
Array Size : 1435841280 (1369.32 GiB 1470.30
GB)
Used Dev Size : 717920640 (684.66 GiB 735.15 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is
persistent
Update Time : Tue Sep 2
20:45:41 2008
State : clean, degraded
Active Devices : 2
Working Devices
: 2
Failed Devices : 0
Spare Devices : 0
Layout :
left-symmetric
Chunk Size : 64K
UUID :
96203d07:c13a1f3c:c6619b65:eace9c87
Events : 0.25048
Number Major
Minor RaidDevice State
0
8
3
0 active sync /dev/sda3
1
8
19
1 active sync /dev/sdb3
2
0
0
2 removed
Irgendwie wurde
eine Partition wohl schon removed und es ist nun ein 2 Platten-RAID5...
Naja, --grow sollte doch nun helfen, die neue Platte
hinzuzufügen?!
>
> Viel Erfolg!
Naja, die halbe Miete hab ich ja schon mal - jetzt muss das RAID5 nur
wieder gesund werden :)
Vielen Dank!
PS: keine
Ahnung, wie es zu sowas kommt?!
Reply to: