[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: MoboRAID & Boot Partitie



On 5/10/12 5:48 PM, Winfried Tilanus wrote:
On 05/10/2012 12:14 PM, Paul van der Vlis wrote:

Hoi,

Maar er zijn ook veel mensen die zweren bij hardware raid.

Ik was daar een van. Ik ging voor hardware RAID om verschillende redenen:
- Betere performance
- In tijden van crisis minder stappen uit te voeren, gewoon disk
vervangen, klaar. Geen gedoe met grub op de verkeerde disk ofzo.

Ik voorheen ook.

Performance is inderdaad bijna te verwaarlozen met al die cpu cores die er tegenwoordig in een machine kan.

M'n hoofd filer draait ook software raid, wel in de duurste vorm, maar wel snel! :)

Nexenta (Solaris, ZFS) 15x 600GB SAS2, 48GB mem en dual 6 core cpu's. RAID10, mirror setjes van RAID1 (3 schijven) maken en die weer stripen (RAID0). Dit alles draait op een LSI HBA controller en is rete snel qua lezen (15 entry points) en schrijven (5 entry points). Daarnaast nog 2 SSD's voor write cache. Geen batterij ofzo, hoeft niet, server heeft dubbele voeding en hangt in het DC aan 2 verschillende spannings-bronnen.

In theorie mogen er 10 schijven op exact hetzelfde moment stuk gaan, 2 per mirror groep. 4 hot spares moet dit voldoende opvangen. Dan nog, als er 3 schijven van dezelfde mirror groep defect raken zonder tijd gehad te hebben om te repairen -> dag raid! Maar goed, dat houd het spannend ;-) .. en ik heb een backup machine natuurlijk ;-)

Inmiddels ben ik er van terug gekomen:

ik ook :)

- Het performance verschil is klein tot afwezig, de extra processor load
bij normaal gebruik van de software raid is te verwaarlozen. Rebuilden
kost wal wat meer 'hout' maar is nog steeds prima te doen. Ik heb laatst
een rebuild gedaan van een 5TB raid 5 array, had ongeveer 8 uur nodig,
waarbij een core van de processor voor 70% werd belast. Dat kon de
server in kwestie nog prima hebben.
- Het crisis argument is door een stomme actie van mij er stevig
onderuit gehaald: op server had ik de disks van een hardware array niet
goed in de gaten gehouden. Een disk faalde zonder dat we het door
hadden. Toen de tweede faalde, was het crisis (natuurlijk). De array
wilde wel weer actief worden op een haperende disk. Nieuwe disks
gehaald, en toen stond ik voor de array. De controller vertelde me wel
dat 'ie niet blij was met beide disks, maar niet welke disk hij nu toch
wel gebruikte. Ik dus met een 50-50 gok er een disk uittrekken. Mis...

Dat heb ik ook eens ervaren. Volgens de controller was schijf 3 stuk. Ik "ID" de disc, trek hem eruit, op dat moment besloot de controller dat ik disc 11 er uit trok ipv disc 3. Dag raid(5)!

- De monitoring van een hardware raid array, vraagt altijd om extra
tooltjes en extra scripts. De integratie van de software raid is veel
mooier. Een foutje daar en je hebt de bovenstaande situatie

Dat is niet altijd zo .. tegenwoordig komen raid controllers met complete embedded linux varianten. De "nieuwe" LSI controllers hebben dat bijvorrbeeld. De controllers hebben een ethernet aansluiting, IP erop en web based managen. Direct vanaf de controller, werkt prima!

- En wat als de raid-controller zelf het begeeft? Zo goed als alle
controllers die ik ken werken alleen met disks die met een controller
uit dezelfde serie zijn geïnitialiseerd. Vaak zijn er tooltjes
beschikbaar om te migreren. Als die al werken met een degraded array of
zonder de oude controller dan is het toch een nachtmerrie om midden in
een crisis eerst de array te moeten migreren naar een nieuwe controller.
Software raid kan je als een controller faalt veel makkelijker omzetten.


groet,

Winfried



Groeten,
Mark Stunnenberg


Reply to: