[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: RAID-Mirror: mdadm versus LVM?



Am Montag, 6. Oktober 2014, 18:35:48 schrieb Sven Hartge:
> Juergen Christoffel <jc.debian14@unser.net> wrote:
> > Ich denke nun schon einige Zeit über das Für-und-Wider der beiden
> > Varianten
> > nach und finde keinen eindeutigen Grund, die eine oder das andere zu
> > bevorzugen. Deshalb würden mich weitere (vorzugsweise sachlich fundierte)
> > Meinungen sehr interessieren. Zusammenfassend:
> > 
> > mdadm:
> > 
> > Pro: altbewährt; es handelt sich um ein dediziertes Tool für diesen Zweck
> > (Unix-Philosophie); so machen das (fast) alle.
> 
> Pro: Bietet ausgereifte Tools zur Erkennung von Fehlern auf den
> Komponent-Platten.
> 
> > Con: nur weil es "alle schon immer" so machen, muss es nicht die beste
> > Variante sein (sonst wäre McDonalds auch kulinarische Pflicht ;-)
> > 
> > LVM:
> > 
> > Pro: beim Verzicht auf madm erspart man sich eine logische (und
> > administrative) Ebene; LVM nutzt man sowieso, warum dann nicht auch dafür?
> > 
> > Con: Corelog liegt nicht intern im LVM, sondern muss separat in eine
> > andere
> > Partition / auf eine andere Festplatte geschrieben werden.
> 
> Con: "Using core means the mirror is regenerated by copying the data
> from the first device each time the logical volume is activated, like
> after every reboot."
> 
> Con: Ich kann keine Möglichkeit erkennen, wie man ein Data-Scrubbing
> machen kann, wie es der MD-Code bietet, also einen regelmäßigen Scan, ob
> auch alle Daten noch korrekt sind.
> 
> Con: Mir scheint es auch keinen Schutz davor zu geben, aus Versehen im
> Fehlerfall die defekten/leeren Daten über den eigentlich noch
> vorhandenen Mirror zu kopieren und somit dann doch die Daten zu
> verlieren.
> 
> 
> Die LVM-Variante vermeidet zwar die MD-Zwischenschicht, aber ich werde
> das Gefühl nicht los, das das Mirrorn via LVM nicht komplett zu Ende
> designt und zu Ende gedacht wurde. Mir wäre nicht wohl debei, dies so zu
> machen.

Wow, das wusste ich so auch nicht.

Vor Jahren haben wir in einem Performance Analyse & Tuning-Kurs mal die 
Performance von RAID 1 via LVM und via MD getestet. LVM kam nicht annährend an 
die Performance von MD heran.

Allerdings wurde der RAID-Code von LVM auf MD-Routinen umgestellt, denke ich 
mal gelesen zu haben. Und da dürfte es zumindest von der Geschwindigkeit 
gleich oder ähnlich sein.

Nun, ich verwende BTRFS RAID. Das hat sich jetzt auch mal bewährt:

merkaba:~> btrfs scrub status /home 
scrub status for [UUID]
        scrub started at Thu Oct  9 15:52:00 2014 and finished after 564 
seconds
        total bytes scrubbed: 268.36GiB with 60 errors
        error details: csum=60
        corrected errors: 60, uncorrectable errors: 0, unverified errors: 0

Das beobachte ich jetzt, Laut Protokoll waren die Fehler aus der Crucial M500 
mSATA SSD. Ich gehe allerdings derzeit aus, dass die von einem harten 
Ausschalten kommen. Die Intel SSD 320 hat Kondensatoren, ich wüsste aber 
nicht, wo die für die Crucial auf der winzigen mSATA-Platine sein können.

Ciao,
-- 
Martin 'Helios' Steigerwald - http://www.Lichtvoll.de
GPG: 03B0 0D6C 0040 0710 4AFA  B82F 991B EAAC A599 84C7


Reply to: