Hi Heiko, Am Montag 04 August 2008 schrieb Heiko Schlittermann: > Dirk Salva <dsalva@gmx.de> (Mo 04 Aug 2008 00:13:07 CEST): > > > > Damit ist sichergestellt, dass Dateien größer 0 Bytes in Ordnung > > > > sind und alle anderen einer Prüfung bedürfen und ggfs. von der > > > > Datensicherung zurückgespielt werden müssen. > > > > > > Das ist damit eben nicht sichergestellt. > > > Der _Inhalt_ der Dateien wird mit Nullen überschrieben, die > > > Dateigröße bleibt unverändert. Die fehlerhaften Daten zu finden ist > > > somit nicht trivial. > > > > Vollkommen richtig. Eine sichere Methode, die fehlerhaften Daten zu > > finden, habe ich leider noch nicht gefunden. Kennst Du eine?!? > > Für mich hieß das damals, kein XFS zu nutzen. Wir wollten es wegen des > Online-Resizing verwenden, aber das geht ja inzwischen bei ext3 auch, > wenigstens als Vergrößern. > > Je nach Umgebung kann ich so einen Crash ja nicht ausschließen, und > jedesmal danach einem Backup zu suchen ...? > Denn, das heißt ja auch, daß das Filesystem erst wieder genutzt werden > darf, wenn ich weiß, daß alle Daten korrekt sind. > > Oder verstehe ich hier etwas völlig falsch? Auch ext3 gibt keine 100%-Garantie. data=ordered stellt lediglich sicher, dass es das keine komischen Daten beim Vergrößern von Dateien gibt, indem Metadaten *nach* den eigentlichen Daten auf der Platte landen. Also eine Datei wird erst dann vergrößert, wenn die betreffenden Datenblöcke geschrieben sind. Das macht XFS mittlerweile im Grunde auch so und das funktioniert hier auf meinen beiden Laptop auch hervorragend. Ohne data=journal garantiert jedoch auch ext3 nicht, dass eine Datei konsistent ist, wenn zum Zeitpunkt des Absturzes gerade in bestehende Datenblöcke geschrieben wird. Und mit data=journal ists ohne ein wanderndes Journal wie in Reiser4 halt mal ziemlich langsam. Ciao, -- Martin 'Helios' Steigerwald - http://www.Lichtvoll.de GPG: 03B0 0D6C 0040 0710 4AFA B82F 991B EAAC A599 84C7
Attachment:
signature.asc
Description: This is a digitally signed message part.