Am Mittwoch 06 Januar 2010 schrieb Andre Tann: > Servus Martin, > > Martin Steigerwald, Mittwoch 06 Januar 2010: > > > > Das ist eine von den Herstellern garantierte Mindest-Angabe. Da > > werden die Hersteller wohl eher tiefstapeln, ähnlich wie > > Lebensmittelhersteller beim Mindest-Haltbarkeitsdatum. > > > > Und letztlich gibt der Wikipedia-Artikel nicht mal einen Festplatten- > > Hersteller als konkrete Quelle für eine solche Angabe an. Das wäre > > also auch noch zu prüfen, was der Hersteller der von Dir gekauften > > Platten für eben diese Platten garantiert. > > Das ist mir vollkommen klar, daß das keine präzisen Angaben sind dort. > Aber für einen Anhaltspunkt reicht es doch, und wie Du siehst wundern > sich einige hier darüber, daß man beim Auslesen einer 1-TB-Platte alle > zehn Zyklen einen Fehler kriegt. Und ob es nun zehn, 30 oder auch 100 > Zyklen sind - an der Grundsituation ändert das nichts, daß nämlich ein > TB eine so gewaltige Datenmenge ist, daß die Fehlerrate allmählich > anfängt eine Rolle zu spielen, was früher noch nicht so der Fall war. > Das ist auch der Tenor des Wikipedia-Artikels, wenn es heißt: Der Witz ist, dass ich bislang keiner meiner Platten einen Bitfehler nachweisen konnte. Und die summieren sich mittlerweile auch schon auf Einiges an Kapazität, so an die 600 GB sind das mittlerweile schon. Allerdings merke ich sowas ja allenfalls dann, wenn ich genau die Datei mit dem Bitfehler öffne und das öffnende Programm wirklich drüber stolpert. Und ich kopiere Bestandsdaten ja auch nicht ewig umher, auch nicht beim Backup, das via rsync läuft. BTRFS sollte solche Fehler ja mit Hilfe seiner Prüfsummen ermitteln können. Aber auch da hab ich noch kaum Berichte gesehen. Bei einem RAID soll BTRFS in der Lage sein, Fehler zu reparieren. Stimmt auf einer Platte bei einem Block die Prüfsumme nicht mehr mit dem Inhalt überein, kann BTRFS diesen Block von einer anderen Platte kopieren. Bezüglich Linux-SoftRAID würde mich aber wundern, wenn es keine Möglichkeit gäbe, einen solchen RAID-Rebuild überprüfen zu lassen. Er muss ja nur drüberschradeln und gucken, ob es Unterschiede gibt. Vielleicht gibts beides sogar in einem. Rebuild und Verify sozusagen. Mir wäre so eine Möglichkeit nicht ganz unwichtig, wenn die Fehlerrate in der Praxis wirklich so hoch wäre, was ich bezweifle. Aber auch, wenn sie niedriger wäre. Was mich auch noch interessieren würde, wäre, ob die Platte solche Bitfehler selbst bemerkt. Das ist wahrscheinlich das Problem daran. Wenn die nichtmal im SMART-Fehlerprotokoll auftauchen... Es gibt ja mittlerweile auch eine Infrastruktur, um Datenübertragungsfehler zwischen Platte, Controller und Computer zu ermitteln. Das ist allerdings nur mit entsprechender Hardware möglich, die die entsprechenden Standard-Erweiterungen für SATA, SCSI usw. unterstützt. Irgendwie frag ich mich, warum da bislang immer noch vergleichsweise wenig zu passieren scheint. Könnte mir vorstellen, dass Bitfehler in der Praxis doch so selten auftreten, dass die Forderung nach Verbesserungen nicht gerade sonderlich laut ist. Nun, wie dem auch sei, jetzt wirds halt doch spekulativ. Wäre ein interessantes Gebiet, um es mal weiterzuverfolgen. Ich halte es auf jedenfall für sinnvoll, wenn Software und Hardware lernen, solche Fehler überhaupt erstmal zu erkennen. -- Martin 'Helios' Steigerwald - http://www.Lichtvoll.de GPG: 03B0 0D6C 0040 0710 4AFA B82F 991B EAAC A599 84C7
Attachment:
signature.asc
Description: This is a digitally signed message part.