[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Как **надежно** сожранить данные?



В районе 2010 писалось что производители выпускают HDD с заведомо "битыми"
блоками. При текущей плотности записи этого не изсежать. Используются коды с
обнаружением/корекцией ошибок. Со временем диск деградирует и предусмотренна
даже "свободная" область, куда со временем перемещаются данные из ненадежных
областей. Когда область заканчивается контролер диска по SMART скажет что он
сдох.

Не знаю на сколько это правда. Также не знаю кто происходит во флеше, но
парочку сдохших имею.

Раз данные постоянно портяться на носиталях важно не только сохранить в бекапе
но и контролировать целостность.

Т.е.

  $ cp -al /old /new
  $ rsync /data /new

в случае выхода из строя /data или "rm -r /data/random/dir" позволит
восстановить данные. Но никакой гарантии целосности данных не дает.

Чем дополнить приведенные выше строчки что бы фоточки дожили до внуков без
битых битов?

Обсчитывать md5sum и периодически проверять? Можно еще подписать ключем хеши.

Для целосности выходит что rsync не совсем годен, если для старых копий можно
держать хардлинки, то для новых файлов желательно просчитать новую контрольную
сумму.

Какой софт высчитывает/сохраняет/проверяет контрольные суммы при создании
снапшотов?

Hg/Git почти подходят под эту роль, хотя с эфективностью хранения,
использованием хардлинков и уничтожением старой истории не все так гладко...

Т.е. проекты хранить в Hg/Git не проблема и у еня они растыканы по куче
носителей. Я даже не замарачиваюсь с резервированием.


А вот колекции медийных файлов - уже не прикольно держать в Hg/Git т.к. они
порядка размера носителей.


-- 
http://defun.work/


Reply to: