[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Workshop - Deduplizierung mit lessfs unter Linux



> Noch eine andere Idee, die ich für meine Backup-Verzeichnisse verwende,
> um Backups von verschiedenen Rechnern zu komprimieren:
> Wenn man komplett identische Dateien hat, kann man natürlich hard links
> verwenden. Beispielsweise "fdupes -r -L /backup" als cronjob laufen
> lassen, um identische Dateien finden & durch Hardlinks ersetzen zu
> lassen ...

Hmm, ich weiß ja nicht was du für ein Backup nutzt. Irgendetwas selbst
gebasteltes? Dan mag das noch gehen. Wobei ich mich mit dem Thema Backup
schon so ausführlich beschäftigt habe, und ich nicht verstehen kann wie
jeder "Administrator" meint sein eigenes Backup zu schreiben durch ein
paar Shell-Skripte.

Dafür gibt es doch entsprechende Software wie Bacula. Und damit geht
dein fdupes in der Regel nicht. Ich nutze mitlerweile kein Bacula
(Bacula ist klasse aber etwas überdimensioniert) mehr sondern BackupPC
und dann kümmert sich BackupPC um die Deduplizierung.

Auch wer nur ganz schnell ein rsync aufsetzen möchte und etwas in
Verzeichnisse kopieren möchte. Dafür gibt es "rsnapshot" das dies
bereits macht und die Daten auch rotiert und ebenfalls dedupliziert.

> Die Gefahr ist dabei natürlich: Wenn eine der Dateien geändert wird,
> werden auch alle Duplikate geändert. Deswegen würde ich es nur für
> Backups empfehlen 
Für Backups würde ich wie oben genannte eine Software empfehlen die es
schon macht, und nicht selber etwas basteln.


Reply to: