Un caldo saluto a tutta la lista (dato il clima).
Volevo chiedere se eravate a conoscenza di valide soluzioni per il seguente
problema:
Un insieme di tanti piccoli file abbastanza contenuto (< 500 GB) del quale fare
un backup locale regolare + uno manuale offline su disco usb. Devo controllare
l'integrità dei file che vengono backuppati per evitare che un eventuale file
corrotto prenda il posto di uno "buono" sul backup.
Si parlerà al 99% di probabilità di un sistema debian stabile md+lvm+ext4 (per
mia scelta, nessun vincolo).
Non ho trovato soluzioni "pronte" al mio scopo e avevo ipotizzato una cosa di
questo tipo:
- Backup locale con rsnapshot
- Un file contenente gli hash dei file al loro ultimo backup, questi hash
vengono controllati per i file che hanno un ctime uguale all'ultima versione
salvata, gli altri vengono "aggiornati"
- Il backup offline lo prendo dall'ultimo di rsnapshot con tar o dar previo
controllo hash e salvo offline anche un file di par2.
In caso di errori si interviene manualmente a controllare (l'idea è che non
dovrebbe accadere).
Il problema dei file "in uso" lo potrei risolvere facendo prima il giro di
rsnapshot e confrontando l'hash tra i 2 ultimi backup.
Sulla carta sembra semplice, in realtà ho riscontrato il problema che rsnapshot
non permette una "dry run" dove elenca solo i file che verrebbero aggiornati
(in modo da "grepparli" dal file contenente gli hash e controllare gli altri).
Avete idee un po' meno contorte?