Re: trovare i file duplicati
On Jun 21, Pietro Giorgianni <giorgian@interfree.it> wrote:
> per ogni file, devo controllare se questo file di testo
> e` gia` presente in un'altra directory (chiamata grande), non
> necessariamente con lo stesso nome, e se si`, cancellarlo.
Miracoli non si fanno; mi sa che ti tocca confrontare ogni singolo
file della prima directory con ogni file della seconda.
Come puoi immaginare uno script cosi` "brute force" e` banale;
resta da vedere se il contenuto delle due directory e` inferiore
alla quantita` di RAM (usata come cache) della macchina.
Se si`, direi che il tutto non dovrebbe poi prendere piu` di
tanto tempo anche per un numero molto elevato di file, altrimenti
potrebbe essere una idea usare un hash (per esempio usando md5sum):
ti crei due liste che associano i file nelle due directory con i
rispettivi hash, poi scrivi uno scriptino che controlli che gli
hash della prima lista siano nella seconda (e che ti segnali i
nomi dei file non presenti).
--
Davide Alberani <alberanid@libero.it> [PGP KeyID: 0x465BFD47]
http://erlug.linux.it/~da/
Reply to: