[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: trovare i file duplicati



On Jun 21, Pietro Giorgianni <giorgian@interfree.it> wrote:

> per  ogni file,  devo  controllare se  questo  file di  testo
> e`  gia` presente in un'altra  directory (chiamata grande), non
> necessariamente con lo stesso nome, e se si`, cancellarlo.

Miracoli non si fanno; mi sa che ti tocca confrontare ogni singolo
file della prima directory con ogni file della seconda.

Come puoi immaginare uno script cosi` "brute force" e` banale;
resta da vedere se il contenuto delle due directory e` inferiore
alla quantita` di RAM (usata come cache) della macchina.
Se si`, direi che il tutto non dovrebbe poi prendere piu` di
tanto tempo anche per un numero molto elevato di file, altrimenti
potrebbe essere una idea usare un hash (per esempio usando md5sum):
ti crei due liste che associano i file nelle due directory con i
rispettivi hash, poi scrivi uno scriptino che controlli che gli
hash della prima lista siano nella seconda (e che ti segnali i
nomi dei file non presenti).

-- 
Davide Alberani <alberanid@libero.it> [PGP KeyID: 0x465BFD47]
http://erlug.linux.it/~da/



Reply to: