[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: backup KVM



In data sabato 06 novembre 2010 10:54:05, dea ha scritto:
> > a me è sempre piaciuto il fai da te... avendone tempo e conoscenze,
> > più tempo che conoscenze, le seconde si trovano, il primo se non c'è....
> 
> Mancano entrambi, ma il primo si può ritagliare da altro, le seconde piano
> piano si trovano :)

concordo... ma è più semplice trovare le conoscenze che il tempo... :S

> > una soluzione elegante (secondo il mio parere) a tutto questo?
> > 
> > semplicemente non concatenare i singoli file (a questo punto anche
> > compressi), ma indirizzarli semplicemente in un contenitore tar,
> > risultato, ancora un unico file, compresso in quanto compressi i
> > contenuti, in cui anche nel full si ottiene un nuovo full
> > semplicemente sostituendo i file che cambiano...
> 
> Io pensavo semplicemente (ovviamente soluzione meno "fine") di comprimere
> il full o i diff dopo il concatenamento, prima dello stoccaggio. Tanto non
> devono più essere analizzati (se non per il ripristino) quello che serve
> avere è il file di hash.

certo, è stato il mio primo pensiero, ma il problema è che bisogna avere 
abbastanza spazio per tenerci l'immagine non compressa fino alla fine delle 
concatenazioni, e successivamente lo spazio aggiuntivo per poter tenere anche 
il file compresso. solo al termine si può eliminare il file non compresso.

naturalmente per il restore bisogna eseguire i passaggi inversi, quindi 
comunque un elevato spazio, perché devi decomprimere il full, e almeno un diff 
alla volta che può essere rimosso dopo l'integrazione con il full.

> Comprimere i contenuti uno per uno (a blocco singolo) piuttosto che
> l'insieme offre minore compressione... specialmente se i blocchi si
> ripetono. Non è più semplice aggiungere il layer di compressione alla fine
> ? Tanto mica devi accedere a quei dati (se non per il recovery), sbaglio ?

non credo che ci sia una grandissima differenza di compressione, naturalmente 
dipende da quanto devono essere grossi i singoli blocchi. se per esempio si 
fanno blocchi di 0,5 GB probabilmente la compressione non è poi così 
diversa... se invece vuoi una suddivisione più fine dei blocchi, potrebbe anche 
essere leggermente maggiore... ma non credo di tanto...

ora non conosco tutti i sistemi di compressione, ma se si usa per esempio gzip 
non credo che comprima parti diverse dell'immagine con lo stesso contenuto 
come se fosse un un unico blocco (nel qual caso avreti ragione tu che si 
otterrebbe una minore compressione con le immagini separate).

in compenso posso affermare (dopo lettura del man) che è possibile iniziare la 
lettura da un punto diverso dal primo, usando un'indicazione di quanto deve 
essere grande il blocco che legge prima del trasferimento (e questo mi fa 
pensare a possibili problemi di memoria se si desiderano fare spostamenti di 
grosse parti)e successivamente di quanti blocchi di questa dimensione deve 
saltare prima di cominciare a leggere... quindi tutti paramentri che possono 
essere semplicemente inseriti nell'iterazione del loop.

Byez
-- 
Gollum 1
Tessssssoro, dov'é il mio tesssssssoro...


Reply to: