[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: on-the-fly file compression



Also sprach Andreas Pakulat <apaku@gmx.de> (Sat, 29 Jul 2006 14:21:07 +0200):
> On 29.07.06 13:28:51, Richard Mittendorfer wrote:
> > > fuer welche Rohdaten? Text? Binaere Word-Processor Dateien?
> > > Kompremierte Dateiformate?
> > 
> > Grossteils Doks (html, pdf, ps, doc, ..), einige Images und mysql-db's
> > und ein Haufen ogg vorbis. Insgesammt etwa 50+20+10+20GB. Wichtig dabei
> > ist mir, dass die Kompression ein File als stream verabeiten koennen
> > muss -- einige scheinen es im virtuellen Speicher zu komprimieren --
> > davon hab' ich nicht genug. 
> 
> Aehm bei doc, pdf, Bild, Mysql und Ogg Daten kannst du die Kompression
> sowieso vergessen. Die meiste Kompression wirst du da vmtl. bei doc+pdf
> herausbekommen (Bilder natuerlich wenn du die unkomprimiert ablegst),
> aber 2:1 kannst du da komplett vergessen.

Klar, bei schon kompriemierten files wird das nicht viel ausmachen.
Beim txt-Zeugs seh' ich da aber Potential, und das ist der groessere
Teil - komm ich da auf knapp 4:1 (ich rechne mit vielleicht sogar etwas
mehr) passt's schon wieder. e2comp schafft im Schnitt 2,5:1, CBD
(compressed block device) schafft angeblich bis zu 3:1. IIRC wurde da
bei beiden mit einem kompletten System gerechnet.

zlibc gefaellt mir eigentlich ganz gut, aber das kommt fuer eine
einzelene Partition wohl nicht in Frage (LD_PRELOAD). Ich denke ich
werde mal rasierfs v4 testen. 

> Andreas

sl ritch



Reply to: