Am 2007-08-05 14:06:53, schrieb Alexander Schestag:
> Das hängt sicher nicht nur vom Tool ab, sondern auch von der Leistung
> des Servers, insbesondere vom RAM. Ich habe sowas mal auf einem älteren
> Server mit wenig RAM mit einem anderen Tool in Perl versucht, was dazu
> geführt hat, daß mir etliche Prozesse gestorben sind und der Server über
> ssh kaum noch ansprechbar war. Da ist also Vorsicht geboten.
So war es auch bei mir...
Selbst bei ner Sun Blade mit 32 CPU's kannste da probleme bekommen.
> >Auf meinem Server in Paris fallen tagtäglich einen Apache2 access.log
> > vonr 46 GByte an... wobei ich mittlerweile die Logs stündlich
> > rotiere.
>
> Das sollte gehen, wenn du zu jedem Auswertungszyklus nicht allzu viele
> Daten aufkommen läßt. Bei einer Auswertung jede viertel Stunde sind das
> gut 500 MB pro Auswertung. Das wäre einen Versuch wert.
Ich mache es jetzt so, das ich die 2 GByte/h gzipe und dann per scp auf
einen anderen Server transferiere. Das geht ewig schnell und der
Auswert-Server macht dann die die Decompremiereung und Auswertung in
weniger als 10 Minuten... Zum Auswerten verwende ich ein SCSI-Raid 0
von 2 x 300 GByte (15.000 UpM) und archiviert wird nun auf einem 3w9500
mit Raid-5 und acht 500 GByte Platten.
Der Gesetzgeber und die Justiz kann einem gewaltig auf den nerv gehen...
(Ich muß 6 Monate die Logs aufheben...)
Thanks, Greetings and nice Day
Michelle Konzack
Systemadministrator
Tamay Dogan Network
Debian GNU/Linux Consultant
--
Linux-User #280138 with the Linux Counter, http://counter.li.org/
##################### Debian GNU/Linux Consultant #####################
Michelle Konzack Apt. 917 ICQ #328449886
50, rue de Soultz MSN LinuxMichi
0033/6/61925193 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature