Am 2007-08-05 14:06:53, schrieb Alexander Schestag: > Das hängt sicher nicht nur vom Tool ab, sondern auch von der Leistung > des Servers, insbesondere vom RAM. Ich habe sowas mal auf einem älteren > Server mit wenig RAM mit einem anderen Tool in Perl versucht, was dazu > geführt hat, daß mir etliche Prozesse gestorben sind und der Server über > ssh kaum noch ansprechbar war. Da ist also Vorsicht geboten. So war es auch bei mir... Selbst bei ner Sun Blade mit 32 CPU's kannste da probleme bekommen. > >Auf meinem Server in Paris fallen tagtäglich einen Apache2 access.log > > vonr 46 GByte an... wobei ich mittlerweile die Logs stündlich > > rotiere. > > Das sollte gehen, wenn du zu jedem Auswertungszyklus nicht allzu viele > Daten aufkommen läßt. Bei einer Auswertung jede viertel Stunde sind das > gut 500 MB pro Auswertung. Das wäre einen Versuch wert. Ich mache es jetzt so, das ich die 2 GByte/h gzipe und dann per scp auf einen anderen Server transferiere. Das geht ewig schnell und der Auswert-Server macht dann die die Decompremiereung und Auswertung in weniger als 10 Minuten... Zum Auswerten verwende ich ein SCSI-Raid 0 von 2 x 300 GByte (15.000 UpM) und archiviert wird nun auf einem 3w9500 mit Raid-5 und acht 500 GByte Platten. Der Gesetzgeber und die Justiz kann einem gewaltig auf den nerv gehen... (Ich muß 6 Monate die Logs aufheben...) Thanks, Greetings and nice Day Michelle Konzack Systemadministrator Tamay Dogan Network Debian GNU/Linux Consultant -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ ##################### Debian GNU/Linux Consultant ##################### Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSN LinuxMichi 0033/6/61925193 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature