Hallo Jens, On Tue, 25 Mar 2003 16:37:10 +0100 Jens Benecke <debian-user-german@jensbenecke.de> wrote: [...] > Ich suche eine Möglichkeit, wie ich die Web-Logs nach "besonderen > Ereignissen" absuchen kann. Ich habe das Gefühl, unsere (stark > datenbanklastigen) CMS- und Portal-Seiten werden von irgendeinem Spammer > durchforstet oder ähnliches. Also, z.B. ein Statistiktool, was mir > beantworten kann, welche IP (innerhalb der letzten X Stunden) die > meisten HTTP-Requests gemacht hat, oder andersrum, welche URL am > häufigsten abgerufen wurde. > > webalizer und analog sind "zu allgemein", ie. fassen zu stark zusammen. > Damit kann ich zwar erkennen, daß die meisten Lastspitzen im Bereich > 20-23 Uhr liegen, aber nicht WOHER sie kommen. > > > Habt ihr eine Idee? Zur Not: grep, awk, perl, python, ... z.B. (Ungetestet) # Suche nach Ursprungs-Adresse grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $1}' | \ sort | uniq -c | sort -n | tail -n 30 # Suche nach URL grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $7}' | \ sort | uniq -c | sort -n | tail -n 30 Gruß Jörg -- Dipl.-Ing. Jörg Schütter http://www.lug-untermain.de/ http://www.schuetter.org/joerg/ joerg@schuetter.org http://mypenguin.bei.t-online.de/
Attachment:
pgpcf5Iw7iga8.pgp
Description: PGP signature