Le Tuesday 19 May 2009 à 13:32:53 (+0200), GanGan a écrit : > la technique su robots.txt ne fonctionne pas je viens de l'essayer > generalement le site est victime d'aspiration par xerox, gaz de france, > carrefour, etc... > donc je pense qu'ils ont des appliance genre astaro, arkoon etc... Si tu les as identifiés, à ta place, je me prendrais pas la tête et je ne risquerais pas de pénaliser des utilisateurs légitimes de wget. Je pense que je blacklisterais les IP directement dans netfilter, la table de routage ou les tcpwrappers (j'essaye de garder ces considérations de filtrage de bas niveau en dehors de la configuration du serveur applicatif). Tu peux aussi les limiter en utilisant le module noyau netfilter "recent" pour limiter le nombre de requetes que ces IP (ou toutes) peuvent faire à la minute. Fanfan -- J'ai toujours éprouvé une fascination pour l'aiguille et son pouvoir magique. [ Louise Bourgeois ]
Attachment:
signature.asc
Description: Digital signature