[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: [OT] Patrones de búsqueda por spider robots en Directorios



El Wed, 08 Dec 2010 01:02:52 -0300, Pablo Zuñiga escribió:

> quiero compartir la siguiente  acotación en cuanto a un poco el  tema de
> seguridad, me he dado cuenta que hay unos web robots (spider robots) que
> buscan siempre los mismos directorios.
> 
> la mayoria tiene la siguiente  estructura

(...)

> los  archivos robots.txt están  desactivados para que puedan buscar e
> indexar, alguien ha  revisado mas de este tipo de comportamiento? yo
> busque si dentro de los directorios que se crean en servidores debian
> pillabamos la misma estructura de subdirectorios, así que concluyo que
> esta mas orientado a instalaciones personalizadas en algún ambiente
> windows aunque desconozco si otras distros  trabajaran así

Bueno, cada "bot" estará programado para buscar vulnerabilidades en 
distintos servidores web, es decir, incluyen patrones "genéricos" de 
búsqueda por lo que no te extrañe que ejecute peticiones a rutas o 
archivos inexistentes (el "bot" desconoce el tipo de servidor al que 
intenta atacar, no sabe si corre bajo windows, linux o cualquier otro 
sistema, así como tampoco sabe qué tipo de servicios tiene instalados, 
por lo que intenta acceder a todos los recursos que se saben vulnerables).

En cualquier caso, lo importante es mantener actualizado cualquier 
framework (tipo drupal, wordpress, joomla, etc...) que se tenga 
habilitado en el servidor web ya que son los servicios más vulnerables.

Saludos,

-- 
Camaleón


Reply to: