Re: [OT] Patrones de búsqueda por spider robots en Directorios
El Wed, 08 Dec 2010 01:02:52 -0300, Pablo Zuñiga escribió:
> quiero compartir la siguiente acotación en cuanto a un poco el tema de
> seguridad, me he dado cuenta que hay unos web robots (spider robots) que
> buscan siempre los mismos directorios.
>
> la mayoria tiene la siguiente estructura
(...)
> los archivos robots.txt están desactivados para que puedan buscar e
> indexar, alguien ha revisado mas de este tipo de comportamiento? yo
> busque si dentro de los directorios que se crean en servidores debian
> pillabamos la misma estructura de subdirectorios, así que concluyo que
> esta mas orientado a instalaciones personalizadas en algún ambiente
> windows aunque desconozco si otras distros trabajaran así
Bueno, cada "bot" estará programado para buscar vulnerabilidades en
distintos servidores web, es decir, incluyen patrones "genéricos" de
búsqueda por lo que no te extrañe que ejecute peticiones a rutas o
archivos inexistentes (el "bot" desconoce el tipo de servidor al que
intenta atacar, no sabe si corre bajo windows, linux o cualquier otro
sistema, así como tampoco sabe qué tipo de servicios tiene instalados,
por lo que intenta acceder a todos los recursos que se saben vulnerables).
En cualquier caso, lo importante es mantener actualizado cualquier
framework (tipo drupal, wordpress, joomla, etc...) que se tenga
habilitado en el servidor web ya que son los servicios más vulnerables.
Saludos,
--
Camaleón
Reply to: