Les fichiers Robots.txt se révèlent souvent trop indiscrets
Un chercheur en cybersécurité australien s’est livré à une expérience en compilant des données provenant de fichiers robots.txt, censés permettre d’éviter à certaines parties d’un site d’être indexées. Selon lui, ces fichiers contiennent de précieuses informations pour un attaquant.
from ZDNet - Business et Solutions IT http://ift.tt/1cN7TU2
via IFTTT
from ZDNet - Business et Solutions IT http://ift.tt/1cN7TU2
via IFTTT
Commentaires
Enregistrer un commentaire