Les fichiers Robots.txt se révèlent souvent trop indiscrets

Un chercheur en cybersécurité australien s’est livré à une expérience en compilant des données provenant de fichiers robots.txt, censés permettre d’éviter à certaines parties d’un site d’être indexées. Selon lui, ces fichiers contiennent de précieuses informations pour un attaquant.

from ZDNet - Business et Solutions IT http://ift.tt/1cN7TU2
via IFTTT

Commentaires

Articles les plus consultés