Bonjour !
On parle pas mal ces derniers temps des problèmes causés par les crawlers IA qui ne respectent pas robots.txt et qui pourrissent nos statistiques de visites, mais aussi prennent de la bande passante, du temps de calcul etc.
Je me demandais si ce ne serait pas intéressant d’implémenter une solution de type « pot de miel » pour les mettre rapidement en liste noire. Mon idée un peu naïve ce serait une page qui serait indiquée comme à ne pas indexer sur robots.txt, et qui serait directement accessible depuis la page d’accueil (via un lien masqué). Toute IP prise à consulter cette page serait rajoutée à une blocklist…
Il semble qu’il y avait dans le temps un Projet Pot de Miel - SPIP-Contrib mais qui n’a pas tout à fait la même finalité.
D’autres idées ?
Bien cordialement,
Mathieu