Sur 2 sites que j'héberge, j'ai des milliers de requêtes de ce type :
urldusite/spip.php?page=recherche&page=recherche&recherche=http%3A%2F%2FuneURLdeSPAM
Et ça venant de plusieurs IP différentes en permanence.
Pour contrer ça, j'ai mis dans le .htaccess :
RewriteCond %{HTTP_HOST} ^(www\.|)urldusite\.tld [NC]
RewriteCond %{QUERY_STRING} recherche=http [NC]
RewriteRule .* - [F]
Pour produire des 403 forbidden
Et réduire la charge serveur
Si besoin, je peux envoyer à la team une liste d'url réelles.
Un(des?) bot(s) un peu bête(s) qui croi(en)t ainsi faire de l’injection d’URL dans du cache, parce que les pages de reponse qu’ils récupèrent contiennent l’URL mise en requete.
On les subit sur contrib depuis bien longtemps déjà…
De mémoire j’ai mis une règle dans l’écran de secu sur la double occurence de page=recherche pour le bloquer.
Un(des?) bot(s) un peu bête(s) qui croi(en)t ainsi faire de l’injection d’URL dans du cache, parce que les pages de reponse qu’ils récupèrent contiennent l’URL mise en requete.
On les subit sur contrib depuis bien longtemps déjà…
De mémoire j’ai mis une règle dans l’écran de secu sur la double occurence de page=recherche pour le bloquer.
Merci de ta réponse.
Je viens de chercher "recherche" dans l'écran de sécurité et je n'ai pas trouvé de code correspondant à ce que tu cites de mémoire.
C'est en tout cas un truc qui charge bien le serveur
Même chose la semaine dernière sur un site que je gère, même double occurence, ils nous ont saturé le serveur.
De mon côté j'ai désactivé la recherche en mode pompier ce week end.
Faudrait peut être reporter dans l'écran sécu générique ?
Oui, cette restriction est étonnante.
Peut être est elle motivée par le pattern particulier du spam qui avait motivé cette protection à l'époque,
mais cette restriction me semble superflue dans le cas général.
Sauf que peut être faut il pouvoir chercher http sur certains sites ???