Si j’ai bien compris, dans le cas d’une surcharge du serveur, les robots qui sont sur cette listes seront « rejeté » le temps que le serveur retrouve une activité « normal », ainsi, les utilisateurs « humains» sont « prioritaire contre les robots !
Dans la première gérée par l’écran de sécurité, on a affaire a des bots qui parcourent le site pour diverses raisons (indexer pour les moteurs de recherche, chercher des trous de sécurité pour des entreprises spécialisées, faire des trucs chelou pour les startup, faire n’importe quoi pour des spammeurs etc…).
Si le site est surchargé, on leur demande de revenir faire ça plus tard. Sauf pour les “botfriends” qu’on ne souhaite pas éconduire (quelques réseaux sociaux ou lecteurs rss influents qui constituent des moyens de lire le site à distance).
La seconde situation gérée par le plugin-dist/statistiques et sa engine-list.txt, est caractérisée par des visites de vrais gens (ou vrais autres bots parfois) effectuées depuis les services tiers qui opèrent les bots venus précédemment parcourir le site.
Quand la visite arrive sur le site, SPIP va détecter que sa provenance est le site Qwant et l’indiquer comme ça dans la liste des liens entrant du panneau des stats.
Donc dans engine-list.txt on indique les sites dont on souhaite caractériser la provenance dans les stats, et dans l’écran de sécu les sites qu’on ne veut pas compter dans les stats, voire qu’on souhaite éconduire en cas de charge importante sur le serveur.