[Résolu] Ecran de sécurité, Bing et autres GoogleBots...

Bonjour
Je suis confronté à un souci de référencement pour un site remis à jour récemment. (Spip 4.3.5)

  • Google trouve une erreur serveur 5XX sur les pages lors de l’utilisation de la search console
  • Bing n’a pas non plus accès aux pages, erreur 429 de ce côté.

J’ai effectué ce réglage de l’écran de sécurité qui revient à plusieurs reprises dans les forums :

<?php
define('_ECRAN_SECURITE_LOAD', 0);
  • Aucun changement pour Bing
  • Amélioration très légère et aléatoire pour Google (je reconnais/je reconnais plus)

Après de nombreuses recherches infructueuses, désactivation des plugins, suppression des squelettes perso pour utiliser uniquement ceux de la dist, mise en pause de mes_options.php et de mes_fonctions.php, j’ai fini par être convaincu que l’erreur n’est pas de mon fait.
Tentative radicale: suppression (provisoire! :slight_smile: ) de ecran_securite.php … et miracle, toutes les pages sont reconnues par les deux moteurs.

Je suppose ne pas être le seul, mais le bug est insidieux, car on n’a pas le nez sur les résultats de la search console tous les jours… Voir par exemple Spip 4.0.2 et sitemap : pas d'indexation depuis 2 mois - #14 par jeanmarie

Je suis preneur de vos idées pour régler le problème…

Ah oui, et bonne année à tous! :grinning:

Tu as bien posé la règle en question dans config/ecran_securite_options.php cf Écran de sécurité - SPIP ?

J’avais mis le fichier à la racine (avec le .htaccess et robots.txt), et testé aussi dans squelettes (avec options.php).

Bêtement oublié dans config/, je teste ça et je reviens…

La piste était la bonne.
avec :

<?php
define('_ECRAN_SECURITE_LOAD', 10);

GoogleBot a accès à la page, mais pas Bing

Pour que Bing ait accès à la page, il faut monter à

<?php
define('_ECRAN_SECURITE_LOAD', 50);

ou alors désactiver la fonctionnalité :

<?php
define('_ECRAN_SECURITE_LOAD', 0);

Une question: est-ce que ce réglage influe sur l’efficacité de l’écran de sécurité, et diminue donc son efficacité?

Il serait peut-être utile de préciser dans la doc l’emplacement de ecran_securite_options.php, qui doit être placé dans le répertoire config/

Merci du coup de main

J’avais désactivé la fonctionnalité avec :

<?php
define('_ECRAN_SECURITE_LOAD', 0);

mais malgré cela Google Search Console ne veut pas indexer mon site https://www.keraluc.com
Peut-être en paramétrant cette valeur à 4 ou 10, ce foutu robot accepterait l’indexation ?

Je me disais la même chose en citant la doc, je l’ai corrigé sur ce point :slight_smile:

Bonjour b_b,
on s’était rencontré à Brest il y a quelques mois où je t’avais parlé de mon problème de refus d’indexation de mon URL keraluc.com par Google. Depuis le problème subsiste et je désespère de trouver enfin une solution. Je pense que GoogleBots est à mettre en cause, car tous les autres moteurs de recherche me posent aucun problème. Mais comment faire pour y remédier ? Je n’ai pas envie de changer de système de gestion de contenu (pour WordPress ?) ni d’hébergeur. Mais s’il faut en passer par là, je m’y résoudrais ;-(

Hum… Je me sers peu de google comme moteur de recherche, mais du coup je suis allé voir et sans rien faire plusieurs de mes sites remontent en premier choix de google.

Je vois que utilises le couteau suisse, est-ce qu’il n’aurait pas une configuration qui génerait (sinon ton site a l’air très simple, à quoi te sert le couteau_suisse ? pourrais-tu simplement t’en passer ?)

Sinon, l’indexation d’un site dans un moteur de recherche n’est pas instantanée… si tu as modifié quelque chose il faut laisser le temps que ça remonte…

Bonjour,

En changeant de « User Agent » dans un navigateur web, on peut vérifier quels sont les bots qui renvoient la 429 : ce qui est le cas de ton site avec GoogleBot.

MAIS il faut réellement mettre en œuvre tout ce qui est indiqué plus haut, dans ./config/ecran_securite_options.php comme :

  • désactiver la protection anti-robots avec : define('_ECRAN_SECURITE_LOAD', 0);
  • modifier la valeur limite : define('_ECRAN_SECURITE_LOAD', 21);

Lecture : Couverture Google et SPIP

Je viens de tester la charge de 3 hébergements mutualisés avec

<?php
$load = sys_getloadavg();
echo $load[0];

Ça donne :

  • 6.74 chez Infomaniak
  • 14.14 chez OVH
  • 2.71 chez un autre OVH

Sur l’hébergement Infomaniak, j’ai testé avec le user agent de Google bot et j’ai une réponse Status 429 Too Many Requests (try again soon) ou même pas de réponse du tout. Avec define('_ECRAN_SECURITE_LOAD', 21);, le site s’affiche bien avec le user-agent du Google bot.

Sur l’hébergement à 2.71, le site s’affiche bien sans toucher à _ECRAN_SECURITE_LOAD.

Est-ce que ça veut dire que la valeur de 4 par défaut bloque l’indexation dans ce cas-là et entraîne les erreurs d’indexation (Erreur serveur (5xx)) ?

1 « J'aime »

On peut aussi installer DD - Plugins SPIP qui affiche cette valeur en pied de page pour les admins SPIP.

Selon mes expériences sur hébergements mutualisés : oui.

1 « J'aime »

Ça ne doit pas renvoyer des 500 mais des 429 : « site occupé, veuillez repasser aux heures creuses »

Mais il faut comparer ce qui est comparable et il y a plein de sortes d’hébergements différents chez chacun des hébergeurs que tu cites.

La métrique sys_getloadavg(); était pertinente il y a 15 ou 20 ans, mais elle ne l’est plus aujourd’hui, dans l’absolu en tout cas, sur nombre d’hébergements qui sont à cheval sur un nuage entre le mutualisé et le dédié, avec de multiple coeurs mais dont le nombre de process concurrent peut aussi être limité…

Il faut donc désactiver (mettre 0) ou ajuster aux particularités de ton hbgt.

Merci pour ce retour qui précise un peu mieux les choses.

Il faut la désactiver systématiquement car elle n’est plus adaptée du tout ou elle a encore un intérêt malgré ces effets de bord ?

Elle n’aura un intérêt éventuel que si tu parviens à savoir comment est foutue la selle de ton hébergement à cheval sur son nuage et ce que concrètement la fonction mesure sur ton hébergement particulier.
S’il apparaît alors que cette mesure est pertinente, l’ajustement de la constante de l’écran de sécu permettra que ton site, lorsque ton hébergement est surchargé par un trop grand afflux de requêtes, demande poliment aux robots de passer leur chemin et revenir plus tard quand yaura le temps de leur faire visiter le domaine.
L’espoir c’est que ça évitera d’allourdir encore plus la charge pour ne pas pénaliser encore plus les utilisateurs humains.
Ça semble surtout utile lorsque tous les sites importants qui contribuent à la surcharge de ton hébergement font pareil (sur une ferme à SPIP par exemple) ou peut être un peu lorsque ton hébergement est sous dimensionné.

Bonsoir, j’utilise surtout le couteau suisse pour avoir des blocs dépliables et des ancres douces. Cela serait dommage de s’en passer pour résoudre mon problème avec Google.

Tu peux remplacer ces 2 lames du CS par
Des blocs dépliables
et
Ancres douces

OK pour le plugin « Ancres douces » mais il me semble que la lame des blocs dépliables du plugin « Couteau suisse » n’est pas isolée dans un plugin spécifique et nécessite donc l’installation du « Couteau suisse » qui est un peu une « usine à gaz » pour moi. Et si en plus, elle entraine des difficultés pour le référencement de son site, que faire ?

Je me réponds : j’ai trouvé le bon plugin désolé pour l’erreur de ma part

De ce que je comprends (je formule pour être sûr :slight_smile: ), cette fonctionnalité n’a pas d’utilité sur les hébergements mutualisés dont on ne connaît ni l’architecture ni les autres sites hébergés sur le même cluster.
Donc : si on est sur du mutu, il faut la désactiver.