En revanche ça ne permet plus de faire que ce soient les robots qui précalculent les pages pour les visiteurs humains. Mais statistiquement j’imagine qu’on gagne plus qu’on ne perd ?
En revanche ça ne permet plus de faire que ce soient les robots qui précalculent les pages pour les visiteurs humains.
Mais statistiquement j'imagine qu'on gagne plus qu'on ne perd ?
On ne peut pas à la fois demander aux bots de pré-calculer le cache et de ne pas générer de cache !
Le pb des bots est la voracité de leurs interventions (un peu comme une attaque DDOS)
Cette optimisation pourrait elle reportée dans la version 2.1 qui occupe encore une grande part du parc spip ?
JLuc
En revanche ça ne permet plus de faire que ce soient les robots qui précalculent les pages pour les visiteurs humains. Mais statistiquement j’imagine qu’on gagne plus qu’on ne perd ?
Oui, dans les logs j’ai de 25% à 50% des écritures de fichier cache qui sont le fait des bots.
En particulier, quand on est en memoization/filecache (qu’il faut que l’on reporte dans le core 3.1) on a un nombre de slots fixes, et comme les robots passent partout, même si ils calculent une page « utile », ils ont toutes les chances d’écraser le cache ensuite avec une page « inutile ».
De ce que j’ai vu, ça me semble globalement mieux, mais faut valider à l’usage généralisé.
Cédric