Bonjour,
j'ai une question à destination des développeurs de SPIP et des utilisateurs
ayant déjà terminé un site web avec ce merveilleux systeme...
Je suis en train de développer un site complet avec une syndication sur
trois autres sites. Le tout en remplacement d'actuelles pages HTML (plus de
1500 par an).
Aujourd'hui, je bénéficie d'un référencement en "béton"... Mes sites sont
optimisés pour les moteurs, zones chaudes, dorways, frameset amélioré...
La question, est-ce que SPIP permet un référencement optimal. On sait que
les robots ont du mal à digérer les languages dynamiques alors est-ce qu'il
serait bon que je prévois des pages HTML cachées pour les robots? ou est-ce
que le robot sera capable de déchiffrer et d'ouvrir les squelettes?
Merci et à +.
P.G.
________________________________________________________________________
VISITEZ NOS SITES: http://www.pitstop.com.fr - http://www.passion-auto.com
http://www.premierGP.com - http://www.premier1GP-live.com -
http://www.GP1-live.com
http://www.warmupF1.fr
________________________________________________________________________