Nous utilisons un sitemap sur Stack Overflow, mais mes sentiments sont partagés.
Les robots d'exploration de sites Web découvrent généralement les pages à partir de liens au sein du site et d'autres sites. Les plans Sitemap complètent ces données pour permettre aux robots d'exploration qui prennent en charge ces plans de récupérer toutes les URL du plan Sitemap et d'en savoir plus sur ces URL à l'aide des métadonnées associées. L'utilisation du protocole Sitemap ne garantit pas que les pages Web sont incluses dans les moteurs de recherche, mais fournit des astuces permettant aux robots d'indexation Web de mieux analyser votre site.
D'après nos deux années d'expérience avec les sitemaps, il y a quelque chose de fondamentalement paradoxal dans le sitemap :
- Les plans Sitemap sont destinés aux sites difficiles à analyser correctement.
- Si Google ne parvient pas à explorer votre site pour trouver un lien, mais est en mesure de le trouver dans le plan du site, il ne donne aucun poids au lien du plan du site et ne l'indexera pas!
C'est le paradoxe du sitemap - si votre site n'est pas correctement exploré (pour une raison quelconque), l'utilisation d'un sitemap ne vous aidera pas!
Google s'efforce de ne fournir aucune garantie de sitemap :
"Nous ne pouvons faire aucune prédiction ou garantie quant au moment ou si vos URL seront explorées ou ajoutées à notre index" Citation
"Nous ne garantissons pas que nous analyserons ou indexerons toutes vos URL. Par exemple, nous n'analyserons ni n'indexerons les URL d'image contenues dans votre sitemap." citation
"soumettre un plan Sitemap ne garantit pas que toutes les pages de votre site seront explorées ou incluses dans nos résultats de recherche" citation
Étant donné que les liens trouvés dans les sitemaps ne sont que des recommandations , alors que les liens trouvés sur votre propre site web sont considérés comme canoniques ... il semble que la seule chose logique à faire est d' éviter d' avoir un sitemap et de vous assurer que Google et tout autre moteur de recherche peuvent correctement Spider votre site en utilisant les vieilles pages Web standard plaine tout le monde voit.
Au moment où vous avez fait cela , et que vous vous êtes bien amusés pour que Google puisse voir que votre propre site renvoie à ces pages, et qu'il serait prêt à l'explorer, pourquoi avons-nous besoin d'un plan du site, encore une fois? Le sitemap peut être très dangereux, car il vous empêche de vous assurer que les robots des moteurs de recherche sont en mesure d'explorer votre site dans son ensemble. "Oh, peu importe si le robot d'exploration peut le voir, nous allons simplement gifler ces liens dans le plan du site!" La réalité est tout le contraire dans notre expérience.
Cela semble plus qu'un peu ironique étant donné que les sitemaps étaient destinés à des sites qui possèdent une collection très profonde de liens ou une interface utilisateur complexe qui peut être difficile à exploiter. D'après notre expérience, le plan du site ne sert à rien, car si Google ne parvient pas à trouver le lien sur votre site, il ne l'indexera de toute façon pas. Nous l'avons vu maintes et maintes fois avec les questions Stack Overflow.
Ai-je tort? Les sitemaps ont-ils du sens, et nous les utilisons de manière incorrecte?