Comment rel = "next" et rel = "prev" aident-ils au référencement s'ils sont utilisés pour la pagination?


9

Comment rel = "next" et rel = "prev" aident-ils au référencement, s'ils sont utilisés pour la pagination? Est-ce vraiment nécessaire?

c'est à dire imaginez que vous êtes à la page 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">

Réponses:


6

Pagination avec rel = "next" et rel = "prev"

Tout comme rel = "canonical" agit comme un indice fort pour le contenu en double, vous pouvez maintenant utiliser les éléments de lien HTML rel = "next" et rel = "prev" pour indiquer la relation entre les URL des composants dans une série paginée. Sur le Web, une série de contenus paginés peut prendre plusieurs formes: il peut s'agir d'un article divisé en plusieurs pages de composants, ou d'une catégorie de produit avec des articles répartis sur plusieurs pages, ou d'un fil de discussion divisé en une séquence d'URL. Maintenant, si vous choisissez d'inclure le balisage rel = "next" et rel = "prev" sur les pages de composants d'une série, vous donnez à Google un indice fort

Source: blogspot de Google


Est-ce obligatoire? Tu devrais faire ça? Oui, cela diminuera la pénalité de «page en double» car il peut voir qu'il s'agit d'une page suivante / précédente de la page actuelle. Il indique la relation entre les pages (d'où rel ).


2

Je dirais que si vous divisez une longue page en petits morceaux (peut-être pour plus de revenus publicitaires), qui aurait dû être une seule page, l'utilisation des attributs prev / next donne un signal clair aux moteurs de recherche sur la page principale afin que le les moteurs de recherche peuvent afficher la page principale dans les SERPs et attacher moins d'importance aux morceaux.

Concernant le contenu en double, nous devons toujours nous efforcer de réduire le contenu en double et prev / next ne concerne pas le contenu en double. Soit nous devons ajouter rel = canonical, soit bloquer les pages en double via Robots.txt ou méta noindex exclusion.


0

AFAIK cela vous aidera à éviter les problèmes de contenu en double uniquement, car les pages paginées ont le même titre et les mêmes descriptions, pour éviter ce comportement, Google introduit ces balises. Au lieu d'appliquer manuellement ces balises, je bloque généralement les pages paginées du fichier ROBOT.txt pour éviter les duplications et c'est la méthode la plus simple par rapport à la méthode rel car vous devez mentionner manuellement partout et ces balises ne sont pas nécessaires si vous bloquez les pages paginées dans ROBOT.txt.


1
Ce n'est pas la meilleure idée de bloquer les pages paginées dans votre robots.txt. Vous obtiendrez plus de pages dans l'index supplémentaire, tandis que Google affichera vos pages dans SERP avec du texte comme "vide à cause de robots.txt de ce site" au lieu de la description.
Marian Popovych
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.