PARTAGER
système pagination avancé

Lorsque l’on travaille le référencement naturel d’un site e-commerce, il n’est pas rare de se poser des questions sur la pagination.

Cette dernière peut très vite poser de très gros problème pour le SEO d’un site. Faisons le point sur ce chantier de référencement.

Pagination : les risques pour votre SEO

Comme on vient de le dire, la pagination peut se révéler très dangereuse pour un site internet si elle n’est pas correctement maîtrisée pour votre référencement naturel.

Nous allons voir dans cette section, les 3 principaux risques liés à une mauvaise utilisation de la pagination sur un site e-commerce.

 

Des difficultés d’indexation de vos fiches-produits

Le premier problème qui peut se poser dans le cas d’une mauvaise gestion de votre pagination, est bien évidemment des difficultés d’indexation pour les fiches-produits les plus profondes.

Les analyses de logs que nous pouvons mener chez Open Linking, montrent des difficultés pour les robots de Google à explorer convenablement des pages si elles sont situées à un niveau de profondeur trop important par rapport à la page la plus populaire du site (généralement la home page).

Si votre arborescence est mal conçue et que certaines fiches-produits sont accessibles en 10, 20 voire plus de clics, il est fort à parier que Google risque de ne pas très bien indexer vos fiches-produits les plus lointaines.

 

Un crawl qui se perd

Dans la même logique que précédemment, un site qui dispose d’une pagination très importante et mal paramétrée pour le référencement, peut disposer d’un crawl totalement inefficace. Le site serait alors, comme un véritable labyrinthe pour les googlebots, qui se perdraient dans les méandres de la pagination.

Si vous disposez de plus de pages paginées que de pages réelles…cela peut poser un problème !

labyrinthe seo

Une duplication de contenus

Autre point noir d’une mauvaise gestion de la pagination, la potentielle création de duplication de contenu.

Prenons l’exemple d’un grand site e-commerce de jouets (période de Noël oblige) : LaGrandeRécré

Le système de paramétrage de la pagination rend possible une totale duplication de contenus.

Exemple avec la page : https://www.lagranderecre.fr/jeux-de-parcours.html

Cette page dispose d’un nombre relativement peu important de produits (36 produits)…Pour autant, il peut être possible de faire indexer plusieurs pages identiques. La faute à un paramètre d’URL appelé « limit= ».

duplication pagination

La page /jeux-de-parcours.html?limit=blabla n’aurait aucun mal à s’indexer…

Un mauvais esprit n’aurait aucun mal à faire du négative SEO en provoquant l’indexation de centaines, et même de milliers, de pages dupliquées.

Pour « rassurer » LaGrandeRécré…ils ne sont pas les seuls… On retrouve le même genre de faille sur de très nombreux sites e-commerce comme le shop de Ferrari ou encore sur le site e-commerce de Lafuma.

 

Les solutions généralement utilisées

Le nombre de produits par page

Pour réduire la pagination, et ainsi maximiser la crawlabilité des fiches-produits, la solution la plus simple est de jouer avec le nombre de produits affichés par page.

Si vous multipliez par 2, le nombre de produit affiché par page…vous diviserez par 2 vos problèmes de pagination ! C’est mathématique…

Prenons exemple avec un site qui dispose d’une pagination très importante.

Celui-ci propose 20 liens par page.

Compte tenu du nombre de produit dont il dispose, la pagination devient vite très importante. Dans le cas présent, 302 pages paginées…

pagination très importante

S’il passait d’un nombre de liens par page de 20 à 40…il réduirait sa pagination de moitié, et arriverait ainsi à 151 pages…Ce n’est pas encore le top mais c’est nettement mieux ! S’il passait à 60…la pagination baisserait encore jusqu’à atteindre 100 pages environ.

La limite à cette technique va être l’augmentation des temps de chargement. Plus il proposera un nombre important de produits par page, plus les temps de chargement de la page risque de s’allonger. Il faut donc trouver le juste milieu entre temps de chargement et indexabilité.

Les systèmes de pagination intelligents

Par défaut, les systèmes de pagination ne sont pas toujours travaillés dans la logique de « minimiser le nombre de clics pour atteindre les pages les plus profondes ».

Prenons l’exemple sur un site qui dispose de 40 pages paginées :

système pagination simple

Avec le système basique qu’on peut voir ci-dessus, il est nécessaire de cliquer au minimum 18 fois pour atteindre la page la plus difficile d’accès (page 21). 18 clics !!!

La mise en place d’un système de pagination un peu plus travaillée aurait pu permettre de réduire à seulement 6 clics maximum de la première page.

système pagination avancé

 

Balise Rel=Prev et Rel=Next

Les balises rel=prev et rel=next ont été mises en place il y a quelques années par Google pour qu’on puisse aider les robots des moteurs de recherche à comprendre que la page liste fait partie d’un ensemble de pagination, et qu’il existe des pages qui la précédent (rel=prev) et des pages qui la succèdent (rel=next).

Ces balises envoient un signal fort à Google pour lui permettre de comprendre qu’il s’agit d’une séquence logique.

 

La configuration dans Search Console

Pour faire suite à la mise en place des balises rel=prev et rel=next, il peut être pertinent de déclarer les paramètres de pagination comme tel dans l »outil de gestion des paramètres d’URL dans Google Search Console.

Dans la même logique que les balises rel=prev et rel=next, cette déclaration permettra aux robots de bien comprendre que ces liens font partie d’un ensemble logique.

 

La balise canonical

De nombreux sites utilisent la balise canonical pour déclarer la page principale (la page 1) dans toutes les pages secondaires. C’est le cas de la bijouterie Adamence par exemple qui propose sur toutes ses pages secondaires (pages 2, 3…) une balise canonical vers la page 1.

Exemple : https://www.adamence.com/bagues?p=2

canonical pagination

Cette configuration va avoir pour conséquence d’indiquer à Google de suivre en priorité la page 1…A terme, les produits affichées dans les pages secondaires seront donc nettement moins crawlées.

La meta Noindex

Certains sites ne veulent pas indexer leurs pages secondaires et donc placent une meta robots=noindex, follow (voire parfois nofollow).

La solution est radicale mais peut trouver son intérêt. Google crawlera les pages secondaires…mais ne les indexera pas.

C’est la solution choisie par la site Micromania.fr

http://www.micromania.fr/ps4/jeux.html?dir=desc&order=micromania_release_date?p=2

noindex micromania

Toutes les pages secondaires disposent d’une meta robots=noindex, follow.

 

Une déduplication des contenus SEO

Toutes les solutions que nous avons vu jusque là ont pour but de gérer le problème potentiel d’indexabilité relatif à une pagination mal maîtrisée.

Toutefois, on a vu également dans la première section que la pagination pouvait poser des problèmes de duplication de contenus.

Il sera donc recommandé de dédupliquer au maximum, les zones stratégiques de contenus SEO (balise title, balise H1, contenu textuel…).

Le site LeMatelas.fr réalise très bien cela avec des contenus différenciés pour les pages paginées :

Exemple : http://www.lematelas.fr/matelas-1/matelas/90x190m.html et http://www.lematelas.fr/matelas-1/matelas/90x190m.html?p=2

La balise title, la balise H1 et le contenu textuel sont bien différenciés entre la page 1 (page principale) et les pages suivantes.

 

Et pourquoi pas aller plus loin ?

Finalement, peu de choses ont évolué depuis quelques années dans la façon de travailler sa pagination pour le SEO.

Nous testons actuellement au sein d’Open Linking, une réflexion différente de la pagination pour le référencement naturel. Les résultats de ce test feront l’objet, s’il avère positif, d’un nouvel article au sein de ce blog.

Et vous, voyez vous d’autres façon de travailler la pagination pour le référencement organique ?

 

VN:F [1.9.22_1171]
Avis: 9.8/10 (6 votes)
PARTAGER
Article précédentHTTPS et temps de chargement longs : quelle priorité ?
Consultant E-Marketing (SEO et SEA) au sein d'Open Linking depuis 2014, je publie régulièrement des articles consacrées à mon levier fétiche : Adwords Il m'arrive également de partager mes retours d'expérience sur mon autre levier fétiche : le SEO.

1 COMMENTAIRE

  1. Bonjour,

    Lorsqu’on est dans le cas d’un site d’affiliation et qu’on a pas de pages produits, que pensez-vous de mettre une meta NoIndex,NoFollow ? Est-ce vraiment utile que google perde son temps dans la pagination si on à de toute façon pas de pages produits à faire indexer dans nos pages de résultats ?

    Merci,

LAISSER UN COMMENTAIRE