PARTAGER

Voici mon retour sur les conférences auxquelles j’ai pu assister lors de mes 2 jours au SEO Camp 2017 à Paris.

Au programme : des logs, des positions zéro, du javascript, du Big data et du Machine Learning etc.

 

Priceminister & Authoritas : L’utilisation du Big Data et Machine Learning

Le Machine Learning permet à Priceminister de prévoir quelles URLs vont être crawlés le lendemain. Pour un site qui possède plus de 24 millions de pages, cela permet de travailler les pages en questions et d’optimiser le SEO sur celles-ci.

Mais il permet également de prévoir quels mots clés vont être crawlé, ils peuvent ainsi gérer le maillage interne et les ancres en fonction des prédictions.

 

Pour obtenir ces prédictions, c’est Authoritas qui se charge de récolter et de fournir les différentes informations comme :

  • Les opportunités de mots clés
  • Le volume de recherche
  • Les catégories stratégiques
  • Les concurrents déjà positionnés

 

Pour filtrer toutes ses informations, un scoring de mots clés est mis en place, cela permet de sélectionner les mots clés au plus fort potentiel en fonction de différents KPI comme :

  • La légitimité à se positionner
  • La concurrence
  • L’apport potentiel de trafic

 

L’automatisation est une partie essentielle pour gérer le maillage interne, les ancres, les mots-clés, l’intensité etc. vue la largeur du site.

Selon Authoritas, ce travail porte ses fruits dès que le site possède 1000 pages et plus.

 

PBN : Private Blog Network par Paul Sanches

Ici, tout est question de qualité et de quantité.

Si le travail de mise en place est de qualité, c’est-à-dire qu’il respect les bases :

  • Ne pas indiquer le même nom lors de la création des domaines
  • Ne pas utiliser de multi-domaines
  • Ne pas utiliser le même template
  • Ne pas partager l’ensemble de vos sites sur vos réseaux sociaux
  • Ne pas utiliser de certificat TSL commun

Le PBN est invisible pour les moteurs de Google et sera difficilement identifiable par vos concurrents.

Le problème vient plus des concurrents qui sur un domaine très concurrentiels dévoilerons votre jeu à Google si vous leur laisser identifier votre réseaux.

Pour la création des blogs, plusieurs logiciels sont là pour vous aider.

Achat de domaine expiré :

  • Domraider
  • Kifdom

Achat de contenu :

  • Textmaster
  • TextBroker

Hébergement :

  • OVH
  • 1&1

Pour la création d’un PBN de qualité d’une centaines de sites, cela vous coûteras aux alentours des 10 000 €.

 

Google et le Javascript

OUI, google sait crawler le javascript correctement !

Il faut savoir que Google sait lire une page javascript et la représenter comme nous la voyons à 90%.

L’exemple utilisé lors de la présentation est le site de Virginmobile.fr qui est entièrement en Javascript. Non seulement Google sait le crawler mais il sait également le référencer.

Voici les informations que nous pouvons retrouver :

  • Title
  • Balisage sémentaique
  • Meta-description
  • Contenu textuel

Cependant pour un lecture complète de votre site en Javascript, un nouveau Framework est sortie récemment et permet une lecture du code côté serveur et côté client, nous appelons cela : un code « isomorphe ».

 

Vitesse de chargement et Mise en cache

Benoit Chevillot et Aymeric Bouillot nous ont présentés les avantages du cache.

Tout d’abord, il faut savoir que tous les navigateurs n’ont pas la même façon de gérer le cache, il y aura donc des optimisations à faire pour une prise en compte à 100%.

Chaque année le nombres de requêtes entre le serveur et le client augmentent ainsi que la taille des fichiers qui sont transmis. En 2016, nous sommes sur une moyenne de 108 requêtes pour 2426ko.

Voici à quoi ressemble la mise en place d’un serveur de cache. Le serveur sert à faire « tampon » pour libérer le serveur web principal.

Cela à plusieurs impacts SEO :

  • Facteur de ranking
  • Crawl budget
  • Amélioration du taux de rebond
  • Une meilleur expérience utilisateur

Pour la mise en place du serveur cache, un outil est principalement recommandé : Varnish.

Sur WordPress, des plugin font le travail comme WPRocket ou WPTotalCache.

Nous avons également Elasticsearch qui permet de mettre en cache toute les requêtes du moteur de recherche interne.

Voici la liste des choses à ne surtout pas mettre en cache :

  • Page personnalisée
  • Formulaires
  • Requêtes POST
  • Tunnel de conversion
  • Le BackOffice

 

La Position Zéro par Raphael Doucet

La position zéro est un extrait d’une page web mise en avant devant les « résultats naturel ».

position-zero

Pourquoi ces nouvelles positions zéro ?

Google est en train de passer d’un moteur de recherche à un moteur de réponse.

Les internautes ont tendances à poser de plus en plus de questions, à faire des requêtes plus longues  etc.

Ce changement nous vient aussi du mobile avec 20% des recherches en vocal.

Comment être choisi par Google ?

  • 77% des positions zéro sont occupés par les 3 première position naturelle.
  • La description ne doit pas dépasser 89 mots
  • Le tableau ne doit pas dépasser les 9 colonnes.

Pour retirer la position zéro :

  • Utiliser la balise meta name googlebot content= « nosnipped »
  • Modifier le contenu
  • Changer la disposition du contenu

 

La position varie énormément, elle n’est pas dépendante du volume de recherche et ne prend pas en compte les snipped de schema.org.

VN:F [1.9.22_1171]
Avis: 6.7/10 (3 votes)

3 COMMENTAIRES

LAISSER UN COMMENTAIRE