Les principaux « Algo » de Google

En savoir plus

 

Depuis les années 2000, le SEO (Search Engine Optimization) a un autre visage et l’avènement de Google et de ses innovations n’y sont pas étranger.
La fin des années 2000 marque aussi la naissance des réseaux sociaux comme Facebook et Twitter, cela initie la prise en compte d’autres signaux dans le classement des sites.
Au début des années 2010, la qualité d’un site web devient le marqueur 1. Pour figurer en bonne place, il vous faut un contenu de bonne qualité avec balise, méta-description, mot-clé de longue traîne est la règle. Le contenu est roi (content is king).
C’est le début de mises à jour majeures de Google. Certains sites ne s’en relèveront pas, d’autres seront mis à mal et enfin d’autres vertueux depuis des années verront leur notoriété et leur présence sur le web, grandement améliorées.
Par ailleurs, en 2012, exit l’unique interprétation de mots-clés.
Google lance le Knowledge Graph qui se focalise sur l’interprétation sémantique et l’intention de recherche.
Les débuts des années 2000 avaient marqué un premier virage, les années 2010 en amorcent un second plein de mises à jour et d’algorithmes pour façonner la façon de faire des sites. Ces mises à jour successives révolutionnent Google, bousculent les référenceurs et permettent l’émergence d’un ordre nouveau. Je vous emmène faire le tour de ces bouleversements.

Caffeine

Déployée en juin 2010, cette mise à jour conséquente de l’index de Google, a révolutionné le mode d’exploration des pages web et la façon de présenter les résultats.
Selon Matt Cutts, au lancement, Caffeine propose 50 % de résultats plus frais que l’ancien système d’indexation de Google, car les pages sont désormais crawlées et indexées instantanément.
Rappelons qu’initialement Google devait extraire, analyser et comprendre le contenu avant de pouvoir l’indexer.

 

 

Panda

Février 2011 un animal noir et blanc tout mignon arrive, c’est Panda.
L’algorithme Panda, « filtre de recherche » sans concession, pénalise les sites de faible qualité au niveau du contenu (les pages avec peu de mots ou les pages avec du contenu dupliqué). Il vise en particulier les sites créés uniquement pour le référencement naturel.
Cet algorithme est mis à jour régulièrement, cela permet aux sites qui écrivent pour les internautes et non pour le moteur, d’améliorer leur position dans les SERP. Pour ceux qui font du spamming, qui trichent ou qui ont du contenu sans intérêt, risquent d’être pénalisés.
Depuis la mise à jour 4.2, la qualité du contenu est devenue un facteur vital pour le positionnement.
Panda a été intégré à l’algorithme principal de Google. Cette information a été confirmée en janvier 2016, cela veut dire que Panda fonctionne désormais en continu.

 

 

Top Heavy – Excès de publicité

Janvier 2012, arrivée de l’algorithme Top Heavy.
Il est chargé de pénaliser les sites lourds de publicité (traduction maison). C’est-à-dire les sites contenant trop de publicités. Cet algorithme tape d’autant plus fort que les publicités se trouvent au-dessus de la ligne de flottaison. Pour information, cette mise à jour n’a impacté qu’1% des résultats de recherche.

Penguin-Pengouin

Revoilà un mignon animal noir et blanc, mais celui-ci s’appelle Penguin.
Il arrive en avril 2012 et devient vite la bête noire des webmasters et autres référenceurs tant il est féroce.
Penguin est comme Panda un “ filtre de recherche ”.
Il pénalise les sites qui ne respectent pas les directives Google en matière de netlinking. En fait, la directive de Google est claire : les liens doivent se faire naturellement donc pas d’achat de liens ou d’échange de liens (partenariat). Dans les faits, on peut faire des achats de liens ou des partenariats mais il faut être intelligents pour que cela paraisse naturel.
Sa dernière mise à jour date du 23 septembre 2016 avec la mise à jour 4.0.
Penguin a rejoint Panda dans le zoo Google, entendez par-là que désormais Penguin fait partie de l’algorithme Google et tout comme Panda, il fonctionne en continu.

 

 

Pirate

Août 2012, Pirate passe à l’abordage ! (elle est facile je le reconnais).
Plus sérieusement l’algorithme Pirate est chargé du nettoyage des SERPs.
Cela concerne principalement les sites où l’internaute peut télécharger des vidéos, des musiques, … illégales. Il plonge dans les tréfonds de Google les sites ayant reçu une plainte pour violation des droits d’auteurs (plainte déposée sur le DMCA de Google).

Définition de DMCA (Digital Millennium Copyright Act)

C’est une Loi du 105ème Congrès américain (administration Clinton) visant à modifier le titre 17 du Code des États-Unis afin de mettre en œuvre le Traité sur le droit d’auteur et le Traité sur les interprétations et les phonogrammes de l’Organisation mondiale de la propriété intellectuelle, et à d’autres fins. Elle est adoptée le 8 octobre 1998 et entrée en vigueur le 28 octobre 1998.
Quel est son impact pour Google et le SEO ? Pour Google il en a découlé une augmentation constante de demandes de suppression et la nécessité de mettre en place une procédure simple et facilement accessible.
Pour le SEO, cela signifie que si la procédure est acceptée, votre contenu sera retiré des pages de Google sans que vous soyez averti. Ces contenus peuvent être :

  • Des pages HTML,
  • Des fichiers texte au format doc, pdf, txt, ppt…
  • Des images au format jpeg, svg,gif,png, psd…
  • Des vidéos au format mpg, avi, mov, flv, mp4…
  • De la musique au format mp3, aif, wav…

Cela concerne les contenus se trouvant sur votre site, mais également à tout autre emplacement du WEB comme les réseaux sociaux, les forums, les sites clients ou partenaires, les commentaires de blog). L’impact en SEO est donc énorme.

Exact Match Domain

Au début des moteurs de recherche, le choix du nom de domaine était primordial pour être bien positionné dans les SERPS. Depuis septembre 2012, l’algorithme Exact Match Domain (EMD) diminue l’impact du nom de domaine sur l’indexation. De plus, EMD pénaliserait les NDD sur-optimisés pour des sites de mauvaise qualité.

Payday

Le nom exact est Payday Loan Update. En Juin 2013, cet ensemble de mises à jour vise à identifier et pénaliser les sites web utilisant beaucoup du spamdexing ou de Black Hat SEO. Parmi les sites les plus impactés, on retrouve les sites de jeux en ligne, les sites de contenus pour adultes, les sites de crédits et les sites de ventes de médicaments en ligne. Matt Cutts explique ce qu’est le Payday Loan Update comme “une recherche des schémas de lien uniques, dont beaucoup sont illégaux.”

Hummingbird-Colibri

Septembre 2013, un nouvel animal fait son apparition dans le zoo de Google, Colibri.
Ne vous fiez pas à la taille de cet animal, cet algorithme est l’un des plus importants de Google et s’il s’appelle Colibri c’est parce qu’il réunit rapidité et précision comme cet oiseau.
Cette mise à jour vise à faire correspondre les requêtes internautes et les contenus proposés dans les pages de recherche le plus précisément et le plus rapidement possible.
Avec Colibri, Google comprend une requête dans son ensemble, il analyse la phrase et non plus uniquement les mots-clés. C’est l’avènement de la recherche conversationnelle.
Une des fonctions cachées que l’on prête à Colibri seraient par la même occasion le nettoyage des contenus de mauvaise qualité : les pages avec peu de contenu, les pages avec du contenu dupliqué, les pages avec des fautes d’orthographe ou de grammaire, …

 

Pigeon

Déployé en juillet 2014 aux États-Unis et en juin 2015 à l’international, ce nouveau pensionnaire du zoo de Google est, tel le pigeon voyageur, focalisé sur la destination.
Comprenez par-là que Pigeon se concentre sur la recherche locale. Les requêtes des internautes obtiennent des réponses plus précises, plus locales.

 

 

 

Mobile Friendly-Compatibilité mobile

21 avril 2015, avec l’avènement et la popularisation de l’utilisation des smartphones Google se devait de réagir. C’est fait avec cet algorithme qui
privilégie les sites adaptés aux mobiles.

Contactez-nous

 

Mobile mon ami

Cet algorithme a été surnommé « mobilegeddon » par des experts SEO, car cet Armageddon de la compatibilité mobile a eu un impact plus important encore que Panda ou Penguin, c’est dire…
A sa décharge, signalons que la mise à jour Mobile-Friendly a été déployée page par page. Votre site pouvait ainsi garder une bonne position globale même si toutes ses pages n’étaient pas compatibles avec le mobile.

Novembre 2016, la priorité est claire, Google annonce le lancement de son Mobile first Index pour l’année 2017.

Mobile First Index, c’est quoi ?

Le comportement des internautes change au contact des smartphones et la consultation desktop des sites se raréfient.
Désormais le référencement se fait sur la version mobile d’un site web et non plus sur la version « ordinateur de bureau ».

Rankbrain

C’est une partie de l’algorithme Colibri (Hummingbird). Il est lancé au début de l’année 2015.
RankBrain est mystérieux. Il serait basé sur l’apprentissage automatique (deep learning) et l’intelligence artificielle.
Cette mise à jour est utilisée par Google pour mieux comprendre l’intention de recherche de l’internaute, et c’est là la révolution.
Cette compréhension de l’intention de recherche est définie par Google comme l’un des 3 facteurs de référencement majeurs, les 2 autres étant le contenu et les liens (backlinks).
RankBrain prépare Google à l’arrivée de la recherche vocale et conversationnelle.

Quality ou Phantom

Mai 2015, des changements agitent les SERPs, les experts SEO s’affolent, que se passe-t-il ?
Interpellés sur Twitter, les employés Google ne disent mot. Officiellement, rien ne se passe.
Les experts SEO convaincus du contraire appelleront cette mise à jour Phantom. Quelques semaines plus tard Google confirmera la mise à jour baptisée Quality par Google car elle portait sur la qualité des sites web, elle reste pour la planète SEO Phantom.
Depuis, la famille Phantom s’est agrandie car ce phénomène de changements inexpliqués s’est reproduit. Il y a donc Phantom 1, 2, 3 et sa suite…Nul ne connaît leur réelle importance et leur portée, le mystère reste entier.

Google double la longueur des descriptions

En novembre 2017, les méta-descriptions passent de 160 caractères à 320 caractères.
Essentielles pour inciter le visiteur à venir consulter votre page et surfer sur votre site, elles gagnent en clarté et en intérêt pour l’internaute.
Google démontre une nouvelle fois sa volonté de prendre en compte l’expérience utilisateur.

August 2018 Core update

Acte 1
Danny Sullivan annonce le lancement de « Medic Update » une Core Update (mise à jour du noyau en français).
Mise à jour majeure de l’algorithme de Google, Medic Update permet la mise en place d’un format général pour les futures mises à jour.
Comme souvent avec Google il n’y a pas plus d’explications que cela.
Vous pouvez retrouver ici l’article écrit par Danny Sullivan à destination des webmasters, concernant les Core Updates.

Juin 2019 Core update

Acte 2
Pour la première fois, c’est écrit de façon officielle sur Twitter en juin 2019, cette mise à jour renforce les exigences en matière de qualité de façon générale.
Sont plus précisément concernés les points suivants :

  • La vitesse de chargement
  • La fluidité de la navigation
  • La pertinence observée dans la couverture de la thématique concernée
  • Le passage en HTTPS, le niveau d’UX-UI full responsive design

Une différence se fait par rapport aux autres mises à jour, désormais des suggestions de vidéos YouTube se placent parfois devant les sites web classiques.

Site Diversity update

Mis en place peu de temps après la mise à jour de juin 2019.
Le but, comme non nom l’indique, est de renforcer la diversité des résultats. Il devient compliqué d’avoir plusieurs des pages d’un même nom de domaine positionnées sur la même page de résultats au même moment.
Google accentue ainsi la concurrence entre sites et permet aux utilisateurs d’avoir plus de choix dans les résultats de recherche.
Le ménage se fait parmi les sites satellites qui n’ont plus d’intérêt.

September 2019 Core Update

Annoncée le 24 septembre 2019 sur Twitter comme c’est la règle désormais, cette update revalorise et confirme les résultats des précédentes mises à jour.
Un site bien noté le reste, un site mal noté peut gagner quelques positions s’il s’est amélioré.

BERT

9 décembre 2019, arrive BERT (acronyme anglais de Bidirectional Encoder Representations from Transformers).
C’est sans nul doute un des changements les plus importants de ces 5 dernières années.
Avec cette mise à jour, Google veut répondre encore plus efficacement aux requêtes des internautes, que ce soit en recherche vocale ou en expression écrite.
Pour cela BERT doit permettre de comprendre le « sens » de la requête.
Cet algorithme prend en compte les mots-clés en les hiérarchisant, la façon dont ils sont agencés et le contexte dans lequel ils sont employés.
On peut considérer BERT comme le frémissement d’une volonté de la part de Google, de mettre de l’intelligence artificielle à terme dans son moteur de recherche.

December 2020 Core Update

Encore une mise à jour majeure, cette fois elle doit permettre aux robots d’être plus efficaces dans leur indexation de pages.
Bien que cette mise à jour majeure soit redoutée, tant que la qualité de contenu, la performance technique, l’arborescence fluide et l’expérience utilisateur sont respectées, les sites de qualité ne sont pas inquiétés .

Google Page Experience – Core Web Vitals

Annoncée en mai 2020 pour un déploiement fin 2020, la mise à jour a été décalée à mai 2021 pour finalement être mise en place en juin 2021, la faute à la pandémie ? Nul ne sait.
Ce qui est certain, c’est le nombre de modifications qui arrivent au niveau du SEO, mettant le focus sur l’expérience utilisateur une fois de plus.

Les signaux web essentiels (Core Web Vitals)

La liste des signaux pris en compte se scinde en deux catégories :
Les 3 critères importants :

  1. Analyse du temps d’affichage (LCP-Largest Content Pain).
  2. Laps de temps entre le clic pour affichage de la page de l’utilisateur et le temps de réponse du moteur (FID-First Input Delay).
  3. Stabilité visuelle de la page pendant le temps de chargement (CLS-Cumulative Layout Shift).

Une bonne expérience utilisateur n’est possible que si l’on connaît sa cible. Le type d’intention correspondant aux pages à référencer :

  • Intention de navigation : la recherche se porte sur un site précis.
  • Intention informationnelle : la recherche se porte sur une information précise.
  • Intention commerciale : la recherche se porte sur un produit ou un service précis.
  • Intention transactionnelle : la recherche se porte sur une intention d’achat.

Conseils

Pour gagner des points avec la Google Page expérience, il faut penser à optimiser :

  • Le temps de chargement des pages
  • Le temps de réponse des serveurs
  • La performance des images en les convertissant au format WebP
  • Soigner le design adaptatif

MUM

Une injection d’intelligence artificielle en prévision.
MUM signifie Multitask Unified Model ou Modèle Unifié Multitâches.
Cet algorithme sonde encore plus profondément les intentions de recherche des utilisateurs.
MUM est 1000 fois plus puissant que BERT, c’est une véritable machine de guerre selon les propres mots des employés de Google.
MUM ne se contentera pas de comprendre le langage, il le génèrera également.
Formé à 75 langues différentes, il peut exécuter de nombreuses tâches simultanément.
Il a une compréhension fine du monde qui l’entoure.
Il est capable de comprendre l’information transmise par une image, un texte, et bientôt la vidéo et l’audio.

Voilà qui augure de nombreux évènements et de beaux challenges en perspective sur la planète SEO.