Le SEO : une histoire sans fin

En savoir plus

L’avènement du web trouve ses origines à la fin des années 80. Quelques années plus tard, le référencement naturel et les premières agences SEO commençaient à voir le jour. L’écosystème digital n’aurait pas été possible sans quelques dates clés au cours de la décennie 90 :

  • 13 novembre 1990, affichage de la première page internet. C’est une invention européenne de Tim Berners-Lee et Robert Cailliau, du CERN (Conseil Européen pour la Recherche Nucléaire).
  • Mars 1989, Tim Berners Lee rassemble ses idées dans un document, “World Wide Web : Proposal for a HyperText Project”, le Web est né.
  • Novembre 1993, la NCSA (National Center for Supercomputing Applications) rend le Web accessible au grand public avec le navigateur Mosaic.
  • Aujourd’hui, le WEB est indispensable, 1000 milliards de pages web coexistent.

Être visible, c’est gagner en popularité, en notoriété, générer plus de contacts, de ventes, et de développement de son entreprise.
La stratégie de positionnement établie par un expert en référencement naturel est de plus en plus pointue. Le métier de référenceur, consultant en référencement naturel, ou expert SEO (Search Engine Optimization), en français optimisation pour les moteurs de recherche, est vital pour optimiser votre site internet, en E-commerce ou site vitrine. Certains sont devenus de grandes figures du SEO.

Premiers pas

Au début, les moteurs de recherche comme on les connaît n’existaient pas. Indexer son site internet, en l’inscrivant manuellement à l’endroit dédié sur le WEB, suffisait. Il se retrouvait sur une liste, un annuaire. La difficulté était de le retrouver par la suite, à moins de connaître son URL.
C’est le règne des robots txt qui, parcourant les sites, rafraîchissent l’index pour le classement. Le nombre de sites croissant, il fallait trouver une méthode de recherche plus organique.

Contactez-nous

Naissance de la balise méta tag et de l’optimisation on-site

Un tag est un mot-clé. L’arrivée de l’utilisation de mots-clés permet d’informer les robots sur le contenu d’une page web.

Dérives, le début du Black-Hat

Les robots déchiffrent les tags par les chaînes de caractères qu’ils représentent. Plus le webmaster en met, mieux c’est pour la visibilité des sites internet. Cette pratique appelée Keywords stuffing ou “bourrage de mots-clés” est une pratique Black-Hat, peu recommandable, en opposition au White-Hat ou encore au Grey-Hat.

Naissance du Pagerank

  • 1996, Larry Page et Sergey Brin, deux étudiants, créent BackRub, renommé Google, il deviendra le moteur de recherche le plus utilisé.
  • 1998, Google se développe. Les 2 fondateurs publient un article qui annonce, entre autres, l’implémentation de l’algorithme PageRank, un critère de pertinence, qui attribue une note à chaque page en fonction du nombre et de l’importance d’un lien. C’est le début de l’optimisation off-site, appelée également SEO off-page.

2000-2010, la guerre

Le marché du Web se développe vite, les intérêts économiques vont croissants.

L’offensive des Black Hat

Comme le nombre de backlinks (liens entrants) comptent, les Black Hat créent des pages dont les liens pointent vers la page principale.
En Netlinking, le Webspam est né. Ses abus : ferme de liens (une page web ne contenant que des liens), piratage de sites en déposant des liens externes, liens cachés dans le code du template « gratuit », les pages de résultats de recherche se dégradent dans le SERP (Search Engine Result Page).

La riposte de Google

Google fait en sorte que le contenu des pages web soit lu et analysé par ses robots notamment grâce aux marqueurs HTML :

  • la balise méta,
  • la balise Title,
  • la balise de h1 à h6,
  • les ancres de liens.

Les filtres et algorithmes sont à l’œuvre.
Le moteur de recherche décide d’agir également sur :

  1. La détection du spam avec le footprint.
  2. L’algorithme Dominic, qui change la façon dont les liens sont comptés.
  3. L’algorithme Cassandra, qui identifie les propriétaires de domaine et détecte les textes cloakés (textes blancs sur fonds blancs, cloaking par identification du user-agent…)…

Google multiplie et complexifie ses algorithmes depuis les années 2000. Le nombre de critères SEO augmente, le temps de chargement, l’indexation massive, la recherche personnalisée, le maillage et les redirections, le besoin de visibilité d’un site, favorisent la professionnalisation des experts en optimisation du référencement.

2010, Caffeine

C’est le nom du programme de renouvellement du système d’indexation et d’exploration du Web de Google. Il répond à l’évolution de la Toile et des usages. Désormais Google indexe tout type de contenus, images, vidéos…
Cette refonte annonce l’arrivée de nouveaux algorithmes comme Panda ou Penguin.

Depuis 2010, un SEO différent

Google prend en compte les réseaux sociaux comme des signaux positifs dans les résultats de recherches. L’utilisateur se place au centre de l’attention.
Le contenu est roi “Content is King”, c’est le premier commandement du SEO. Il faut donc faire un contenu de qualité qui correspond aux règles de Google en répondant aux requêtes des internautes.
Les sites doivent être mobile friendly, puis mobile first. L’intelligence artificielle s’invite avec l’algorithme RankBrain. C’est l’avènement du DeepRank. BERT(acronyme de Bidirectional Encoder Representations from Transformers) en 2019 est la mise à jour Google la plus importante de ces 5 dernières années. Désormais le langage naturel et la recherche vocale sont mieux compris.

Le futur sera SXO

Nous assistons à la montée en puissance du mariage de l’UX (User Experience) et du SEO, le SXO (Search eXperience Optimization). HTTPS, mobile first, référencement local, référencement géolocalisé, recherche vocale, arborescence des sites, navigation On-Site fluide et frugale, tout ce qui est mis en place doit être orienté expérience utilisateur.