Qu’est-ce que le cloaking en SEO ? WhiteHat ? BlackHat ? | Tactee

Publié le 28 juin 2018
Partager

Qu’est-ce qui se cache derrière le cloaking ?

Le cloaking est une technique utilisée par les référenceurs SEO qui souhaite obtenir des performances rapidement. Généralement cette méthode est peu développée en agence SEO car elle peut être assez dangereuse d’un point de vue pénalité Google. En effet, celle-ci consiste à adapter le comportement d’un site en fonction du visiteur qui vient chercher l’information sur le serveur.
Si le visiteur est un être humain, le contenu du site sur lequel il va atterrir ne sera pas le même que si la demande provient d’un robot d’exploration (Googlebot, Bingbot pour ne citer qu’eux). En utilisant cette technique, un site peut afficher une page différente pour les moteurs de recherche et une autre pour les utilisateurs humains.

Cette méthode avancée est parfois utilisée en référencement SEO car elle permet d’améliorer votre PageRank (système de classement mis en place par Google et qui évalue la popularité de votre site). Elle vise à camoufler aux moteurs la vraie page qui s’affichera sur l’écran d’un utilisateur en leur présentant une page différente, spécialement optimisée pour les robots.
A court terme, le cloaking peut se montrer utile pour mieux se positionner mais les dérives sont nombreuses et Google veille au grain, notamment grâce à ses algorithmes sophistiqués.

Ne vous est-il jamais arrivé de tomber sur un site pornographique alors que vous souhaitiez simplement choisir la destination de vos prochaines vacances ? Expérience peu agréable s’il en est, c’est pourquoi Google interdit formellement le cloaking et n’hésite pas à sanctionner les sites qui y recourent.

Les différentes techniques de cloaking

Lorsqu’un utilisateur se connecte à un site, son navigateur envoie une requête http au serveur du site. Cette requête va afficher divers éléments parmi lesquels le user-agent, l’hôte ou encore l’adresse IP.
Quand le serveur reçoit la requête http, il va charger ou générer la page demandée par l’internaute. Cette page, qui est en langage serveur (php, asp…), est ensuite adressée au navigateur qui va la traduire pour la rendre lisible par l’utilisateur.
Concrètement, cela veut dire qu’un site peut vous faire parvenir la page qu’il veut en fonction des différents éléments d’identification transmis lors d’une requête sur internet.
Il existe plusieurs méthodes de cloaking basées sur différents supports. Les référenceurs utilisent principalement la méthode du « user-agent ». Ils peuvent également utiliser d’autres méthodes plus ou moins détectables par Google, certaines plus fines nécessitant de connaître des techniques avancées de référencement.

Le cloaking basé sur le user-agent

Le user-agent est une en-tête http envoyée par le visiteur qui fait une requête sur une page. Lors d’une connexion, le navigateur utilisé (Firefox, Safari, Explorer, Chrome…) envoie au serveur un texte qui va identifier ce dernier. Au-delà des navigateurs, il peut également être identifié par des spiders, bots, robots et crawlers utilisés par les moteurs de recherche.
La méthode de cloaking consiste alors à agir sur le contenu de la page dès lors que cet en-tête est détecté comme étant un un robot d’exploration. Cette méthode est souvent employée par les experts en SEO black hat pour optimiser leur indexation par les moteurs de recherche.

Le cloaking « IP Delivery » basé sur l’adresse IP

Cette méthode de cloaking s’appuie sur la détection de l’adresse IP (Internet Protocol), c’est-à-dire une suite de chiffres qui regroupe un ensemble d’appareils connectés à internet. Par exemple, les membres d’une famille qui possède une box internet seront tous reliés à la même adresse IP.
Une adresse IP permet notamment de savoir dans quel pays se trouve l’internaute. Un cloaking basé sur l’adresse IP va donc adapter le contenu à la langue identifiée.
Mais une adresse IP peut aussi détecter un robot d’indexation. Un cloaker aura alors pour mission de créer une page super-optimisée pour leurrer le robot en lui faisant croire que sa page propose un contenu très riche alors que la page réellement vue par l’internaute sera très différente.

Déjouez les pièges du cloaking en SEO !
Conseils d'experts pour un référencement éthique et performant.
Prenez rendez-vous

Le cloaking via Javascript, Flash ou Dhtml

Les cloakers ont également compris que les moteurs de recherche avaient plus de mal à cerner les langages Javascript, Flash ou Dhtml. La méthode de cloaking qui utilise ces codes est donc plus difficile à débusquer. Le cloaker va remplir des pages de mots-clés qui viseront à être bien classées par les moteurs. Mais ces pages codées seront en réalité redirigées vers d’autres pages plus classiques qui remonteront jusqu’à l’internaute par l’intermédiaire de son navigateur.

Le cloaking du texte ou du bloc invisible

C’est la plus ancienne méthode de cloaking, désormais facilement identifiable par les moteurs et les utilisateurs. Elle consiste à mettre du texte invisible pour l’internaute (par exemple un texte noir sur fond noir) mais qui sera pris en compte par les moteurs de recherche. C’est souvent une liste de mots-clés qui permet d’obtenir un meilleur classement dans les résultats de recherche. Le cloaker peut également positionner un bloc invisible sur un autre bloc visible par l’internaute et y inscrire les mots-clés qui seront valorisés par les moteurs de recherche. Cependant, cette technique est devenue obsolète face à l’évolution des algorithmes de Google et d’autres moteurs.

Le cloaking via le HTTP_Referer et l’HTTP Accept-language

En utilisant l’en-tête HTTP_REFERER, il est possible de présenter une page différente en fonction du site de provenance du visiteur. De même, le HTTP Accept-Language permet de détecter la langue du visiteur et d’adapter la page présentée en conséquence.

Le cloaking basé sur l’hôte

Encore plus efficace (et donc plus redoutable) que le cloaking basé sur l’adresse IP, le cloaking basé sur l’hôte va cibler directement le serveur sur lequel l’utilisateur se connecte pour aller sur internet. Grâce à cette technique, il est possible de détecter les différents serveurs de Google et d’autres moteurs de recherche. Cela permet de mieux camoufler le contenu affiché pour les crawlers versus celui affiché aux utilisateurs.

Le cloaking dans le référencement SEO : white ou black hat ?

Le référencement SEO peut se présenter sous deux casquettes différentes : le white hat (la version sage et disciplinée) et le black hat (la version obscure et transgressive). Le cloaking est clairement l’apanage des SEO black hat. A vous de voir quel chapeau vous souhaitez porter…

  • Le SEO white hat est une forme de référencement qui répond aux exigences des moteurs de recherche, principalement Google. Il s’agit de fournir un contenu de qualité que les référenceurs optimiseront au mieux pour améliorer le classement de leur site dans les résultats de recherche. Cette stratégie de contenu vise une qualité de référencement à long terme et en toute transparence. Il va de soi que c’est ce type de référencement qui sera privilégié pour garantir la réputation d’un site durablement. L’usage de balises appropriées et la mise en œuvre de bonnes pratiques d’optimisation sont essentielles dans cette démarche.
  • Le SEO black hat, quant à lui, vise le court terme et va chercher à détourner les algorithmes des moteurs pour obtenir rapidement de meilleurs classements. Il va donc employer des méthodes proscrites par les moteurs en indexant des pages différentes de celles qui seront vues par les internautes. Ils vont par exemple utiliser des scripts php qui vont afficher des contenus différents selon le type de destinataire. Ce type de référencement peut sembler très tentant car les résultats sont rapides mais c’est à vos risques et périls. Si vous êtes pris la main dans le sac par Google, votre réputation risque d’en prendre un sérieux coup, et les pénalités peuvent aller jusqu’au déréférencement complet de vos sites internet.

Le cloaking est-il une pratique recommandable ?

Pour Google, il n’y a pas de demi-mesure, le cloaking est totalement interdit. La sanction peut aller d’une rétrogradation dans le classement à un blocage du site. De grandes entreprises en ont fait les frais comme BMW en 2006. Résultat : leurs sites « cloakés » ont été tout simplement supprimés par Google. Pour tenter de débusquer les tricheurs, Google a mis en place des robots masqués qui parcourent internet en se faisant passer pour des humains. Les résultats de ces robots sont croisés avec ceux des robots traditionnels et ainsi, les pages cloakées peuvent être démasquées. Par ailleurs, Google incite tous les utilisateurs et référenceurs qui se sentent floués par ces méthodes à dénoncer les sites qui utilisent le cloaking pour garantir un web plus équitable et transparent.

Une autre méthode employée pour détecter les pratiques de cloaking est l’utilisation de l’outil de dénonciation mis à disposition par Google pour les webmasters. Cela permet à ceux qui se sentent lésés par les pratiques de leurs concurrents de les signaler. Google procède alors à des vérifications et peut infliger des pénalités aux sites en faute.

Le cloaking peut parfois être utilisé pour des raisons plus « honnêtes », telles que la protection des mots-clés d’une page afin d’empêcher les concurrents de les copier. Bien que cela puisse avoir une justification légitime, tout cloaking visant à tromper les crawlers des moteurs de recherche est toujours risqué.

Déjouez les pièges du cloaking en SEO !
Conseils d'experts pour un référencement éthique et performant.
Prenez rendez-vous
Elaine Goldfarb
Directrice de production à l'agence Tactee. Mon expertise s'étend sur la supervision de refontes de sites internet, l'UX, le design et le développement. J'ai eu l’occasion de piloter la transformation digitale pour plus de 150 clients, en me concentrant sur l'innovation et la qualité. Mon rôle ? Être le moteur derrière chaque projet, en veillant à ce que nous livrions des solutions digitales qui surpassent les attentes.
Autres articles qui pourraient vous intéresser