Skip to main content
Black hat SEO

Cet homme porte un chapeau noir parce qu’il est très très méchant

Dans le milieu du hacking, il existe grossièrement deux camps : les white hats et les black hats. Les premiers sont les “gentils”, qui cherchent des bugs à corriger, tandis que les seconds sont les “méchants”, qui exploitent les failles du système à des fins malveillantes. Mais quel est le rapport avec le SEO me direz-vous ? Si le sens est différent, ces deux termes sont aussi utilisés dans cette spécialité !

Ainsi nous avons les white hats, ces webmasters qui optimisent la visibilité d’un site web en respectant scrupuleusement les guidelines de Google, tandis que les black hats tentent sciemment de manipuler l’algorithme en faisant des choses interdites. Et entre les deux, tout un dégradé de gris existe : le grey hat.

Qu’est-ce que le black hat en SEO ?

Avant toute chose, une définition s’impose. Un référenceur black hat utilise tout un ensemble de techniques et pratiques visant à obtenir artificiellement un classement élevé sur des mots-clés, souvent très concurrentiels. Comme ces actions sont rigoureusement interdites par Google, celui-ci s’expose à des sanctions s’il se fait prendre la main dans le pot de confiture.

Pourquoi ne pas suivre les règles si elles risquent de conduire le positionnement d’un site à sa perte ? La motivation d’un black hat, ce sont les résultats. Si les manipulations sont faites intelligemment, il est possible d’arriver très rapidement tout en haut des résultats de recherche… Et de chuter tout aussi vite.

Quels sont les risques pour votre référencement ?

Nous l’avons déjà évoqué, il y a un vrai risque de pénalités Google. En réalité, la probabilité de se faire prendre est proche de 100% si l’on regarde les choses sur le long terme. Google met en permanence à jour ses algorithmes, en partie pour lutter contre ces manipulations. Ce qui fonctionne un jour ne le sera peut-être plus le lendemain.

Le risque, ce n’est pas juste de perdre le référencement acquis. C’est aussi celui de voir son site constamment relégué aux tréfonds des résultats du fait d’une pénalité algorithmique ou manuelle infligée par Google. Quand cela arrive, il peut être difficile d’en sortir, même en montrant patte blanche.

L’Histoire le montre. En matière de black hat, il y a un avant et un après 2011. Auparavant c’était un peu le far west. Il était possible de faire des choses très efficaces de manière assez grossière. Puis sont arrivés les filtres Pingouin et Panda, qui ont eu en leur temps pour objectif de purger des résultats de recherches tous les sites dits “spammy”, c’est-à-dire de mauvaises qualités et injustement bien positionnés. Les conséquences ont été très concrètes. Certains éditeurs de site se sont retrouvés du jour au lendemain sans aucun revenu…

Quelques exemples de techniques black hat

Chez Foxglove, nous ne vous proposerons jamais des prestations SEO ou une formation black hat. Nous pensons que le SEO est un travail de long terme. Rester dans les clous permet réellement d’enregistrer de bons résultats. Les progressions sont plus lentes, mais plus stables aussi. Toutefois nous allons vous donner quelques exemples de techniques black hat, dans un but strictement informationnel. Ce n’est pas une formation : nous vous déconseillons fortement de les appliquer.

Cloaking

Le cloaking consiste à proposer un contenu différent aux robots des moteurs de recherche et aux internautes. Cela est possible car les adresses IP et les User Agents des robots de crawl sont connus. Le serveur peut donc décider d’envoyer la page HTML qu’il veut en fonction de ces informations.

Cette pratique trompeuse permet de proposer à Google des textes suroptimisés et peu agréables à la lecture, tout en laissant l’internaute devant une page sobre et faible en contenus.

Le cloaking rentre parfois dans une zone grise. Certaines pratiques ne sont pas pénalisées, parce qu’elles vont moins loin dans la manipulation. Par exemple, l’obfuscation de liens est tolérée par Google. Cette technique consiste à rendre un lien accessible à l’internaute mais pas aux crawlers, grâce à un code JavaScript. Elle est utilisée pour éviter de trop diluer le PageRank interne dans des liens externes ou des URLs internes non pertinentes.

Chez Foxglove, nous mettons souvent en place une stratégie d’obfuscation pour nos clients. Si les choses sont bien faites, cela permet à Google de mieux comprendre le site. A ce titre, nos audits sont aussi l’opportunité de faire une formation auprès de nos clients.

Keyword stuffing

En bon français “bourrage de mots-clés”, cette technique obsolète consiste en la répétition abusive de mots-clés dans le texte et les sous-titres d’une page. Celle-ci peut tout à fait être appliquée en parallèle du cloaking. Soyons honnêtes : cette pratique est totalement dépassée. Il n’y a rien de plus facile pour un algorithme que de repérer ces abus.

Dans les années 2000, l’objectif était de créer une densité de mots-clés artificiellement élevée pour faire passer la page comme hautement pertinente. C’était une faiblesse structurelle des moteurs de recherche, à une époque où l’intelligence artificielle n’en était qu’à ses balbutiements.

De nos jours, Google essaie au contraire d’analyser la qualité plutôt que la quantité d’un texte. Le contenu est-il pertinent, bien rédigé et contextualisé par rapport à la recherche de l’internaute ? Certes, rédiger en ce sens est plus complexe qu’un simple keyword stuffing… Mais il est aussi plus intéressant d’avoir une approche holistique, basée sur l’expérience utilisateur et de multiples autres signaux.

Link farming

Vous l’aurez compris, le back hat et les anglicismes, c’est une grande histoire d’amour ! Traduisible en “ferme de liens”, le link farming consiste à augmenter artificiellement la popularité d’un site internet en créant un nombre disproportionné de liens entrants de très faibles qualités.

Les backlinks sont un critère important pour Google. En fait, c’est le netlinking qui lui a permis de se distinguer de la concurrence quand il est arrivé en 1998. Pour juger de la réputation d’un site sur la Toile, Google calcule le PageRank : plus une page web est liée par d’autres pages pertinentes et de qualité, plus elle est considérée comme importante.

L’objet du link farming est donc précisément de faire passer tout un faisceau de liens comme pertinents et de qualité, alors même qu’ils ne constituent que des coquilles vides, sans trafic ni utilisateurs. C’est encore une technique considérée comme obsolète. Arrivé en 2012, le filtre Pingouin a mis fin à la fête. Subsistent encore aujourd’hui des réseaux de liens, mais leur conception est beaucoup plus subtile pour passer entre les mailles du filet.

Doorway pages

Tiens un terme anglais, ça change ! Vous connaissez peut-être cette notion sous l’expression “pages satellites”. Créées en grande quantité directement sur le site, les doorway pages ont pour objectif de servir d’entonnoir vers une page monétisable comme une fiche-produit.

Si cette technique ne semble pas particulièrement immorale, elle reste rigoureusement interdite par les guidelines de Google. Pour le moteur de recherche, chaque page doit avoir un but autre que son référencement naturel. Belle utopie, n’est-ce pas ?

Le problème des pages satellites, c’est que vous pouvez en créer sans avoir nécessairement de mauvaises intentions au départ. Par exemple, il pourrait être tentant de créer des pages optimisées selon certaines zones géographiques, y compris celles où vous n’avez pas d’établissement physique. Cela peut sembler sans danger et invisible pour Google. Ce n’est pas le cas.

Conclusion : privilégiez plutôt le long terme !

Nous venons de le voir, l’Histoire du SEO est marquée par de nombreuses tactiques de manipulation. Il y a même un nom pour cela : le spamdexing. Nous avons aussi vu que la plupart des stratégies développées sont obsolètes. La plupart du temps, elles demandent au mieux beaucoup plus de travail qu’avant, avec un risque plus grand. Ce n’est pas nécessairement une mauvaise nouvelle pour le secteur du marketing en ligne…

Il n’existe pas de nouvelles grandes méthodes ultra-efficaces. Peut-être qu’il y a quelque part sur la planète des petits malins qui ont trouvé une faille béante, mais il est dans leur intérêt de garder cela pour eux. Pour caricaturer, plus une technique black hat est médiatisée, plus grand est le risque de la voir stopper par une mise à jour de Google. Dans les faits, les choses sont un peu plus subtiles, puisque la notion d’écosystème entre en jeu. Ce que Google cherche, ce sont les anomalies statistiques. Si tous les résultats en première page ont de nombreux liens peu qualitatifs, cela signifie que c’est la condition pour se positionner et que donc c’est toléré. Analyser la data de votre secteur est donc indispensable.

Il n’y a donc qu’un seul choix qui s’impose à vous : le travail et le temps. Il ne suffit pas de faire les choses dans les règles, il convient d’être intelligent et de trouver le petit truc que les concurrents n’ont pas et qui fera toute la différence. C’est nettement plus valorisant, vous montez en niveau, et en plus vous vous protégez contre un éventuel Negative SEO.

Découvrez des articles similaires

Derniers articles

Infos et actualités SEO
ChatGPT et Google

ChatGPT va-t-il remplacer Google ?

Lorsque ChatGPT a fait son apparition le 30 novembre 2022, le monde fut stupéfait par cette chose totalement...

Newsletter