Skip to main content
Google Leak

Devant cette quantité de preuves, Foxglove a mis ses meilleurs agents sur le coup

Nous avons tous assisté, il y a à peu près un mois, au dernier leak massif de l’algorithme de Google. C’est loin d’être la première fois, mais il n’empêche, celui-ci est majeur. Pensez-y : 14 014 facteurs différents, listés dans 2 569 documents, tous rendus publics. Alors tout n’est pas parfait, loin de là. Déjà la source est vieille, les données les plus récentes remontant à 2019. Ensuite il n’y a pas de pondération. Il n’est donc pas possible de savoir quel facteur compte plus qu’un autre.

Toutefois, nous allons voir qu’avec un peu de bon sens et de pragmatisme nous pouvons en tirer des enseignements réellement concrets. Et surtout, c’est la formidable opportunité d’avoir une connaissance de l’intérieur de l’algorithme Google depuis des documents officiels et confidentiels. Des informations à rebours de la communication officielle de Google. On se doutait bien qu’ils nous prenaient pour des idiots depuis des années, mais à ce niveau…

NavBoost, le système qui crée la polémique

L’algorithme le plus mis à nu dans ces leaks est incontestablement NavBoost. Ce qui a le plus choqué, c’est la contradiction absolue entre ce que nous affirment ses dirigeants depuis des années et la réalité : oui les clics comptent, et pas qu’un peu. Pire encore, l’analyse du comportement utilisateur pose de vraies questions sur le respect de la vie privée. Nous y revenons un peu plus loin.

Alors qu’est-ce que NavBoost ? Comme son nom l’évoque, c’est un algorithme qui analyse la navigation de l’utilisateur sur les SERP pour booster certains résultats. Ses signaux sont divers : clics, temps passé sur la page, taux de rebond et engagement (comme des clics sur les liens internes, le remplissage d’un formulaire, etc). En fonction de ces données, Google détermine et ajuste la pertinence des résultats de recherche.

Ok, donc c’est un algorithme d’analyse comportemental. Commençons par les clics. Son approche va bien entendu beaucoup plus loin qu’un simple constat de CTR. Plus qu’une quantité, celui-ci détermine si les clics sont longs ou courts. Est-ce que l’internaute reste longtemps sur la page ou est-ce qu’il revient très vite en arrière ? Ce dernier point est théorisé depuis longtemps par les SEO. D’ailleurs, nous avons récemment publié un article sur le pogo sticking, en référence à ce comportement qui consiste à enchaîner les clics courts, sautant de page en page sur les SERP.

Nous retrouvons une notion plus originale par rapport à nos constats empiriques : la différence entre clics écrasés et non écrasés. Si cela reste un peu flou, Google entend par clics écrasés ceux qui manquent de fiabilité ou de pertinence, tandis qu’au contraire les clics non écrasés sont vus comme étant de haute qualité. Cela se reflète notamment par l’activité que nous avons directement sur la page web.

Comment est-il possible pour Google d’aller aussi loin dans ses observations ? Pourquoi ses algorithmes ne semblent pas avoir de frontières et voient nos comportements beaucoup plus loin que les seuls SERP ? C’est là que se trouve la plus grosse polémique. Elle pourrait coûter très cher au géant de Mountain View, en pleine procédure anti-trust. Google utilise les données de Chrome, son navigateur maison. Oui, vous avez bien compris : si vous utilisez Chrome, tout votre comportement sur les pages web est scruté par la multinationale. Cela a d’ailleurs été sa principale motivation lors de sa création. C’est effarant et dystopique.

Google Leak

Les autres facteurs SEO qui émergent de ce leak

S’il occupe une place centrale, il n’y a pas que NavBoost qui est décrypté. Là encore, on retrouve des facteurs qui ont été explicitement contredits par les portes-paroles de Google. Alors qu’ils prétendaient ne pas tenir compte de l’autorité d’un site, nous retrouvons une métrique appelée “siteAuthority”. Ô surprise, elle évalue la crédibilité d’un site et sa réputation globale, ce qui a un impact direct sur son classement ! John Mueller nous aurait donc floué ? J’en tombe de ma chaise.

Moins surprenant car s’inscrivant dans une logique EEAT, la métrique “isAuthor” démontre que l’autorité et l’expertise des auteurs de contenu sont scrutés de près. La notion d’entité existe bien dans ses facteurs algorithmiques.  Google s’assure que l’auteur d’un article de blog existe bien, notamment en s’assurant qu’il a bien une page LinkedIn, éventuellement un blog personnel… Il est donc bon de vous faire ce rappel : créez des pages auteurs et rayonnez sur la Toile en prouvant via divers liens externes que vous êtes bien un authentique expert.

Nous constatons également une mécanique de rétrogradation des pages sous certaines conditions. Ainsi l’algorithme peut reléguer votre site au fin fond des SERP si vous avez ces mauvaises pratiques :

  • Incompatibilité d’ancrage : votre backlink est décorrélé de la thématique de la page liée, aussi bien depuis la page source que sur le texte d’ancrage
  • Exact Match Domain : les domaines qui correspondent exactement à un mot-clé perdent de la valeur dans les classements
  • Mauvais UX : il semblerait qu’une page cumulant les mauvaises pratique de navigation se retrouve rétrogradée
  • Géolocalisation : dans le cadre d’un référencement local, votre page “globales” (ou nationale) peut être mise en retrait au profit d’un équivalent géolocalisé
  • Pornographie : il est logique (et souhaitable) que cette catégorie de sites ne s’affiche pas sur n’importe quelle requête

Notons également la métrique “siteFocusScore” qui évalue dans quelle mesure un site se concentre sur un sujet spécifique. Il est important d’être explicite dans sa thématisation. Si vous vous diluez dans trop de sujets différents, vous aurez du mal à vous distinguer de concurrents plus spécialisés que vous. Peu surprenant.

Toujours dans le rayon des évidences, plusieurs facteurs montrent que Google accorde de l’importance à la fraîcheur et l’originalité des contenus proposés. Pour le premier point, l’algorithme se fonde sur les dates présentes dans diverses zones de la page : corps de texte, signature et même l’URL. Pour le second point, il existe une métrique “OriginalContentScore” qui tient compte du duplicate et du contenu de faible qualité en même temps.

Fait intéressant, en cette ère de la désinformation, Google prend très au sérieux certains sujets, au point de développer son algorithme spécifiquement pour certaines thématiques. Le Covid-19 en est un parfait exemple : les SERP sur cette catégorie de mots-clés sont calibrées pour éviter la mise en avant de toute page complotiste, ou simplement inexacte. Google utilise donc des listes blanches. Cela existe aussi pendant les contextes d’élection et pour tout autre sujet hautement sensible.

Enfin, last but not least dans les exemples les plus représentatifs : le netlinking. S’il y a bien un sujet sur lequel Google s’est ouvertement moqué de nous, c’est celui-là. Les backlinks restent centraux dans le référencement d’un site web. Leur diversité et leur pertinence reste indispensable dans toute stratégie SEO, tout du moins celles qui s’inscrivent dans un contexte concurrentiel conséquent. Comme nous n’avons pas de pondération, nous ne savons pas jusqu’où se trouve son niveau d’importance. Mais ce qui est sûr, c’est que vos backlinks servent toujours à quelque chose.

Google Leak

Des contradictions évidentes avec les déclarations publiques de Google

Google a reconnu officiellement la véracité de ces leaks. Nous ne sommes pas des lapins de trois semaines, nous savons que ses porte-paroles nous disent des choses fausses pour que l’algorithme reste une boîte noire à l’abri des Black Hat. Pour autant, il va être compliqué de faire confiance à leurs déclarations à l’avenir, tant la réalité est parfois à l’opposé total de leurs discours.

Alors qu’elle est leur réponse officielle ? Ils tentent de minimiser au maximum la portée de ces documents, expliquant qu’ils sont pour une bonne partie obsolètes ou manquant de contexte. Il est sûr que ce leak ne tient pas compte de la dernière Core Update de Mars 2024. Pour autant, tout cela semble quand même être une manière de sauver les meubles.

Ce qui est certain, c’est que dans leur réaction ils ont manqué d’honnêteté intellectuelle. S’ils avaient été transparents sur le fait qu’ils mentent pour protéger leur algorithme, les choses auraient été mieux perçues par l’ensemble de la communauté SEO.

Prenons malgré tout un peu de recul. Google est en plein procès antitrust en ce moment. Les informations révélées sur leur utilisation abusive de Chrome et leur intervention manuelle sur les résultats de recherche relatifs aux élections peut leur faire beaucoup de mal. Ils marchent donc sur des braises, au risque de se brûler.

Est-ce que cela change nos pratiques SEO ?

Il n’y a pas de révolution copernicienne à opérer, ce qui est une bonne nouvelle. En réalité, ceux-ci nous confortent sur un certain nombre de bonnes pratiques récentes, les communications de Google n’étant pas malhonnêtes 100% du temps.

Voici les bonnes pratiques à adopter au regard du leak :

  • Donnez la priorité à l’expérience utilisateur : concentrez-vous sur la création d’une expérience utilisateur positive grâce à un contenu attrayant, une navigation claire et des liens pertinents.
  • Mettez régulièrement à jour vos contenus : gardez le contenu de votre site Web à jour pour correspondre à l’accent mis par Google sur la fraîcheur du contenu.
  • Créez des backlinks faisant autorité : développez un profil de liens entrants solide à partir de sites réputés, afin de renforcer l’autorité de votre site.
  • Maintenez la concentration thématique : assurez-vous que le contenu de votre site Web s’en tient à un sujet clair et pertinent pour renforcer l’autorité thématique.
  • Surveillez les mesures de clics : faites attention aux interactions des utilisateurs et efforcez-vous d’améliorer les mesures telles que goodClicks et lastLongestClicks en améliorant la qualité et la pertinence du contenu.

Bien entendu, tout ceci doit être conjugué avec les autres bonnes pratiques fondamentales du SEO. Et si vous ne savez pas exactement comment vous y prendre, ou si vous avez besoin d’une forte expertise, n’oubliez pas que nos consultants seniors sont là pour vous !

Découvrez des articles similaires

Derniers articles

Newsletter