Le plus populaire des moteurs de recherche a créé la surprise récemment en faisant une révélation sur son algorithme que quiconque ignorait auparavant. Les référenceurs ont appris que cela fait plusieurs années que Google Panda n’est plus, cédant sa place à Coati. Mais au-delà du nom, qui fait référence à un petit mammifère américain, quelles sont les différences concrètes entre ces deux algorithmes ?
Présentation de l’algorithme
L’ancêtre de Coati, l’algorithme Google Panda, est apparu en 2011. Véritable bouleversement à l’époque, il avait pour but de lutter contre le contenu de faible qualité en pénalisant les pratiques douteuses.
La surcouche, dissociée originellement de l’algorithme principal, a su répondre intelligemment à différents enjeux :
- Juger de la pertinence d’un contenu
- S’assurer de l’unicité et l’originalité du contenu
- Repérer les textes de trop faible qualité
Google Panda avait ses propres crawls et agissait hors de l’algorithme principal. Ses analyses sont le fruit d’un travail à part. Cela est courant chez Google, qui a l’habitude d’appliquer de multiples filtres algorithmiques en fonction de ses besoins.
Qu’est-ce qu’un filtre algorithmique ?
Dans le cas de Google, un filtre algorithmique peut être vu comme un complément à l’algorithme principal et n’est pas un Core Update. Comme son nom l’indique, il a pour but de filtrer les résultats de recherche selon certains critères :
- La pertinence de la page avec une requête donnée
- La fraîcheur ou l’ancienneté d’une page web
- L’autorité d’un site en fonction des liens externes qu’il reçoit
- La localisation géographique et / ou la langue de la page
Ces filtres peuvent être à l’origine de pénalités algorithmiques, desquelles il ne sera pas aisé de sortir, à moins d’avoir les bons conseils pour vaincre sa pénalité Google. Si un site ne remplit pas suffisamment certains critères, ou pire semble vouloir manipuler Google, il peut faire l’objet d’une sanction qui le relègue au fin fond des résultats de recherche.
Progressivement, au fil des progrès techniques, Panda a rejoint l’algorithme principal de Google pour en faire partie intégrante. Mais ça, c’était avant : depuis quelques années, Coati s’est substitué au mammifère originaire d’Asie.
Qu’est-ce qui différencie Coati de Panda ?
Pour une fois nous sortirons du traditionnel “ça dépend” (réponse que donne tout bon référenceur au moins une fois par semaine) pour dire à la place “pas grand chose”. Il est très difficile de répondre à cette question car le nouvel algorithme a été mis en place bien avant son annonce et il ne semble jamais avoir bousculé les résultats comme l’a pu faire son prédécesseur.
Panda était une révolution. Certains fondamentaux de référenceurs peu scrupuleux ont été remis en question du jour au lendemain. Cela sonnait la fin de la récréation pour les fermes de contenu. Ces sites se positionnaient uniquement parce qu’ils avaient un nombre astronomique de contenus, tous de très faible qualité. Ils ne s’en sont jamais relevés.
En 2011 ce filtre demandait trop de ressources pour être intégré dans l’algorithme principal de Google. Ce n’est pas le cas de Coati, qui en fait désormais partie intégrante. Mais est-ce sa particularité par rapport aux dernières versions de Panda ? Rien n’est moins sûr, tant la transition s’est faite en douceur sur plusieurs années.
Peut-être que nous pouvons donc en conclure que Coati a émergé en même temps que l’apparition de nouveaux outils servant à automatiser la rédaction. Les intelligences artificielles ont grandement changé la donne, avec l’arrivée de versions de plus en plus abouties de GPT au cours des dernières années. C’est là le plus grand défi à venir pour Google.
Quels changements pour les référenceurs ?
Les stratégies de référencement pérennes sont confortées dans leur bien fondé. Depuis 12 ans il est devenu d’usage de dire que le contenu est roi, et que celui-ci doit être le plus qualitatif possible.
Cette bonne pratique reste d’actualité. D’une part parce que Google n’a aucune raison de changer de politique, d’autre part parce qu’il est essentiel de penser avant tout aux internautes. Ce sont eux que vous convertissez à la fin de l’entonnoir, et non les robots de crawl.
Les changements pour les référenceurs s’inscrivent donc dans un contexte plus large. Ils sont liés par exemple aux récentes mises à jour du Helpful Content. L’objectif affiché par Google dans sa communication est très clair. Il n’est pas opposé au contenu généré par une IA, mais ce ne doit pas être un moyen de produire de vastes quantités de textes à faible valeur ajoutée.
Par d’autres itérations de son algorithme, le moteur de recherche souhaite de plus en plus percevoir les contenus comme pourrait le lire un être humain. S’il en est encore très loin, sa “lecture” se limitant encore à des analyses statistiques, il prouve malgré tout que des notions comme la densité de mots-clés tendent à devenir obsolètes.
En quelques mots : une évolution, pas une révolution
Ces changements se feront au bénéfice de tous. Les internautes liront de plus en plus de textes intéressants, et les référenceurs pourront concentrer leurs efforts sur des optimisations plus fines.
Plus globalement, le temps des disruptions algorithmiques semble bien loin. En matière de classement des résultats de recherche, Google est depuis un certain temps dans de l’affinage reposant sur de solides fondamentaux.
La révolution ne viendra pas d’un nouveau nom d’algorithme comme Coati, mais plutôt de nouvelles manières d’aborder la recherche sur internet. Ce sont les agents conversationnels comme ChatGPT qui vont renverser la table. L’opportunité idéale pour renouveler des acteurs un peu trop ancrés sur leurs acquis !