Skip to main content
Logo Botify

Botify, la recette magique de nos audits

Un logiciel leader pour l’optimisation du référencement naturel on-site

Botify est un éditeur français de logiciels SEO, spécialisé dans l’optimisation technique SEO des sites web. Botify propose 3 modules principaux de son logiciel. Botify Analytics (BA) qui est une solution très puissante de crawl SEO de site web. Botify Log Analyzer (BLA) qui est une solution leader du marché de l’analyse de logs en SEO. Botify RealKeywords (BK) qui permet de croiser l’ensemble des données remontées par votre SearchConsole (GSC) avec la structure technique du site.

logiciel leader
Les 3 blocs logiciels peuvent (et doivent généralement) fonctionner en même temps afin de réaliser une analyse complète et pertinente des aspects techniques de votre site. Botify est un logiciel très puissant mais relativement complexe qui permet d’optimiser fortement l’usage de votre crawl budget, du PageRank interne et l’optimisation fine de chacune des URLs du site.
La société a été fondée en 2012 par Stéphane Chauvin, Thomas Grange et Adrien Ménard, son siège est basé à Paris. La société dispose de bureaux en Europe et aux États-Unis.

Qu’est-ce qu’un crawler SEO et à quoi sert-il ?

Un crawler (également appelé « spider » ou « bot ») est un programme qui recherche et analyse des pages web. Google utilise également différents robots pour analyser les pages et les indexer.

L’objectif des crawlers tel que Botify ou ScreamingFrog est d’utiliser diverses méthodes pour pouvoir contrôler que les pages d’un site soient pertinentes pour l’indexation et le ranking. Par ailleurs on visera à aider le travail des Googlebots afin que les URLs indexables du site soient crawlées le plus fréquemment possible. On cherchera également à repérer l’ensemble des erreurs de code (comme par exemple les erreurs 404 et les redirections 301 ou 302), les problématiques liées au liens interne du site (tels que les pages orphelines)et à la répartition du PageRank, les temps de chargement, le balisage du site, l’implémentation des données structurées, etc. Le crawl permettra ainsi de nettoyer la structure du site, afin de réduire au maximum le nombre d’URLs non indexables.

Les particularités du crawler de Botify sont les suivantes :

  • Puissance de crawl : cette solution a pour particularité de pouvoir crawler des dizaines de millions de pages en une seule fois et également d’être capable de crawler des pages en JavaScript. L’ensemble des données de crawl peuvent être segmentées en 3 niveau ce qui permet d’avoir à la fois une vision macro et micro des points d’optimisations SEO du site et de pouvoir ainsi faire des audits de référencement naturel très fins.
  • Volume de data SEO récoltées : Botify analyse en moyenne entre 200 et 300 paramètres techniques par page crawlée. Par ailleurs, la plateforme ayant la possibilité de se connecter à Google Analytics et GA 360, elle permet de croiser l’ensemble des données techniques SEO onsite du site avec les données de trafic réelle. Aussi, les analyses qui peuvent être retirées de cette plateforme sont validées par la data réelle du comportement des utilisateurs et des moteurs de recherches. Elles permettent ainsi de tirer des conclusions certaines et non des conclusions théoriques qui sont dans une majorité de cas trop éloignée de la réalité du site analysé.
  • Analyse pertinente de la qualité de contenu pour le référencement naturel. Le crawler Botify analyse non seulement les éléments techniques du site mais également des éléments structurants relatifs à la qualité SEO des contenus : taille de contenus et taux de duplication de contenu par page.

Ainsi, on peut définir de façon certaine que sur un segment donné d’un site, la taille de contenu optimale pour apporter de la performance SEO est de 762 mots en moyenne quand dans une autre section du site il faudra viser 270 mots. Cette solution permet donc de définir des briefs éditos précis mais surtout rentables pour le trafic naturel. En effet, en analysant précisément cette data SEO, on ne produira pas de contenus de 800 mots par fiche produits parce qu’on imagine que Google attend un contenu de cette taille si l’on peut se contenter de 500 mots pour atteindre les premières positions sur la SERP.

Qu’est-ce que l’analyse de logs en SEO et pourquoi s’en servir ?

Lorsqu’un visiteur, qu’il soit un humain ou un robot visite une page d’un site web, il laisse une trace de son passage sur le serveur du site web. Cette trace est nommée « log » en langage informatique. En SEO, on analyse les logs laissés par des visiteurs humains et par les robot de Google, souvent nommés GoogleBot. (A savoir : il existe de nombreux types de GoogleBot).

dessin analyse de logs

A quoi sert l’analyse de logs ?

En SEO, l’analyse de logs est un sujet stratégique pour tous les sites soucieux d’optimiser l’usage du budget de crawl afin de faire croître son trafic organique. En effet, puisque Google n’a, généralement pas le temps de crawler l’intégralité d’un site web – c’est particulièrement vrai si votre site dépasse les 10 000 pages et/ou que son autorité est faible – il est stratégique de ne montrer que ce qui est nécessaire à Google. L’analyse de logs permet de savoir précisément ce que Google connaît de votre site. Cela permet de savoir si les contenus et produits que vous lui présentez sont connus de Google et auront donc le potentiel de se positionner dans ses résultats. Puisque Google ne vous révèle que très partiellement cette information au travers de la Search Console, on utilisera l’analyse de Logs pour avoir des datas précises à ce sujet.

Quand les différents robots de Google (GoogleBot) parcourent votre site pour venir indexer des pages, ceux-ci laissent des traces précises dans les logs de votre serveur. C’est cette donnée que l’on va analyser et décortiquer pour comprendre jour après jour les pages que Google voit sur votre site, celles qu’il ignore, celles qui génère du trafic, celles qui devraient en générer et qui n’en génèrent pas, celles qui ne devraient pas en générer mais qui en génèrent quand même…

Ainsi, l’analyse des fichiers de logs permettra au final de retravailler la structure d’un site, son maillage interne, la diffusion de son page rank, et un certain nombre de critères techniques pour faire en sorte de ne « montrer » à Google que les pages stratégiques de votre site et ainsi d’optimiser cette précieuse ressource qu’est le crawl budget.

Quand faire une analyse de logs SEO ?

La réponse à cette question dépend d’une part de la taille du site à optimiser pour le référencement naturel.

Nous recommanderons toujours de réaliser une analyse de logs lors d’une étape de migration ou de refonte de site car elle permet de préparer la refonte du site et de designer une version de pré-production qui conservera au maximum les acquis SEO du site. Après la mise en production, elle permet également de vérifier l’indexation du site en temps réel et ainsi de pouvoir réagir extrêmement rapidement en cas de problématiques d’exploration des crawlers de Google.

Par ailleurs, l’analyse de logs devient un outil nécessaire dès lors que votre site atteint une taille de 50 000 à 100 000 urls pour contrôler l’usage de votre crawl budget.

Enfin, nous considérons que c’est un outil indispensable dès lors que la taille du site dépasse les 500 000 pages. Dans ce cas, l’analyse de logs devient un outil mandatory qu’on contrôlera au minimum de façon hebdomadaire et dans l’idéal au quotidien pour s’assurer qu’il n’y ait pas de fuites de crawl budget.

En quoi la solution d’analyse de logs de Botify se distingue du marché ?

logo botify

Chez Foxglove, nous identifions deux raisons principales qui nous font préférer cette solution même si elle reste la plus onéreuse du marché.

Analyse très fine de la data

Botify nous permets de collecter en quasi-temps réel l’ensemble des données de logs d’un site web, y compris pour les sites les plus gros tel qu’Amazon ou eBay par exemple. Ces données sont extrêmement volumineuses aussi, pour en tirer des insights intéressants, il est nécessaire de segmenter de façon très fine cette data et de les suivre en permanence pour s’assurer que Google voit précisément toutes les pages stratégiques d’un site et ne perde aucun temps à crawler des pages sans potentiels. C’est ici que la segmentation fournie par cet outil est extrêmement précieuse puisqu’on va pouvoir réaliser une segmentation en trois niveaux permettant par exemple d’identifier que Google perd son temps à analyser des pages de produits expirés et qu’il ignore une grande partie du catalogue actuel du site.
De façon très fine également, elle permet d’identifier l’ensemble des causes des problématiques de dilution de pagerank, de gâchis de crawl budget, de conversion d’un crawl de bot en visiteurs SEO, etc.

Sécurisation de la donnée

Vos logs serveurs sont des données précieuses, ils permettent de réaliser des études et des audits SEO très poussés et fins, cependant, ils comportent également des données confidentielles qui ne doivent jamais être divulguées.
Comme la plateforme est elle-même conforme à l’ensemble des règles RGPD, l’ensemble des données sont 100% anonymisées avant même d’être traitées par la plateforme, il n’existe absolument aucune raison de divulguer la moindre donnée confidentielle en utilisant ce logiciel. C’est aussi une bonne raison pour nous d’utiliser cette plateforme.

Optimiser les pépites SEO on-site : Botify RealKeywords ?

Botify RealKeywords, est à ce jour, une solution absolument unique sur le marché qui permet de recroiser 100% des données fournies par l’API de la Google search console avec l’ensembles des données techniques du site. C’est une véritable solution d’optimisation des pépites SEO on-site.

Pourquoi nous l’utilisons chez Foxglove ?

mascotte foxglove

Nous utilisons ces données lors de nos audits SEO, en recroisant ces données ensemble, nous parvenons à identifier des pépites SEO sur n’importe quel site. Plutôt qu’une longue explication théorique, prenons un exemple vécu, votre site vend des voitures d’occasions :

  • Nous repérons que l’url : monsite-peugeot-206hdi-occasion.com est positionnée en 4 position sur Google selon vos données search console.
  • Nous constatons que cette url a été imprimée 7500 fois par Google selon les données search-console sur la requête « Peugeot 206 occasion France » mais qu’elle n’a généré que 25 clics en 30 jours ! Il y’a donc un manque à gagner de plusieurs milliers de clics et donc potentiellement de dizaines de ventes !!!
  • En croisant ces données avec vos données techniques, nous constatons que la balise description du site ne comporte ni le mot « 206 » ni le mot « France ». Aussi l’url n’incite jamais au clic de l’utilisateur.

Résultats

Nous mettons en place ces corrections en reformulant les balises du sites en quelques clics et quelques jours plus tard, nous constatons que l’url en question a augmenté par 20 sont CTR et que le trafic sur l’URL est passé de 25 clics à 1000 clics environ !!

Découvrez des articles similaires

Derniers articles

Newsletter