La technique correspond au premier pilier du SEO. C’est la base de la pyramide et donc, la base du SEO. Les Googlebots vont parcourir le site et indexer les pages. Le SEO technique sert à améliorer ces étapes. C’est une problématique majeure en SEO pour tous les sites qui dépassent plusieurs milliers de pages. Google parcourt et indexe bien les « petits sites », mais ce n’est pas nécessairement le cas pour les sites plus volumineux en terme de pages (ou URLs). Il y a donc une part plus ou moins importante de pages que Google ne connaît pas et ne peut faire ressortir dans les SERP (Search Engine Pages Results).
Indexabilité des pages
Dans un premier temps, vous devez vous assurer que les pages du site sont bien indexables. En effet, vous pénalisez l’usage de votre budget de crawl en présentant à Google des pages non indexables. Il sera donc intéressant d’optimiser la structure du site pour viser 100% de pages compliant. L’utilisation d’un crawler vous permettra d’identifier ces pages et les raisons de la non indexabilité. Cela vous permettra de mettre en place les actions correctives et d’améliorer votre taux de pages indexables.
De nombreux éléments entrent en compte comme les tag Noindex, les balises canoniques ou les erreurs de code http (301, 302, 404 …). Tous ces éléments polluent la découverte de vos pages et pénalisent l’exploration de vos contenus stratégiques.
Crawlabilité
Google a des ressources limitées pour découvrir votre site. Vous devrez donc optimiser les critères qui permettent d’améliorer l’utilisation de votre crawl budget. L’objectif est de permettre à Google de découvrir et d’indexer un maximum de pages stratégiques régulièrement. Le principal critère à suivre est le taux de crawl, indicateur disponible si vous suivez vos logs.
Pour l’optimiser, vous devrez mettre en place des actions d’amélioration de vitesse de chargement du code HTML. La vitesse recommandée est de 500 ms. Plus le code est long à charger et moins les bots vont parcourir d’URLs en un temps imparti. Nous ne parlons pas ici de la vitesse de chargement de la page pour l’internaute (speed index, temps d’interaction, etc.), mais de la vitesse de chargement de la page pour un bot, ce qui aura un impact direct sur le volume de pages crawlées.
Le sitemap est également une aide pour Google. Les sitemaps devront être mis à jour avec vos pages importantes et les nouvelles URL pour aider le moteur de recherche.
Les pages orphelines sont des pages qui ne sont pas linkées dans la structure du site. Google les a indexées et les connaît, mais elles ne sont plus maillées aux autres. Pourtant, les Googlebots vont revenir parcourir ces pages qu’ils connaissent. C’est potentiellement une perte de temps car, c’est un temps qui pourrait être mis à profit pour découvrir des pages plus stratégiques. Les pages orphelines qui génèrent du trafic représentent un potentiel quickwin. En effet, en faisant des liens vers la structure, vous améliorerez leur Pagerank et mécaniquement leur ranking et trafic.
Enfin, le maillage est un levier fondamental pour améliorer la découverte de vos pages par Google. Vous pourrez ainsi limiter la profondeur du site et améliorer l’exploration.
D’un point de vue SEO, il est très important de suivre et travailler ces éléments techniques. Ils représentent des nécessités pour les sites à forte volumétrie de pages. Les sites e-commerce, marketplace, site média doivent donc analyser ces KPI et suivre leur évolution avec des outils de crawl et logs comme Botify.
L’amélioration du taux de crawl de vos pages est un sujet fondamental du SEO technique. Nous pourrions résumer les enjeux du SEO technique de cette manière :
- Si Google ne peut pas voir toutes les URL d’un site, quelles sont celles qu’il doit impérativement voir ?
- Comment structurer votre site pour aider Google à indexer ces pages en priorité ?
Pour compléter ces éléments techniques, vous devez également suivre les optimisations mobiles du site et la vitesse de chargement de vos pages.