Identifier des actions prioritaires, des points de gaspillage de ressources ou des liens brisés, voici quelques exemples de ce que l’utilisation des data peut apporter au référencement.

Les référenceurs ont accès à beaucoup de données. Les croiser ne représente pas un gros effort, ni techniquement, ni financièrement et apporte des informations directement utilisables pour améliorer les performances SEO du site. Voici quelques exemples de croisement de données qui peuvent faciliter la priorisation des actions de référencement naturel.

Mesurer le potentiel de progression SEO

Le référencement étant une course de longue haleine, chaque action mobilise des ressources. Identifier les requêtes avec le plus fort potentiel de progression de trafic permet de prioriser les actions SEO à mettre en place. Pour cela, Sébastien Bulté, spécialiste data chez Resoneo, conseille aux référenceurs de crawler leur site avec un outil comme Screaming Frog, OnCrawl ou Botify, par exemple, pour récupérer les URL du site, puis de les croiser avec les données de la Google Search Console : clics, CTR (taux de clics), positionnement par URL et volume d’impression (corrélé au volume de recherche). Ensuite, il faut trier ces informations pour trouver les pages associées à des requêtes avec un gros volume d’impression mais un CTR et un positionnement médiocres. Ce sont les pages à optimiser en priorité.

Les règles de positionnement ne sont pas identiques pour tous les sites. Selon François Goube, CEO de l’éditeur d’outil de crawl OnCrawl, “Google distingue très bien un site de petites annonces d’un site e-commerce. Pour le premier, il accorde peu d’importance à la volumétrie du contenu mais beaucoup à la rapidité de chargement, pour le second, c’est l’inverse”. Avant de se lancer dans d’ambitieux chantiers de SEO, il recommande de chercher quels sont les facteurs de positionnement propres à son site. Pour cela, il croise les logs serveurs indiquant le passage des robots de Google avec des informations issues d’un crawl des pages du site (voir outils plus haut). Ensuite, il est possible d’isoler des facteurs pour voir si Google crawle ou non les pages avec un contenu de 100 mots, 200 mots, 300 mots, etc, ou s’il crawle les pages qui s’affichent en 5ms, 7ms, 9ms, par exemple. En ajoutant les données de la Search Console, il est également possible de savoir si ces pages apparaissent souvent sur les pages de résultats de Google.

Optimisation on-site

C’est sur les optimisations on-site que le croisement des données permet d’obtenir le plus d’informations utiles pour le SEO. Par exemple, pour trouver les URLs des pages qui sont indexées (et donc régulièrement revisitées par les bots de Google) mais non maillées (qui obligent donc le bot à sortir du site après les avoir vues : les pages orphelines), Sébastien Bulté conseille de croiser un crawl du site avec une analyse de logs. Il faut que chaque page présente dans les logs possède plusieurs liens internes. Si ce n’est pas le cas, “ces pages gaspillent du budget de crawl, explique le consultant SEO et sur un site avec une forte volumétrie de pages, cela peut être gênant. Une fois qu’elles sont identifiées, on peut décider de les supprimer ou de les bloquer pour orienter le crawl des bots vers les pages les plus intéressantes”.

Les pages inactives, celles qui sont indexées mais qui ne génèrent pas de trafic, font aussi perdre des ressources (crawl, serveur, etc.. Pour les retrouver, François Goube croise les données de crawl avec celles de trafic sur les pages, issues de Google Analytics. “Cela permet de statuer sur le sort des pages inactives, mais le plus intéressant, c’est d’utiliser les informations du crawl (par Screaming Frog ou un autre outil) pour trouver les points communs entre les pages actives : longueur du title, nombre de mots, profondeur de la page, etc”, ajoute le CEO d’OnCrawl.

Pour aller plus loin, il croise souvent les URLs des pages actives et les informations sur les pages avec leur position moyenne dans les SERP de Google, disponible sur la Search Console. L’objectif, là encore, est d’isoler les paramètres communs entre les pages les mieux positionnées. “Savoir que les pages les plus rapides génèrent plus d’impressions et se positionnent mieux, par exemple, cela donne des informations directement applicables aux pages actives qui se positionnent moins bien”, conclue-t-il.

Par ailleurs, pour ses clients qui s’interrogent sur l’impact des avis des clients sur le positionnement de leurs pages, Sébastien Bulté a la réponse. Il croise les URLs du site avec le nombre d’avis par page (qu’il a préalablement scrappé), le positionnement des pages issu de la Search Console et le trafic de chaque page récupéré sur Google Analytics. “Je peux leur livrer une comparaison des performances des pages avec ou sans avis et ils voient eux-mêmes si ces derniers apportent un plus pour gagner des positions et du trafic”.

Optimisations off-site

La popularité d’un site, reposant sur le netlinking, est l’un des piliers du SEO. Avant d’entamer pour un client une campagne pour obtenir des backlinks, Sébastien Bulté commence par “évaluer la puissance des sites sources”. Il croise des indicateurs portant sur la qualité du site source, comme le Trust Flow de Majestic, avec une estimation du trafic et du nombre de mots clés positionnés sur le site, que des outils comme SEMRush, Ranxplorer ou Similarweb permettent d’obtenir.

Et comme le netlinking s’inscrit dans la durée, il est possible d’identifier les liens externes brisés, qui ne servent donc plus à rien. La Search Console, Ahref ou Majestic.SEO permettent de suivre les liens externes et Sébastien Bulté conseille de recroiser ces informations avec un crawl de Screaming Frog en mode “list”, afin d’extraire les codes réponse des pages de son site. Les liens pointant vers des pages qui ne répondent pas avec un code 200 peuvent être redirigés s’ils sont intéressants.

Introduire la dimension business

Pour François Goube, croiser des données extérieures au domaine du SEO ajoute des informations utiles pour le référencement. Par exemple, il considère important de connaître les pages par lesquelles entrent les utilisateurs qui aboutissent à une conversion. “Même si la page d’entrée n’est pas celle qui convertit, elle est nécessaire à la conversion”, explique-t-il. Pour lcalculer la valeur de ces pages d’entrée, il croise les pages actives, les pages de conversion issues de Google Analytics et le panier ou le revenu moyen par page.

Enfin, Sébastien Bulté utilise souvent les données SEO de Google Analytics et de la Search Console et les données SEA pour “piloter les investissements et baisser les enchères Adwords si le positionnement SEO est bon, et inversement”.

Source : JDN

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici