5 astuces pour utiliser au mieux les données de la Search Console de Google

Referencement

SEO / Referencement 104 Views comments

Carnet de santé d'un website, la Search Console présente gratuitement les données que Google veut bien partager avec les webmasters. Remark le website apparaît sans les SERP, quel est son CTR sur ses requêtes les plus importantes, quel est l'état de son netlinking& ? Remark Google crawle le website& ? Les informations qu'elle contient sont variées, précieuses, très appréciées des référenceurs, et… parfois imprécises voire incohérentes. Pour Vincent Lahaye, responsable du tracking chez Ouest France et fondateur de Carré d'Astuce, il ne faut pas en avoir peur, automotive "cet outil est bien moins complexe qu'il n'y paraît". Pour profiter au mieux de ces données sans se laisser abuser par les failles, voici six combines proposées par des specialists du monitoring.

Filtrer les données du search

Dans le rapport de performances, l'utilisateur reçoit un faisceau d'informations pour entrevoir remark son website se défend sur les pages de résultats de Google. Très utile, à condition de bien les filtrer. Par exemple, les données affichées sont par défaut une moyenne de tous les pays dans lesquels le website apparaît. Pour un website français qui vise une viewers française, il vaut mieux ajouter le filtre "Pays" avant de commencer à interpréter ses données.

©& JDN

Un référenceur souhaitant connaître les mots-clés sur lesquels se positionne une page donnée a deux possibilités pour ajouter ce filtre. Il peut passer par la barre au-dessus des performances globales, en indiquant l'URL complète ou une expression de cette URL. Mathieu Chapon, fondateur de Search Foresight, rappelle qu'il peut aussi sélectionner "Pages" dans le rapport, puis cliquer sur l'URL qui l'intéresse. Cela l'envoie vers un graphique dédié à cette page. S'il revient ensuite dans l'onglet "Requêtes" et ajoute les "Positions moyennes" en cliquant dans la case de droite des performances, il obtient une liste non exhaustive mais représentatives des expressions sur lesquelles la web page se positionne. Mathieu Chapon cherche alors dans le classement celles qui se positionnent au-delà du quatrième rang et ont tout de même un certain nombre d'impressions& : ce sont les pages à optimiser en priorité pour augmenter les performances du website. "Par exemple, sur l'expression "tailler un rosier au printemps", ma place moyenne est de 7,6& et je me dis que peut-être je ne suis pas bon pour "printemps", parce que sur "tailler un rosier", je suis bon. J'en déduis qu'il me faut rajouter printemps dans la page", illustre l'professional.&

Se reposer sur le rapport de couverture

Pour les référenceurs de niveau intermédiaire qui savent utiliser Screaming Frog mais n'ont pas le finances pour s'offrir une answer de lecture des logs, la Search Console peut s'avérer précieuse. Dans le rapport de couverture, il y a le nombre de pages valides pour le Googlebot& : celles découvertes et indexées par Google, qui répondent en 200. Google indique aussi s'il les a trouvées dans le sitemap ou pas. Il donne un échantillon de mille pages seulement, "mais c'est un échantillon représentatif, qui donne des patterns pour comprendre le panel des situations présentes sur le website", précise Mathieu Chapon. Il considère la partie du rapport concernant les URL bloquées ou exclues comme la plus intéressante automotive "elle permet de distinguer les pages en noindex ou en 404& telles que vues par Google. Cela ne figure pas dans l'inventaire de crawl de Screaming Frog". L'onglet "Erreurs" contient lui-même quatre onglets avec des informations sur ce qui a bloqué Google. Il faut ensuite en tirer les conséquences pour nettoyer et assainir ces zones du website.

Cependant, "dans le cas de sites qui ont un peu d'âge il vous arrivera de trouver quelques URL complètement farfelues avec un message d'erreur qui ne vous mènera nulle part. Si l'inspection d'URL ne vous donne pas d'information sur la web page d'origine ou sur des informations d'URL canonique il est potential que ce soit un faux positif. Parfois marquer l'URL comme corrigée suffit à faire disparaître le problème", indique Vincent Lahaye. Même s'il conseille d'y consacrer chaque semaine un peu de temps, le fondateur de Carré D'Astuce nuance& : "Consideration, il ne faut pas s'obstiner à atteindre la perfection. Tant que les URL en query ne sont pas stratégiques dans la vie du website, surtout pour les problème "jaunes" qui ne sont que des avertissements, vous ne devez pas en faire votre priorité ". &

Les signaux Net Vitals, à consommer avec modération

Le tout nouveau rapport sur les indicateurs des Core Net Vitals sert à vérifier que les pages se chargent bien sur cellular et que les utilisateurs ne vont pas avoir une expérience dégradée. Vincent Lahaye recommande toutefois de ne pas en faire non plus une priorité& : "Si vous avez déjà des problèmes de redirection, que vos balises title ne sont pas impeccables ou que vous ne faites pas parler de votre website, ce ne sont pas quelques points de LCP ou CLS qui changeront votre visibilité."

En revanche, Mathieu Chapon pointe une limite de ce rapport& : "il indique les pages problématiques sans détailler ce qui ne va pas". Pour aller plus, loin, il faudra encore croiser ces pages avec les informations disponibles dans l'outil Page Velocity Perception de Google. "Inutile de le faire sur l'ensemble du website, rassure l'professional, les pages qui sous-performent ont presque toujours des patterns récurrents, et ce sont eux qu'il faudra modifier pour avoir une réelle influence sur le score international du website".&

Ajouter des propriétés pour élargir les échantillons

Pour contourner la limitation à mille requêtes ou pages dans le rapport de performances, une astuce consiste à ajouter des propriétés par répertoire. "Pour chaque répertoire, un nouvel échantillon de mille lignes et généré dans un nouveau rapport séparé", explique Céline Mazouffre, consultante web optimization chez Resoneo. Et pourquoi s'en priver& ? Si Google vérifie l'authenticité de chaque demande d'ajout, il n'y a pas de limite sur le nombre de domaines. "Pour un website d'annonces avec beaucoup de propriétés ou pour un website compartimenté en plusieurs langues réevents par pays, cette catégorisation permet d'étendre et de préciser le suivi", illustre la consultante search engine optimisation. "Attention toutefois, prévient le responsable monitoring chez Ouest France, si vous ne décochez pas les notifications lors de l'inscription préparez-vous à être spammé par Google à chaque nouvelle annonce& !"

©& JDN

Vincent Lahaye va un peu plus loin& : "l'astuce dans l'ajout par préfixe réaspect sur l'URL que vous allez indiquer. Il est très utile d'ajouter, en plus de votre website, des domaines qui ne sont pas censés recevoir du trafic, comme la model HTTP d'un website en HTTPS (et réciproquement), la version sans www d'un website dont le sous domaine principal est www. Ajouter ces deux variations permet de surveiller le crawl et les liens vers des versions non canoniques du website pour détecter d'éventuelles anomalies".

Passer à la vitesse supérieure avec l'API

Enfin, pour s'affranchir vraiment des limites de la Search Console, la answer un peu method, certes, mais efficace est de recourir à l'API Search Console. "Là, vous récupérez tout ce qui se passe sur le périmètre donné", souligne Céline Mazouffre. "Le mieux, c'est de stocker la knowledge afin de cumuler un historique de plusieurs années, au-delà des seize mois proposés sur l'interface". L'experte search engine optimisation reconnaît toutefois que c'est un gros travail qui suppose au préalable un certain niveau d'expertise.

Et puis, "il manquera toujours quelques clics (RGPD ou mots-de-clés rares). Il reste une petite partie perdue, on ne sait pas toujours pourquoi", nuance Céline Mazouffre. "Mais ces informations peuvent avoir un influence décisionnel. En regardant les pages avec beaucoup de mots-clés qui remontent& : il arrive de réaliser que certaines en ont trop, et que ce n'est pas pertinent. Conclusion& : il faut fabriquer des landing web page plus pertinentes."

Aux référenceurs réticents devant la technicité de la tâche, Vincent Lahaye préconise de passer par Knowledge Studio, qui repose sur l'API. Pour lui, "l'outil le plus complet accessible à tous est l'add on Search Analytics pour Google Sheets. Il permet de remonter des informations quasiment inaccessibles, comme les requêtes faucetées vers votre website, groupées par web page." Toutes ces informations peuvent être programmées pour se déclencher les semaines sans action en cours, afin d'envoyer des informations non biaisées. La préwarning s'impose avec cet add on, automotive "il n'est pas développé par Google et, même s'il passe par une couche de sécurité Oauth, certains décideurs peuvent se montrer frileux. Dans ce cas, il ne reste plus qu'à coder un script pour faire la même chose& !" conclue Vincent Lahaye.

Comments