Surveiller en permanence certains KPI ROIstes évite des accidents durablement préjudiciables au référencement d’un site. Mais attention à ne pas se noyer sous un flot d’informations inutiles.
Le SEO est une course d'endurance, mais un site est d'autant plus performant qu'il n'accumule pas en chemin erreurs, bugs ou retard par rapport à ses concurrents. Exemple : les rapports mensuels permettent de détecter un pic d'erreurs 404. Mais bien après les crawlers des moteurs de recherche. Et les positions sont déjà perdues… Suivre ses indicateurs SEO au plus proche du temps réel devient donc vite indispensable. Et pour cela, le référenceur doit trouver un juste équilibre qui lui permet de détecter les premiers signes d'un crash tout en évitant de se noyer sous un flot perpétuel de données inutiles. Voici les indicateurs les plus ROIstes à suivre en priorité en temps réel.
Sur les SERPs des moteurs de recherche, les résultats fluctuent souvent, parfois plusieurs fois au cours d'une seule journée. Et "perdre soudainement quelques places peut entraîner une diminution immédiate du trafic organique", note Yulia Adeeva, responsable du marketing produit chez SEMRush. "Il est intéressant de savoir immédiatement quels mots-clés ont chuté, et lequel de vos concurrents est maintenant positionné dessus", ajoute-t-elle. L'important étant de pouvoir réagir rapidement en cas de fort décrochage.
Pour le détecter, Gatien Aujay, responsable SEO chez ManoMano, conseille de mettre en place "le suivi du positionnement global et par silos sémantiques ou type de page. Et pour pondérer le rang SEO par la demande, et ainsi prioriser une intervention, un KPI mixte : positionnement et search volume". Des outils centrés sur le site, comme SEMRush ou Yooda Insights permettent de le suivre. D'autres se concentrent sur les mots-clés, comme Ranks ou SmartKeyword. Quant à la Search Console de Google, elle a quelques jours de décalage. Pour Gatien Aujay, sur ces outils, il faut pouvoir suivre :
Pour certains référenceurs, dont fait partie David Cohen, consultant SEO, l'indicateur le plus important à suivre dans une démarche ROIste est le trafic organique. Et justement, "Google Analytics permet de suivre la courbe de trafic en temps réel", précise-t-il. Il recommande d'utiliser "la notation de tous les événements techniques ou de communication sous les courbes de Google Analytics, pour dater tout infléchissement". Seul hic, l'onglet temps réel de Google Analytics ne permet pas d'ajouter une annotation. Il faut se rendre sous la courbe de trafic dans "Canaux" dans la catégorie "Tout le trafic" de l'onglet "Acquisition".
"En période de migration ou de soldes, le temps réel est encore plus nécessaire"
Cela permet de comprendre les corrélations entre un événement extérieur (mise à jour de l'algorithme de Google, panne régionale d'un opérateur…) ou interne (importante modification du contenu, travail sur le maillage interne, optimisation du crawl, allègement des pages, etc) et les performances du site en termes de trafic. Et donc d'anticiper les situations à risque.
"En période de migration ou de soldes, le temps réel est encore plus nécessaire" pour percevoir à temps les signaux faibles en cas de problème, souligne le responsable SEO de ManoMano. Il recommande de mettre en place un rapport de comparaison avec l'année précédente et avec les indicateurs de comportement sur le site.
Le responsable SEO n'a pas toujours la main sur tout ce qui relève de la technique et du contenu. Ses outils sont sa tour de contrôle. Pour Olivier Papon, créateur de Seolyzer, il est primordial de suivre le crawl en temps réel, car "lorsque Google interprète de nouvelles règles de crawl dans le fichier robots.txt, leur correction reste une tâche longue et fastidieuse". Et d'illustrer son propos : "Google prend jusqu'à à 6 mois pour sortir des pages incluses à tort dans son index".
Et justement, en préproduction, il est d'usage de mettre une directive "disallow" pour bloquer le crawl. Si ce fichier est envoyé tel quel en production, tout ce qui était en préproduction reste fermé aux crawlers. A l'inverse, le Robots.txt interdit le crawl vers les pages à faible valeur SEO du site. S'il est supprimé par erreur, le moteur risque de visiter ces pages et d'y perdre beaucoup de temps, aux dépens des pages vraiment intéressantes.
"Le plus simple est de configurer ses outils afin d'envoyer une alerte par mail si nécessaire"
Attention aussi aux autres erreurs de référencement : "nom de domaine non renouvelé, erreur 404, URL modifiée, contenu SEO trop pauvre, balise title ou méta description qui sautent, mauvaise configuration d'une canonical ou d'un noindex", Aurélien Bardon, fondateur de l'outil de crawl Oseox Monitoring est formel, tous les clients auxquels il pose la question ont été concernés un jour ou l'autre. Mieux vaut donc réagir rapidement. Il évoque par exemple, le cas d'un site e-commerce générant plus de trente millions de chiffre d'affaires annuel qui a transformé son crawl mensuel en un crawl par heure. "Nous avons découvert que tout le site était entièrement cassé une heure chaque nuit. Après enquête, de gros échanges de flux entre 3 et 4 heures du matin en étaient responsables".
Des outils comme Seolyzer, OnCrawl ou Botify permettent de réaliser un crawl (jusqu'à une fois par heure), pour détecter ces différents types d'anomalies. Le plus simple est de les configurer afin d'envoyer une alerte par mail si nécessaire.
Autre intérêt : suivre l'état des en-têtes HTTP permet de repérer l'apparition de pages passées en code d'erreur, mais aussi l'ajout de certaines directives pouvant être catastrophiques pour le SEO d'un site, comme le X-Robots-Tag. Là encore, des outils comme Seolyzer, Oseox Monitoring ou Botify qui permettent de recevoir une alerte immédiatement si des réponses anormales remontent.
Il est difficile de se rendre compte si un élément vient perturber la navigation. Et pourtant, l'impact sur le chiffre d'affaires peut être rapide. Gatien Aujay recommande de paramétrer des alertes sur le suivi de l'activité sur les pages : "taux de pages actives global et par type de pages, taux de pages orphelines et profondeur du site". Une alerte peut être signe d'un ralentissement sur le site, par exemple. C'est pourquoi "surveiller la webperf en temps réel permet de prendre les devants en cas d'augmentation soudaine du temps de chargement des pages sur le site", observe Olivier Papon. Des outils comme Seolyzer, Kibana ou Grafana fournissent instantanément ce type de données.
Le SEO est une course d'endurance, mais un site est d'autant plus performant qu'il n'accumule pas en chemin erreurs, bugs ou retard par rapport à ses concurrents. Exemple : les rapports mensuels permettent de détecter un pic…
Je gère mes abonnements push
Les informations recueillies sont destinées à CCM Benchmark Group pour vous assurer l’envoi de votre newsletter.
Elles seront également utilisées sous réserve des options souscrites, par CCM Benchmark Group à des fins de ciblage publicitaire et prospection commerciale au sein du Groupe Le Figaro, ainsi qu’avec nos partenaires commerciaux.
Le traitement de votre email à des fins de publicité et de contenus personnalisés est réalisé lors de votre inscription sur ce formulaire. Toutefois, vous pouvez vous y opposer à tout moment
Plus généralement, vous bénéficiez d’un droit d’accès et de rectification de vos données personnelles, ainsi que celui d’en demander l’effacement dans les limites prévues par la loi.
Vous pouvez également à tout moment revoir vos options en matière de prospection commerciale et ciblage. En savoir plus sur notre politique de confidentialité ou notre politique Cookies.