Il est donc temps de conclure ce dossier didactique dédié au contenu digital, avec ce dernier épisode consacré au pilotage de la performance éditoriale. Dossier qui nous aura permis de passer en revue détaillée au fil de 5 épisodes l’ensemble des composantes à prendre en compte pour comprendre, élaborer, déployer et donc aujourd’hui piloter, une stratégie de contenus performante à l’échelle d’une destination touristique.
Si vous avez suivi les épisodes précédents, il y a un certain nombre de concepts et pré-requis qui sonnent désormais comme des évidences pour vous :
Si on prend un peu de recul avec ces rappels fondamentaux, on peut assez facilement poser les bases d’un pilotage de la performance éditoriale efficient :
Fixer un objectif opérationnel à un contenu est une chose, se donner les moyens de mesurer sa performance en la matière en est une autre. Vous aurez probablement remarqué que ni Google Analytics ni Matomo (et autres) ne vous fournissent les indicateurs « notoriété », « captation SEO », « expérience utilisateur »… en tant que tels. Alors comment faire le lien entre ces fameux objectifs et les données fournies par les outils de web analytics ? Hé bien… en réfléchissant, spécifiquement dans le cadre de votre stratégie, à ce que signifie fondamentalement chaque objectif opérationnel, à ce que ça implique si cet objectif est atteint, avant d’aller fouiller dans les outils pour voir si des indicateurs correspondent.
Prenons quelques exemples relativement basiques pour illustrer le propos :
Ce ne sont que des exemples relativement basiques pour illustrer le principe, mais on peut évidemment aller beaucoup plus loin dans la finesse de définition de ses KPIs. Notons au passage que tous les KPIs évoqués ne remontent pas systématiquement de GA ou Matomo : nous verrons plus loin qu’un peu de gymnastique sera nécessaire pour obtenir une vision transversale.
Pour bien faire les choses dans les règles de l’art, on pourra documenter cette étape sous une forme arborescente, avec au sommet les objectifs stratégiques, desquels découlent des objectifs opérationnels, puis les KPIs associés et enfin les sources permettant d’obtenir ces KPIs. En version luxe, on fixera des métriques cibles, que ce soit en valeur absolue ou en pourcentage de progression. Adossé à la stratégie digitale, ce document pourra avoir une dimension pédagogique pour démontrer aux décideurs pourquoi on arrête de considérer le nombre de visiteurs uniques comme indicateur principal de la performance web…
Pour prétendre piloter sa performance éditoriale, il est absolument indispensable de se doter d’un outil de pilotage des contenus. Dans la vraie vie, un simple Google Sheet suffira largement pour référencer tous les contenus du site et leur associer un certain nombre de métadonnées. J’avais déjà détaillé le principe du plan des contenus dans l’épisode précédent. En faire l’économie et se contenter d’une arborescence de pages non documentée est rédhibitoire pour la suite. On comprend en effet de la section précédente (« Des objectifs aux KPIs ») que l’évaluation de la performance d’un contenu va principalement dépendre de son objectif, et que l’analyse plus pointue de cette performance va nécessiter une compréhension globale des caractéristiques du contenu : le sujet et les mots clés ciblés pour s’assurer qu’il se positionne sur les bons et génère un trafic ciblé, le maillage de suite de parcours pour évaluer la qualité du parcours client, etc. Comme ces notions sont étrangères aux outils de tracking, si elles ne sont pas documentées par ailleurs, les analyses seront de fait fastidieuses.
Dans une version un peu plus évoluée, le plan des contenus pourra constituer une sources de données complémentaire pour vos tableaux de bord : avec un peu de réconciliation de sources, on arrivera alors à présenter des tableaux de bord hybrides fort intéressants (voir plus bas). En complément (ou alternative), on peut aussi demander à son agence web de prévoir dans le CMS des espaces de saisie pour toutes ces métadonnées : il « suffira » ensuite de les faire remonter dans le flux statistiques (c’est en principe le job de l’agence web) pour en disposer nativement dans GA / Matomo.
Quoi qu’il en soit, ce qu’il est essentiel de retenir ici, c’est que d’une manière ou d’une autre, il faut pouvoir disposer à tout moment d’une vision globale de ses contenus et des métadonnées qui leur ont été associées lors de l’élaboration de la stratégie de contenus.
On a souvent tendance à négliger cette étape cruciale et à considérer que pour bien brieffer un rédacteur, il suffit de lui donner le sujet, l’angle, les sources, le calibrage et éventuellement quelques mots clés SEO s’il est compétent sur le sujet…
Structurer un modèle de brief plus complet, c’est s’assurer que le rédacteur sait bien sûr ce qu’il doit raconter, mais également avec quel type de contenu, dans quel format, pour quel(s) objectif(s) (il pourra alors orienter son storytelling en conséquence) avec toutes les précisions utiles sur la suite du parcours (maillage de suite).
Au-delà du modèle que vous pourrez élaborer, c’est grâce au plan des contenus que vous pourrez décliner les briefs de chaque contenus. Dans une version un peu plus élaborée, le plan des contenus peut même générer dynamiquement des briefs rédacteur sans la moindre intervention humaine… un gain de temps considérable si la qualification du plan des contenus a été faite rigoureusement en amont.
Un billet complet ne suffirait à traiter du sujet du tracking à l’heure de la gestion du consentement RGPD, de GA4 vs Matomo, du tag management, sans parler de la mort de Xiti pour les plus nostalgiques. Alors je vais déjà vous recommander chaleureusement le visionnage de ce replay des #ET18 dédié au sujet :
Bien au-delà de la battle GA/Matomo, on y parle RGPD et impact sur les stats, recueil du consentement, dataviz, tableaux de bord personnalisés… Pour compléter votre compréhension du sujet, je vous renvoie également au billet de Mathieu consacré à Matomo.
Ce qu’il est important de rajouter ici pour faire le lien avec le propos de ce billet, c’est de considérer l’intérêt de consacrer un miminum (en vrai, beaucoup, pour être honnête) d’énergie et de temps à l’élaboration du « plan de marquage ». En effet, sans plan de marquage, quelque soit l’outil implémenté, impossible de réaliser des analyses telles que nous l’évoquons depuis le début de ce billet. Si l’agence web se contente de déposer un tag GA/Matomo par défaut et que personne d’autre ne prend sérieusement le sujet en mains, difficile d’aller au-delà du (faux) comptage des visites et de leur « qualité ». Impossible par exemple d’identifier facilement les mises en relation vers les sociopros, les clics sur les éléments de maillage, l’usage des fonctionnalités servicielles… Impossible également de faire remonter dans les outils de Web Analytics les objectifs des contenus, les types et formats de contenus, les mots clés ciblés…
Concrètement, un plan de marquage, c’est la traduction (très) technique de votre stratégie de pilotage. C’est donc à des experts de s’en charger, ça peut être le cas de l’agence web ou de d’une agence conseil par exemple.
Si vous avez regardé la vidéo ci-dessus, vous aurez bien compris la différence entre l’analyse approfondie de données statistiques (Data Analytics) et la visualisation de ces mêmes données (Dataviz) :
Si l’analyse statistique est nécessaire pour comprendre de manière spécifique certains facteurs grâce aux croisements de données et autres filtrages adhoc, il faut bien reconnaitre que c’est (de plus en plus) un vrai métier. Probablement plus de 95% des utilisateurs de GA3 n’utilisaient pas plus de 5% des capacités de cet outil (qu’il faut s’empresser de remplacer !). Ça se corse avec Matomo qui, malgré ses grandes qualités, décourage la majorité des utilisateurs potentiels en proposant une interface pour le moins déstabilisante. Pas mieux côté Google qui avec la version 4 change radicalement de logique sur de nombreux fondamentaux, tout est à réapprendre !
Face à cette complexité, on peut avantageusement se tourner vers des outils de Dataviz tels que Google Data Studio (devenu Looker Studio), qui permettent d’une part de représenter visuellement des données centrées sur ses propres objectifs / KPIs et d’autre part de croiser différentes sources de données. Par exemple, c’est vraiment très intéressant de croiser les données de Web Analytics (GA / Matomo) et de Search Console : réconciliées via l’url des contenus, c’est un des seuls moyens de mettre en relation des données d’audience et conversion avec les intentions de recherche qui ont généré le trafic, à l’échelle de chaque contenu.
Le temps de l’analyse
En déployant ce type de solutions, et sous réserve que tout ai été bien fait et en profondeur (attention, ça reste assez technique, prévoir de se faire accompagner sur la mise en place), on va pouvoir choisir un contenu, puis, dans l’idéal, visualiser sur une représentation centralisée :
A un niveau plus macro, on pourra également manipuler les tableaux de bord pour obtenir des tendances de performance en regroupant les données par :
Il n’y a, théoriquement, que l’imagination qui pourrait limiter ces listes… Sauf que, pour réussir à répondre à toutes ces questions, il faut qu’elles aient été identifiées en amont, pour que toute la chaine de pilotage de la performance ait été construite en conséquence : objectifs opérationnels > KPIs > métadonnées sur les contenus > tracking avancé > réconciliation de sources hétérogènes > dataviz. Dit comme ça, ça peut décourager, mais mis en perspective des bénéfices, ça vaut vraiment le coup de l’envisager. Quand on voit les budgets dépensés par les OGD en captation (SEO/SEA), en production édito, en évolutions techniques… sans réelle visibilité et compréhension fine des impacts sur la performance, on se dit qu’il y a un vrai gros levier d’optimisation des budgets digitaux. Car une fois qu’on a déployé un pilotage de la performance digne de ce nom, on est capable de cibler de manière précise ses actions et donc de dépenser (beaucoup) moins, et surtout mieux, dans les actions d’amélioration.
Alors que faire de toute cette matière analysée finement ? Comment optimiser son plan d’action opérationnel ?
L’étape précédente aura normalement permis de mettre en évidence un problème ou un potentiel d’amélioration sur un contenu ou un ensemble de contenus. Reste à réfléchir à l’action à mettre en place, imaginer différentes hypothèses, les tester méthodiquement, observer les résultats, puis acter la meilleure solution à adopter et à généraliser le cas échéant. C’est globalement le concept de la roue de Deming cité en introduction, la méthode OPDCA (Observe – Plan – Do – Check – Adjust), qui permet de planifier des cycles d’améliorations ciblées dans un objectif d’amélioration généralisée, en évitant les régressions.
Prenons quelques exemples basiques d’actions à envisager grâce à un pilotage de la performance éditoriale :
On aurait également pu parler ici de tests A/B pour certains types d’améliorations, mais comme ce billet est déjà fort long et que c’est un peu moins spécifique à l’éditorial, je vous l’épargne.
En démultipliant ce type d’actions et en observant leurs impacts, on arrive au fil des efforts à considérablement améliorer ses performances de manière naturelle, sans pansements et autres artifices qui coutent un bras et cessent de produire des effets sitôt qu’on arrête de nourrir la bête… Car en travaillant sur la performance de ses contenus, on capitalise durablement sur la matière première du site web, surtout si on a bien compris l’intérêt de miser sur des cycles de vie allongés plutôt que jeter son site web tous les 3-5 ans…
5 longs billets n’auront pas été de trop pour bien exposer et décrypter toute la puissance de l’édito, son rôle central dans une stratégie digitale et l’importance de capitaliser durablement sur ses contenus web. On a souvent tendance à sous estimer cela et à considérer qu’un bon contenu est un contenu bien écrit qui raconte une belle histoire : oui, et c’est indispensable… mais ça ne suffit clairement pas ! S’il n’est pas anormal que chaque métier (SEO, rédacteur, agence web…) considère le contenu sous le seul prisme de son expertise, on mesure chaque jour à quel point une approche globale du contenu est la clé de voute de la vraie performance durable et porteuse de sens.
A partir de là, on peut s’atteler à l’étape suivante qui consiste à passer de la promotion touristique (= bonne performance) à l’influence, on considérant que nos écosystème digitaux de destinations constituent une force de frappe considérable pour accompagner nos cibles vers des pratiques touristiques durables et responsables. C’est ce que nous avons notamment abordé avec Sébastien aux dernières rencontres de Pau et nous y reviendrons régulièrement dans les semaines et mois à venir… Stay tuned 😉
Etourisme.info : depuis 15 ans, votre blog suit la transformation du tourisme. L’association regroupe une Rédaction de 20 auteurs passionnés ainsi que des rédacteurs invités, tous bénévoles.
© 2021 – etourisme.info
Tous droits réservés
Réalisation ARTGO Média
 
Crédits & Mentions légales

source

Catégorisé: