WebRankInfo : la plus grande communauté francophone du référencement
Publié le
Olivier Duffez
Créateur de WebRankInfo,
consultant en référencement
Suite au dernier Core Update Google (mai/juin 2022), le SEO de votre site a peut-être plongé… Suivez cette méthode simple pour trouver comment remonter. Idem pour renforcer votre référencement et éviter une chute à la prochaine mise à jour…
Accès rapide : définition de Core Updateque faire après un Core Update ? – les dernières mises à jour de l’algo de Google
Google fait des milliers de mises à jour chaque année, mais certaines sont bien plus importantes que d’autres : on les appelle Core Update. Il y en a environ 3 ou 4 par an.
Dans le passé, certaines grosses mise à jour avaient des noms spéciaux. Les plus anciens se rappellent par exemple de l’arrivée de Panda ou Penguin. Voyez ma la liste des principales mises à jour de Google. Désormais, la plupart des Core Update sont nommés à partir du mois du déploiement.
Google met sans doute plusieurs mois à préparer un Core Update, pour adapter son algorithme. Le jour où il est déployé, vous pouvez remarquer des gros changements pour votre site dans les SERP. Ces variations peuvent durer plusieurs jours, généralement près de 2 semaines. Il est donc inutile de vouloir analyser ou modifier quelque chose tant que le Core Update n’est pas officiellement entièrement déployé.
A mon avis, les données sur lesquelles Google se base pour un Core Update ne datent pas de la veille du déploiement. Je suppose qu’elles ont été collectées plusieurs semaines avant. Donc si vous avez chuté, ce n’est sans doute pas à cause de ce que vous avez fait juste avant (quelques jours). De la même façon, pour remonter il faut être patient.
Les derniers Core Update officiels sont les suivants (lien vers la discussion du forum WebRankInfo) :
Remonter après une chute au cours d’un Core Update nécessite généralement un travail important. Vous devez évidemment vous assurer que tous les fondamentaux SEO sont parfaitement en place sur votre site. Et ensuite, il faut chercher les détails qui pourraient expliquer votre perte de trafic.
Je précise que j’utilise la même méthode pour :
Concrètement, vous devez :
Si vous n’avez pas d’audit RM Tech en version complète, demandez à bénéficier d’un pré-audit RM Tech avec analyse des pages zombies. C’est gratuit (si vous n’en avez pas encore profité)…
Une fois que votre rapport d’audit est prêt, regardez les 2 premiers graphiques dans la synthèse.
Pour ce qui suit, j’aurais pu décrire une fois de plus les critères ayant le plus d’impact avec chaque Core Update, mais c’est souvent trop générique.
Alors j’ai préféré vous décrire ce que vous devriez faire. Grâce à mes outils sur My Ranking Metrics, le process est très simplifié.
Je vais aussi m’appuyer sur 3 exemples pris parmi les 53 sites analysés :
Vous verrez ci-dessous des captures d’écran de leur audit RM Tech.
C’est parti !
QualityRisk vous indique si vos pages sont a priori bien optimisées en termes SEO (principalement technique). Il faut être à 0 de risque.
Si vous avez trop de pages à indice supérieur à 20, vous ne pouvez pas vous plaindre : vous ne vous donnez pas de chances de réussir. C’est le cas du site A, pour lequel on peut aussi dire qu’il est encore loin d’avoir exploité le potentiel de trafic organique :
Voici l’histogramme du site B qui vient de chuter en juin, alors qu’il avait depuis peu obtenu ces belles statistiques (pages à faible QualityRisk) :
Comparez avec le site C qui a nettement gagné ! Il avait chuté au Core Update précédent et a fait un gros boulot ces derniers mois :
OK, et maintenant ? Vous allez me dire que comme pour le site B, votre indice QualityRisk est super faible et pourtant vous avez été pénalisé par le dernier Core Update de Google.
C’est là que c’est assez nouveau je trouve : avoir QUE des pages avec un faible QualityRisk ne suffit plus.
Voilà, c’est ça : l’internaute qui débarque sur votre site en provenance des SERP de Google, vous devez en prendre soin ! C’est la formule que j’utilise depuis des années : j’ai l’impression qu’elle n’a jamais été aussi adaptée.
Une page peut sembler bien faite (aucun problème technique, au contraire, et un contenu très complet) et pourtant Google ne semble pas (plus ?) en vouloir.
Il y a pas mal de raisons possibles, et vous les connaissez. Les fameux conseils génériques que vous lisez depuis longtemps. La page a trop de pub, est trop lente, n’a pas assez de mots (ou trop), des problèmes d’UX, etc. Ce sont d’excellents conseils, mais comment vous faites pour les étudier tous sur toutes vos pages et faire un bilan ?
C’est là que l’indice zombie vous fait gagner un temps de dingue !
Que vous ayez des centaines, des milliers ou des dizaines de milliers de pages, l’outil vous montre quelles pages posent problème. Vous ne passez pas des heures à les chercher.
On va commencer par le cas évident du site A qui n’a pas encore assez bossé et pour lequel j’ai envie de dire “Vous ne pouvez pas vous plaindre” :
Voici la vue d’ensemble des indices zombies du site B qui vient de chuter, malgré je vous le rappelle des pages en apparence bonnes :
Ne me dites pas “oui mais c’est normal qu’il ait chuté, y’a que des pages zombies“. Non !
Et voilà la tête de l’histogramme Zombies du site C dont le trafic organique vient de monter en flèche :
Petite parenthèse : la personne qui gère le SEO de ce site C nous avait contactés Fabien et moi, car le trafic avait chuté de 40% en 1 mois, après un Core Update. On a donc appliqué exactement la méthode décrite ici. En lui montrant uniquement des pages à fort indice zombie, elle a d’abord été étonnée car il s’agissait de pages censées être au top de l’optimisation (référencement). Mais elle a trouvé assez vite pourquoi ces pages-là décevaient les internautes, et pas d’autres pages (pourtant avec parfois des sous-optimisations). Pour résumer, je dirais que les pages n’honoraient pas la promesse faite à l’internaute (dans la balise title et ailleurs dans la page). Il y avait une sorte de décalage avec l’intention de recherche. Avant ça passait, mais plus maintenant avec l’algo de Google… Et sans l’indice Zombies, elle n’arrivait pas à trouver quelles pages posaient problème.
Alors que faire concrètement avec le rapport d’audit ?
Depuis 2018, chaque Core Update Google a mis en lumière la relation entre QualityRisk/Zombie et l’impact SEO.
Donc pour nous et pour cette update, il n’y a rien de réellement nouveau, sauf 1 point : c’est la première fois que nous voyons une chute aussi forte des pages ayant un Zombie élevé mais pourtant un QualityRisk faible.
Tout comme Fabien, je suis confiant dans la puissance de nos 2 algorithmes (QualityRisk et Zombies).
C’est pour ça qu’on vous propose de vérifier par vous-même sur votre propre site ce que ça donne pour vous.
Et si vous ne connaissez pas encore notre outil, on vous propose de le tester gratuitement.
Aucune explication précise n’a été fournie par Google. Tout ce que l’on sait, c’est que le déploiement a commencé le 25 mai et s’est terminé le 9 juin (source).
Comme plusieurs fois par an, Google officialise le déploiement d’une mise à jour globale de son algo, qu’on appelle un (Broad) Core Update. La particularité ici est que 2 Core Updates successifs et rapprochés ont été annoncés début juin.
On en discute sur le forum WebRankInfo : Core Update Google juin/juillet 2021.
Attention, il y a eu également d’autres mises à jour officielles chez Google :
D’abord en apparence on retrouve toujours les mêmes choses.
Même si on peut trouver des contre-exemples, généralement on voit une progression des sites ayant très bien optimisé l’aspect technique et investi dans du contenu éditorial de qualité. Dans les secteurs concurrentiels, les backlinks jouent évidemment un rôle déterminant. Et comme souvent, les effets sont bien plus forts si le site est considéré YMYL.
En fait, si vous connaissez le SEO, ça ressemble à des banalités !
Alors j’ai creusé un peu plus ! J’ai eu beaucoup d’échanges : sur les réseaux sociaux où j’avais parlé de cet article que je préparais, ainsi qu’avec des clients de ma plateforme SEO My Ranking Metrics. J’ai fait ça avec Fabien, mon associé chez My Ranking Metrics. On on a analysé 53 sites grâce à RM Tech :
Il y a eu quelques cas où on n’a pas su expliquer pourquoi le site avait baissé dans Google. Mais on a été frappé de remarquer une caractéristique commune :
La plupart des sites pénalisés par le Core Update de juin/juillet prenaient “des risques” depuis quelques mois en ayant trop de pages qui déçoivent l’internaute. L’algo de Google semble moins “tolérant” qu’avant dans ce genre de cas. C’est particulièrement frappant avec l’analyse conjointe QualityRisk/Pages Zombies incluse dans chaque audit RM Tech.
Nous avons constaté que le lien entre QR/Zombies et l’impact SEO aux Core Updates est d’autant plus fort que le site est ancien (+ de 2 ans) et que le site est gros (+de 1000 URL). Nos conclusions sont les mêmes pour les sites ecommerce et les sites de contenu (et quelques rares autres types tels que les petites annonces).
Cet article vous a-t-il plu ?
Remarques :
Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L’inscription est gratuite et immédiate.
En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé…) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

9 commentaires
Bonjour Olivier,
J’ai une question : quels sont les updates à faire dans un article SEO en 2022 pour que Google considère ceux-ci comme tels?
Merci d’avance pour votre réponse.
La question n’est pas assez précise et de toutes façons personne ne peut vraiment dire comment mesurer un changement pour qu’il soit suffisant pour Google.
Le 1er niveau est de faire assez de modifications (ou ajouts ou suppressions) du contenu pour que Google décide de réindexer la page. On le voit parfois quand Google affiche une date pour la page, dans le snippet. Un paragraphe modifié ou ajouté, en plus d’une date mise à jour, peut suffire.
Le 2nd niveau est de faire assez pour que Google considère la page comme bien meilleure, à tel point que ça fait remonter le site s’il avait chuté après un core update. Dans ce cas, non seulement les améliorations doivent être significatives, mais ça doit concerner une grosse partie du site. Et ça nécessite un délai d’au moins 2 mois je dirais.
Bonjour Olivier ,
Question :sur le point #3 :
“Ajoutez aussi un filtre pour ne conserver que les pages dont l’indice QualityRisk est faible (par exemple inférieur à 20)”
Pourquoi, au contraire, ne pas filtrer les QualityRisk supérieur à 20 ?
Désolé, je n’arrive pas à saisir ce point 🙁
Merci 🙂
Les pages à QR supérieur à 20 sont généralement plus faciles à traiter, car il faut d’abord corriger leurs problèmes détectés par QR.
Celles à QR inférieur à 20 et pourtant NON performantes sont plus difficiles à repérer. Et l’analyse croisée avec Zombies est dans ce cas intéressante…
Merci pour cet article, effectivement rien d’étonnant dans les effets des updates. La méthode de l’indice zombie est très intéressante, à tester 🙂
Ca serait bien de pouvoir plugger search console et matomo pour ceux qui n’ont plus analytics.
Sinon je suis d’accord avec votre analyse sur les core updates
En effet Julien. Je suppose que tu as remplacé Analytics par Matomo à cause du RGPD
Excellent article qui synthétise bien ce qu’on observe, notamment au travers des nouveaux insights de la search console : si on déçoit le lecteur, Google s’en aperçoit et en tient compte !
Pour compléter, depuis début juin, je constate que la durée moyenne de lecture des sites dont nous nous occupons augmente alors que le trafic baisse. La qualité au détriment de la quantité, enfin !?
La durée moyenne de visite n’est pas un KPI assez fiable je trouve, sauf si c’est un site avec un grand nombre de pages vues par visite (genre Le Bon Coin)
Inscription à la newsletter
Catégories
Consulting SEO
Envie d’améliorer votre référencement ?
Consultant SEO depuis 2003, j’ai une très grande expérience en audit et consulting. Que ce soit pour une demande ponctuelle, pour un audit ou du long terme, je peux vous aider.
WebRankInfo / Tous droits réservés 2022 – Mentions légalesMe contacter

source

Catégorisé:

Étiqueté dans :

,