Pour tout abonnement, recevez notre livre blanc “Réussir son blog”.

A ma grande surprise, je me suis rendu compte que c’était un sujet polémique en lisant les commentaires d’un article du JDN : Google pénalise les lenteurs d’affichage . On y voit un débat animé mais correct entre Olivier Andrieu, l’éditeur du site SEO bien connu Abondance et l’auteur de l’article, Pierre Elemento qui défend l’impact du temps de chargement sur le référencement. Je vais donc donner des explications, d’après mon expérience et un peu de recherches, sur les effets d’un site rapide sur le SEO, avec quelques preuves à l’appui…
L’objectif de google a toujours été de calquer la pertinence de son moteur de recherche avec celle de l’utilisateur, tout en alliant vitesse d’affichage des résultats, monétisation et contraintes techniques.
Mais ce besoin de pertinence était freiné justement par ces contraintes techniques et la nécessité d’afficher ses résultats de recherche (SERP) en quelques dixièmes de secondes. Les critères étaient donc plus quantitatifs que qualitatifs, car plus simples et plus rapides en temps de calcul. Aujourd’hui l’infrastructure de google, ses serveurs surpuissants lui permettent d’ajouter des critères plus qualitatifs dont les signaux utilisateurs mais aussi des critères sémantiques plus évolués par exemple.
Partant de ce principe, la rapidité d’une page ayant un impact sur l’expérience utilisateur, google étant capable de capter les signaux relatifs à ce comportement, la vitesse d’un site a donc un impact sur le SEO.
« Parce que lorsque google positionne des sites lents, les gens utilisent moins google ».
C’est la conclusion de google après de nombreux tests qui consistaient à augmenter le délai d’affichage des résultats du moteur et à observer le comportement de leurs utilisateurs. Le tableau ci-dessous est un extrait du test complet que vous trouverez ici :
test google sur l'impact utilisateur d'un rallongement des délais d'affichage des résultats d'une SERP
Amit Singhal et Matt Cutts cite une nouvelle expérience en juin 2009 qui donne une des conclusions suivantes :
Nos expériences démontrent que le ralentissement de la page des résultats de recherche de 100 ms à 400 ms a un impact mesurable sur le nombre de recherche par utilisateurs entre -0.2% et -0.6%
Google connait le temps de chargement des pages d’un site depuis :
Seul le temps de réponse récupéré par Google chrome est pris en compte dans les facteurs de positionnement comme le suggère ce document d’aide google. Contrairement à Googlebot, du moins pour l’instant, le navigateur chrome récupère l’ensemble des éléments chargés sur la page (CSS, JS, image,…).
Google chrome, agit comme un espion, et récupère non seulement le temps de chargement, mais aussi des données comme le temps passé sur un site, le taux de clics,… Vu que la vitesse de chargement a un impact sur ces derniers critères, ça signifie donc qu’il a un impact direct et indirect sur les critères de classement d’une page.
Au-delà de ça, google possède aussi des données de son propre moteur, comme le taux de retour du site vers les pages de résultats, appelé aussi pogosticking.
pogosticking ou taux de retour vers la page de résultats google
Il arrive qu’un visiteur retourne rapidement d’un site vers la page de résultat Google parce que la page ne s’affiche pas assez rapidement par exemple. Avec la qualité du contenu, le temps d’affichage est la principale cause de ce pogosticking. Personnellement, ça m’arrive souvent.
C’est mauvais signe et google se sert de cette donnée pour affiner ses positions.
Si vous n’êtres pas encore convaincu, je vais continuer sur cette digression au sujet de l’expérience utilisateur qui n’en ai pas vraiment une car la vitesse d’affichage d’un document influence les critères d’usage.
Voici ce que dit ce brevet de google déposé en 2003 au sujet du comportement utilisateur :
Si un document est retourné pour une certaine requête dans un temps donné, les utilisateurs passent plus ou moins de temps sur le document correspondant à la requête ou une requête similaire, alors cela peut être utilisé comme une indication que le document est pertinent ou non.
Pour accéder à l’extrait original en anglais, rendez vous à la section « User Behavior » .
Les objectifs de la communication de Google et les objectifs du lecteur ou d’un référenceur ne sont pas forcément les mêmes, il faut parfois pondérer certains de leurs propos. Toutefois, les déclarations de google ou de Matt Cutts, leur porte parole, sont à prendre en compte.
Voici donc quelques annonces de google sur l’influence de la rapidité d’un site sur le référencement :
En avril 2010, Google annonce officiellement la prise en compte de la vitesse d’un site dans ses critères de classement. Il précise aussi que seul 1% des requêtes sont affectés. 1% à l’échelle du web c’est énorme et c’était en 2010, ça a sans doute évolué.
En juin 2013, à l’exposition search marketing SMX, Matt cutts annonce qu’ils vont mettre en place un critère de positionnement sur les résultats mobiles basé sur le temps de chargement des pages.
On retrouve aussi dans la page d’aide de google dédiée aux smartphones, une rubrique sur l’importance d’optimiser la vitesse de chargement des pages
Le 23 Mai 2014, Google explique son intention, à petite échelle dans un premier temps, de crawler les sites comme un navigateur, c’est-à-dire avec le chargement de tous les éléments tel que le javascript. Un passage relève de l’intérêt SEO d’avoir un site performant :
Si votre serveur web est incapable de gérer le volume de requêtes de crawl, cela peux avoir un impact négatif sur notre capacité à afficher vos pages
Influence du temps de chargement sur le volume de pages crawlées par jour
Nous avons vu que la vitesse d’un site est un facteur direct de positionnement, un facteur influençant l’expérience utilisateur et donc le SEO, et c’est aussi un facteur de crawl. Sur le graphe ci-dessus, tiré de google webmaster tools, on voit bien l’influence de la diminution du temps de chargement sur le volume de pages crawlées par jour.
On peux considérer que Google a un temps de crawl alloué à un site. Plus google explorera ( ou crawlera) vite les pages d’un site, plus il en explorera. Ca augmente donc au final le potentiel de pages indéxées et pouvant générer des visites. Ca surprend souvent mais google connait rarement l’intégralité des pages d’un site, sauf pour les tout petits sites de quelques dizaines de pages.
Outre le fait d’augmenter ce potentiel de pages actives (page qui fait au moins une visite), ce qui est déjà un gros levier de croissance, l’augmentation du crawl se traduit aussi par une amélioration des positions et du nombre de visites par page.
Vitesse des pages et conséquence sur la fréquence de crawl et les visites
Pour le graphe ci-dessus, j’ai récupéré les données « temps de chargement en ms » en abscisse, « nombre de crawl » et « nombre de visites » pour un peu plus de 250 000 articles sur la santé et sur une période de 15 jours. Pour tirer des conclusions de ce type de corrélation, il faut que le volume soit suffisamment important et que les pages soient suffisamment proches sur le plan thématique et structurel afin d’avoir par ailleurs des données égales ou très proches.
Ce qu’on constate, c’est qu’une page chargée entre 100 et 1000 ms fait en moyenne 3 fois plus de visites qu’une page chargée entre 3 secondes et 4 secondes. On constate aussi que google passe plus souvent sur une page qui charge rapidement que sur une page qui charge plus lentement.
Cette étude tendrait donc à prouver que la fréquence de crawl a un impact sur le nombre de visites. Et pour avoir plus de visites, c’est que les positions des pages qui chargent vite sont meilleures.
L’impact de la vitesse de chargement sur le trafic est très variable, il peut être très minime comme très important. En fait il dépend de l’état de départ du site et de son nombre de pages. Si un site a des gros problèmes de performances et qu’il possède un grand volume de pages, l’impact après optimisations SEO sera significatif, avec des gains constatés pouvant aller jusqu’ à 50% de trafic organique supplémentaire.
Voici un cas client avec mise en place de recommandations d’un audit seo avec une forte composante performances:
optimisations des performances et impact sur le trafic organique
Le temps de chargement baisse et le trafic augmente. Dans ce cas, d’autres changements structurels sont aussi survenus sur le site, l’augmentation de trafic n’est donc pas dû uniquement à l’amélioration des temps de chargement.
Voici aussi d’autres études de cas trouvés sur le web :
20% de trafic organique en plus
40% de trafic organique en plus
De manière directe et indirecte, les performances d’un site ont selon moi un impact indéniable sur le référencement naturel. Dans une perspective plus inbound marketing, il y a aussi des impacts sur l’engagement social et les conversions.
L’optimisation des performances fait partie des point les plus importants à analyser dans un audit seo avec le contenu, le maillage interne, les partages sociaux ou encore les liens entrants.

Découvrez notre parcours certifiant pour les formateurs : Créer son organisme de formation, animer une formation efficacement et promouvoir son offre…
En savoir plus
Bonjour Serge,
bravo pour cet article. Clair et bien renseigné !
Il est clair, pour moi, que la rapidité d’un site a un impact sur le SEO. Il a d’ailleurs plein d’autres impacts : SEM, taux de rebond, nombre de pages vues / visites, taux de conversion…
Merci Serge pour ces éclaircissements concernant la vitesse du chargement de page. Je ne connaissais pas le terme pogosticking mais je vois que cela ressemble étroitement au taux de rebond. Évidemment, Google prend en compte ce critère pour classer ses résultats.
Il existe des outils très efficaces pour analyser et optimiser le temps de chargement de son site. Pour ma part. J’utilise Google PageSpeed Insight et GTMetrix qui sont assez pertinents.
Excellent article, merci.
« Contrairement à Googlebot, du moins pour l’instant, le navigateur chrome récupère l’ensemble des éléments chargés sur la page (CSS, JS, image,…). »
Les choses ont changé assez récemment, puisque GoogleBot interprète maintenant le Javascript : http://googlewebmastercentral.blogspot.fr/2014/05/understanding-web-pages-better.html
On se rapproche donc de plus en plus d’un utilisateur lambda, et il y a fort à parier que l’affirmation « Ce qui est bon pour l’utilisateur est bon pour le SEO » va s’en trouver fortement renforcée.
Un autre indicateur discret de l’importance accordée par Google au sujet, est un indicateur d’impact sur le temps de chargement sur le site des Google Fonts : https://www.google.com/fonts#QuickUsePlace:quickUse/Family:Open+Sans
Merci pour cet article Serge.
Encore une fois l’intérêt de l’utilisateur semble servir le SEO, mais au-delà du SEO un site rapide permet souvent d’obtenir de meilleurs résultats (conversions).
Une légende dit même qu’Amazon a gagné quelques millions en réduisant son temps de chargement de quelques centièmes 😉
Merci pour vos encouragements,
@Emile @Cyrille Oui, la vitesse du site a que des effets bénéfiques, c’est même plus écologique 🙂 vu que les sites rapides demandent moins de ressources machine, ils chauffent moins.
Sur les conversions, c’est évident, et même encore plus facile à démontrer, le cas Amazon est un bon exemple.
J’envisage le SEO sur ses aspects les plus techniques mais aussi dans une stratégie marketing globale et la finalité d’une meilleure visibilité d’un site web, c’est souvent de convertir.
@Stéphane oui, ce sont de bons outils, j’en ai listé quelques uns ici:
http://www.creapulse.fr/outils-pour-monitorer-vos-performances/
‘@Damien je le dis dans l’article justement et cite le même lien 🙂 . Mais Si tu lies bien l’article, google ne lie pas tous les éléments d’une page web à l’échelle du web, mais seulement à titre expérimental pour l’instant.
Ceci dit, même si googlebot n’est pas au niveau d’un navigateur, il s’en rapproche de plus en plus et arrive de mieux en mieux à lire les javascripts simples.
‘@Serge Au temps pour moi j’avais complètement raté le lien !
« google ne lie pas tous les éléments d’une page web à l’échelle du web, mais seulement à titre expérimental pour l’instant »
Mon interprétation est légèrement différente : ce n’est plus expérimental dans le sens ou la démarche (sur le JS) est maintenant systématique. Cependant elle reste largement perfectible. (typiquement sur notre service, Google Bot ne s’en sort pas avec certains comportements de lazy loading)
L’univers du web est divisé en 4 groupes d’utilisateurs qui ont tous leurs idiosyncraties :
(a) Les créateurs de sites qui ont leurs objectifs techniques
(b) les utilisateurs de sites qui naviguent comme ils le peuvent selon leur nature et besoins
(c) les gens d’affaires qui sont nouvellement arrivés sur le web et qui ne connaissent rien des nombreux impératifs de la vente, tel le BOUNCE BACK et la vitesse d’affichage…
(d) les gens d’affaires dont c’est le métier que d’être retable et les agences centrées sur le BUSINESS qui cnnaissent tout des besoins humains dans un environnement de vente, virtuel et concret.
Même dans 20 ans, il y aura toujours des débutants. En 1995, c’étaient les lenteurs des modems qui taient les limites d’affichages… 20 ans plus tard, c’est Google et. al. qui reprenent le même flambeau de la satisfaction des usagers.
RIEN DE VRAIMENT NOUVEAU SOUS LE SOLEIL, ME SEMBLE T-IL…
La prochaine « nouveauté » annoncée est le HTTPS, ensuite ce sera autre chose… toujours pour acclimater l’utilisateur le mieux possible.
Bref, les gens d’affaires devraiet TOUJOURS consulter des professionnels de leur outil de vente pour ne pas être mis dans l’embaras de ne pas savoir des choses élémentaires sur leurs outils de vente. Ils ne vendront que plus.
Excellent article. Bravo Serge ! 🙂
Bravo, je suis tout à fait d’accord avec vous.
Me concernant j’utilise le site Internet GTmetrix qui est vraiment bien fait pour améliorer le temps de chargement du site et des pages.
Pour Google, ce critère est un moyen de réduire les coûts d’exploitation mais aussi d’apporter aux internautes une meilleure qualité de navigation.
D’un point de vue seo, le critère de la rapidité d’un site ne doit pas être sous-estimé.
Merci pour votre article très accessible et bien illustré. Donc, si je comprends bien, les sites fonctionnant sous WordPress ou un autre cms seraient donc désavantagés car ils sont en règle générale plus lent.
‘@Pierre, chaque CMS a ses défauts, aucun n’est naturellement optimisé, même les thèmes premiums qui se prétendent seo friendly. Il y a beaucoup de critères et plusieurs algos google, donc difficile à dire si un site sous wordpress est désavantagé, mais il est désavantagé par rapport à un site wordpress dont les performances ont été optimisées.
J’ai écrit un guide pour optimiser la vitesse des sites sous wordpress:
http://www.creapulse.fr/optimiser-et-securiser-wordpress/
Je trouve l’article très complet, très argumenté et très bien écrit, et rien que pour ça, bravo !
En revanche, je ne suis pas d’accord sur un point, nous confondons beaucoup vitesse de chargement d’un site, des pages et PageSpeed.
Rien que la différence entre site et page est importante, chaque page subissant bien entendu des chargements plus ou moins longs.
Je vais poser le problème à l’envers : Google est-il notre hébergeur ou notre serveur ? Google est-il une box ADSL ? Je dis ça car chaque serveur est plus ou moins lent en fonction des mises à jour, des bugs, de sa configuration (…) et surtout, les connexions Internet de chacun varie en fonction de l’heure, etc.
En d’autres termes, la vitesse de chargement varie selon le contexte, et il est très clair que Google ne peut en aucun cas juger un site selon des contextes qui varient d’heures en heures (et faire une moyenne ne serait pas pertinent pour le coup, lui qui cherche ça à tout prix…).
C’est pour cette raison que Google a inventé le PageSpeed, c’est-à-dire une batterie de tests cumulés qui favorisent une meilleure rapidité du site. Si un maximum de critères sont respectés, la vitesse s’en ressent mais c’est avant tout le PageSpeed qui sert de signal.
Le brevet que tu cites est dans la préhistoire du moteur, je peux t’en citer si tu veux qui soutiennent mes propos.
En gros, ce que tu dis est très juste, mais en partie, ce n’est pas la vitesse de chargement qui est le critère mais bien le PageSpeed qui est la somme de facteurs qui favorisent une meilleure vitesse de chargement, et la nuance entre les deux est forte…
(d’ailleurs, quel serait l’intérêt du PageSpeed sinon ?)
‘@Mathieu, le score pagespeed officialisé en avril 2010 n’est qu’un des facteurs de positionnement et c’est surement le moins important. Je ne mentionne pas explicitement le score pagespeed car google ne mentionne pas à ma connaissance l’utilisation directe de ce score, meme dans le dernier brevet en date de fevrier 2014, . C’est avant tout un outil pour nous aider a ameliorer les performaces des pages web.
http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-adv.htm&r=1&f=G&l=50&d=PALL&S1=08645362&OS=PN/08645362&RS=PN/08645362
Mais comme je le dis, la vitesse de chargement ou score pagespeed si tu veux l’appeler comme ça n’est qu’un critère minime en tant que critère direct de classement. Le plus gros impact d’un site rapide c’est son influence sur l’expérience utilisateur et donc son impact indirect sur les critères d’usages et le positionnement; et son influence sur le crawl et donc l’augmentation du potentiel de pages actives.
Cependant, en fonction des supports, les mobiles par exemple, ce score de vitesse est surement plus important.
Merci Serge pour cet article très bien documenté. J’ai écrit un article complémentaire sur l’impact de la performance sur la conversion qui devrait vous intéresser. http://www.gduchamp.com/blog/performance-experience-utilisateur/
Article très détaillé sur le sujet de l’impact en therme de SEO. J’ai redécouvert le terme de pogosticking que j’avais oublié. J’ai listé cet article dans les lectues indispensables de l’été pour les e-commerçants. Même s’ils sont sensibles à l’impact pour leur SEO, j’ai pensé que cet article détaillé pourrait encore d’avantage les sensibiliser.
http://www.success-store.fr/veille/ete-2014.php
Je n’étais pas convaincue de l’utilité de la vitesse d’affichage d’un site. J’ai tout de même fait quelques améliorations en ce sens (librairie CDN) ce week-end sur mon blog perso, pour voir…
Et bien j’ai vu : depuis 2 jours, mes visites ont doublé (de 700 / jour en moyenne à 1400) !
Est-ce lié à la vitesse d’affichage? A voir sur le long terme!
Connaissez vous un outils pour mesurer la vitesse de chargement des pages ?
Qu’elles valeur (temps de chargement) je dois exiger de mon développeur ?
Il y a plusieurs façons de le savoir, google webmaster tools déja qui te donne le temps de chargement de googebot et aussi pour l’utilisateur.
Il y a aussi un plugin sous chrome qui est sympa c’est « page load time » : https://chrome.google.com/webstore/detail/page-load-time/fploionmjgeclbkemipmkogoaohcdbig
Mais ça ne va calculer le temps de chargement d’une page qu’une par une.
Il faut savoir qu’un site comporte en général plusieurs modèles de pages différents. Par exemple, une fiche produit ne va pas charger de la même manière qu’une page de catégorie qui va lister plusieurs produits. Même, dans une même catégorie de pages, tu peux avoir des différences.
Il y aussi le temps de chargement dans le temps qui peux varier, en fonction de pic de trafic à certaines heures par exemple.
Le mieux, ce serait de crawler toutes les pages d’un site, de catégoriser les pages, et de faire une moyenne par catégories de page.
Pour d’autres outils de mesure de vitesse:
http://www.creapulse.fr/outils-pour-monitorer-vos-performances/
C’est intéressant comment google est devenu l’autorité absolue de l’internet. Je me demande s’ils vont continuer à consolider du pouvoir ou si un compétiteur apparaîtra pour bouleverser le jeu. Je crois que la compétition est une bonne chose pour quelquechose aussi important que l’internet
Franz Villefort | http://www.derytele.com
Bonjour,
en fait je me pose une question, ici on nous parle de temps de chargement de la page comme facteur seo
Mais d’après ce que j’ai entendu lors d’une récente formation, on nous dit que seul le temps de réponse du serveur est pris en compte, et la page peut peser des tonnes, Google n’en tient pas compte, alors ou le curseur se situe-t-il vraiment ?
Comme tu peux le voir dans l’article, le temps de réponse impacte le SEO à plusieurs niveaux: crawl, ranking, usage, … sans parler des taux de conversions.
De plus, même en facteur direct, Google interprete de mieux en mieux le javascript et charge une page presque comme un utilisateur. Le temps de réponse serveur ou TTFB n’est donc pas le seul élément qui compte.
D’ailleurs sur mobile, google a indiqué prendre en compte la performance du site très au sérieux et c’est évident que le temps de réponse serveur n’est pas le seul à jouer dans ce cas.
En gros, soit ta formation n’est pas très bonne, soit tu as mal intérprété ce que tu as entendu.
Je parle justement des performances côté serveur sur cet article et du TTFB aussi:
http://www.creapulse.fr/guide-seo-optimiser-performances-serveur/
Merci pour cet article, personnellement, j’ai testé avec insight et je suis à 88% , avec GTMetrics à 93% j’ai pu remarquer un gain direct de 3 places dans les résultats de recherche après optimisations, par contre je n’explique pas une telle différence de résultat entre ces deux sites de tests.
Très complet comme article. ca me semble un bon épreuve avec tous les démonstration présenté. Merci
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *







Le meilleur de Webmarketing & co’m dans votre boite mail.
Grâce à notre parcours certifiant “Développer son activité avec le webmarketing” , vous serez complètement autonome dans votre stratégie emarketing !
Sylvain LEMBERT
Consultant-formateur
Notre parcours certifiant “Création et développement d’une activité de formation” vous donnera les clés pour développer votre activité de formateur.
Sylvain LEMBERT
Consultant-formateur
Depuis 2006, Webmarketing & co’m accompagne les entrepreneurs et professionnels du marketing à monter en compétence.
Abonnez-vous à la newsletter et recevez notre guide pour réussir son blog

source

Catégorisé: