Pour tout abonnement, recevez notre livre blanc “Réussir son blog”.
Google ne se laisse pas aller en ce moment en nous sortant des mises à jour en veux-tu en voilà. C’était notamment le cas la nuit du 5 au 6 juin 2012 avec Google Pingouin 1.1. Et il a fait du mal à nouveau après la première mise en place intervenue le 25 avril.
C’est vrai qu’entre Panda et Pingouin, il est facile de s’y perdre. Pingouin est en fait un filtre contre la suroptimisation. Donc oubliez la triplette URL – Title – H1 avec votre mot-clé préféré, oubliez de temps en temps votre expression favorite dans vos ancres de liens, oubliez les techniques d’acquisition de liens trop faciles et qui n’apportent rien d’autres que du référencement. Il faut passer à la vitesse supérieure en pensant qualité ! On le dit depuis plusieurs années, mais maintenant qu’on se fait bouger dans les serps, il est temps d’agir. D’ailleurs, comme le montre le serpomètre, c’était avis de tempête hier.
Url, title, h1 bourrés de mots-clés. Pensez d’abord à vos visiteurs lorsque vous rédigez un contenu. S’il plait au visiteur, il plaira à Google.
Ayez une offre attractive avant de penser à la faire connaître. Plus vous ferez d’efforts pour bien présenter vos services, vos produits, et plus votre site sera de qualité. Ca parait simple, n’est-ce pas ? Mais c’est avec de nombreux tests que l’on arrive à optimiser son site : pensez ergonomie et accessibilité notamment.
On parle d’une limite à 50% de liens optimisés, mais il n’y a pas de vrai chiffre, le plus important est d’avoir un profil de liens naturel, donc quelques liens optimisés, d’autres sur de la longue traîne, et quelques uns sur des termes tout à fait désoptimisés (url, cliquez ici, voir le site, …).
Les communiqués de presse, les annuaires, les digg-likes, c’est bien beau, ce n’est pas difficile (même si ça demande tout de même de plus en plus d’efforts de rédaction). Mais est-ce que ça vous semble vraiment utile pour quelqu’un ces liens ? Pourquoi ne pas rejoindre l’équipe éditoriale d’un blog à forte notoriété spécialisé dans votre secteur d’activité par exemple ? Pour les sites e-commerce, il ne faut pas tout miser sur le référencement, il faut se servir de toutes les techniques d’acquisition de trafic à votre disposition : publicité (bannières, affiliation), comparateurs de prix, liens sponsorisés, …
Quel intérêt y a t-il à écrire un article sur un site de cosmétique pour votre activité de diagnostiqueur immobilier ? Aucun ! Alors n’allez pas faire d’échanges de liens avec des sites hors thématique. Essayez de développer de vrai partenariat avec des sites complémentaires au votre : guest blogging, échanges de messages sur la page facebook, rubrique dans une newsletter. Tout cela vous aidera à développer votre notoriété, auprès des internautes dans un premier temps mais également auprès de Google par la suite grâce aux différentes interactions que les internautes pourront avoir à propos de votre site.
Si vous vous dites que tout est gagné quand votre site tourne bien, vous reculerez à coup sûr. Qui n’avance pas recule. Vos concurrents ne vont pas attendre eux, donc il vous faudra toujours être sur le pied de guerre et chercher à améliorer votre site, votre offre.Ce discours a plus à voir avec du marketing qu’avec du référencement vous me direz, et vous avez raison. Mais c’est parceque le référencement ne peut pas être la seule carte que l’on joue, il faut miser sur toutes les techniques à notre disposition pour avancer. Et Google nous aide à le comprendre avec ses mises à jour de plus en plus fréquentes et intenses.
Vous l’aurez peut-être noté, mais les sites qui sont les plus touchés ne sont pas les e-commerce. La raison ? Souvent, ils ne mettent pas tous leurs oeufs dans le même panier eux !
Finalement, cette mise à jour de Google Pingouin 1.1 ne nous apprend pas beaucoup plus de chose que la première, si ce n’est qu’il faut penser plus globalement. Le référencement ne se suffit pas à lui-même.
Découvrez notre parcours certifiant pour les formateurs : Créer son organisme de formation, animer une formation efficacement et promouvoir son offre…
En savoir plus
Merci pour ces conseils.
Finalement, ce ne sont que des conseils de bon sens. Mais certains ont voulu être trop gourmands !!!
Et se sont fait attaquer par le pingouin !
Finalement cette mise à jour, en pénalisant les sites sur-optimisés bourrés de mots clés, rendra la navigation plus agréable pour les internautes.
Très intéressant ton article ! Mais j’ai une question, mettre des liens dans les commentaires, celà reste t’il des liens optimisés ?
‘@ Ismaël : en effet, ce ne sont finalement que des conseils de bon sens, mais il est clair qu’ils sont loin d’être appliqués par tous les sites.
@Fil : c’est le but en effet. Le problème étant que certains sites référencés de façon très sale restent bien positionnés, sans bonne raison. Et d’autres sites qui ont un contenu, une offre plus intéressante ne sont plus visibles. Donc ce n’est pas que des mauvais sites qui sont repoussés dans les serp, … malheureusement.
@Image Drôle : tout dépend de l’ancre du lien. S’il s’agit d’une ancre dont tu te sers plus de la moitié du temps quand tu crées des backlinks, ca posera des problèmes oui. Par contre, si tu t’attaches à bien diversifier tes ancres, ça ira.
Le critère chance n’est pas à négliger non plus car on a vu des sites qui n’employaient aucune méthode « blamable » tomber dans les pattes du penguin..Vu que le Penguin ne semble pas très rationnel, il ne leur reste plus qu’à prier maintenant !
Merci pour cet article, en revanche, je ne suis pas tout à fait d’accord avec le conseil « laisser des liens non optimisé du genre cliquer ici ».
Google veut des sites de qualité, pourquoi subitement demanderaient-ils d’arrêter d’optimiser ? Sauf erreur de ma part, Google demande juste de ne pas avoir que des liens avec des « money keywords » et peu variés. Ca ne sert strictement à rien de faire des liens « cliquer ici », c’est une polémique qui a été lancé par quelques internautes un peu « paniqués ». Pourquoi serait-on pénalisé si on a que des liens optimisés, mais avec une grande variation d’ancre, vers des pages différentes ?
D’ailleurs, dans 99,9% des cas, les liens « cliquez ici » peuvent être remplacé par un call-to-action du type « recevez un devis gratuitement » ou « rejoignez la communauté ». Si le lien n’a toujours pas de mot-clé (encore que « communauté » peut en être un), il a en revanche le mérite d’inciter à cliquer, car il est plus parlant qu’un simple « cliquer ici ».
Mais sinon globalement, je suis d’accord avec le point de vue de l’article. Je rajouterais même un conseil supplémentaire:
– Ne créez pas 50000backlinks identiques en même temps (via des outils de backlink automatique par exemple), car Google trouverait plutôt louche que d’un seul coup autant de lien apparaissent sans raison aussi rapidement.
Très bonne remarque de conclusion ; effectivement il s’agit là plus de marketing que de référencement et c’est beaucoup plus logique de travailler dans ce sens.
Merci pour ce topo de l’avenir du référencement et du Webmarketing. En effet, le référencement va dériver de plus en plus en marketing social et autre, fini le bon vieux temps 🙂 A nous de nous adapter mais ce sera de plus en plus ardu de concurrencer les gros sites qui ont des services dédiés et des moyens considérables. A terme, il n’y aura plus que du Wikipédia, Facebook et consort sur la première page GG…
Est-ce qu’elle est arrivée la mise à jour sur google.fr ou juste en US?
‘@Christophe : en effet, vous avez raison pour les liens « cliquez-ici », il ne faut pas que cela devienne un mauvaise habitude, et pourtant ça en prend le chemin.
Mais je suis tout de même persuadé que quand des liens sont créés de manière complètement naturel par un internaute lambda, il arrive couramment que les liens soient de cette forme.
Donc, c’est un petit plus pour renforcer le côté naturel d’après moi. Mais cela est utile seulement dans le cas où on ne met pas d’autres actions en place que le référencement. Si d’autres actions de communication sont faites, il y a de fortes chances pour que vous gagniez en notoriété et que ces liens « cliquez-ici » & co soient créés vraiment naturellement.
@kamal : oui la mise à jour est également sur google.fr depuis la nuit du 5 au 6 juin.
Bonjour,
Il y a du mouvement depuis 2 jours mais vous êtes le seul à parler d’une mise à jour pingouin. Est-ce que cette mise à jour est officielle ?
Pingouin a au moins le mérite de remettre au coeur du ref les « bonnes pratiques » même si le fait de ne pas avoir un site « trop optimisé » est étrange… Cela sous entend que les webmaster ne doivent pas faire trop bien leur boulot, ou faire comme ci ils ne faisaient pas bien, étonnant, mais cela semble fonctionner !
‘@Natacha : Ah, merci bien pour ces précisions, tout cela est étrange. A quoi est dû tout ce changement si ce n’est pas un des animaux préférés de Google ??? Il va falloir se pencher sur la question.
[nota : merci de supprimer mon commentaire n°56180 ci-dessus]Merci pour ces conseils.
Je les partage totalement, d’autant plus que ce sont des conseils de bon sens.
Cependant, jusqu’à Penguin, les référenceurs disposaient de plans SEO qui fonctionnaient plus que bien (je pense aux plateformes dites de « CP SEO » qui permettaient de faire ranker un site rien qu’avec des liens sur de telles pages.
Badaboum ! C’est terminé. Maintenant, Google a décidé de sévir et nous renvoie vers les fondamentaux qu’il a édicté.
J’en parle assez longuement dans ma méthodologie (que j’ai appliquée, après l’avoir rédigé, ça permet d’avoir un guide sous les yeux) : http://www.unpeudeseo.com/2012/05/30/methode-sortie-penalite-google-penguin/
Bonne journée
pinguin a fait mal à mon site, il m’a fallu réorganiser mon site, désoptimiser le site
donc j’ai beaucoup de travail
C’est vrai que la désoptimisation est clé pour ne pas paraître pour un spammeur. Mais pour les petits sites avec très peu de liens, je pense que c’est toujours bon de bien optimiser et de désoptimiser ensuite avec le temps.
‘@Dge06 : il ne faut pas supprimer les balises h1, h2, il faut juste ne pas les optimiser sur la même expression exacte. Jouez sur les synonymes, sur des termes secondaires pour les diversifier.
@Audiofeeline : Google vise les techniques borderlines, d’accord, mais pas uniquement le black hat. Enfin la question est : Où s’arrête le white et où commence le black ? A partir du moment où l’on cherche à optimiser son site pour bien apparaître sur Google, ce pourrait être du black hat finalement.
Pour les réseaux sociaux, tu as raison, ce sont des leviers importants. Plus ou moins selon le secteur d’activité par contre…
Il ne faut pas non plus tout défaire pour refaire quelque chose.. il faut simplement comprendre les exigences de Google en analysant les différentes mises en place sur votre site.
Il faut éviter la sur optimisation on-site et off-site. Si vous chargez la mule forcément Google va voir que rien n’est naturel, DONC pas orienté internaute.
On le dit depuis quelques années qu’il faut varier les ancres, les sources etc…
Les sites plombés sont le plus souvent des sites qui n’ont pas subit une réelle réflexion durable sur les SERPS.
Le guest bloging j’y pense depuis longtemps le prob lème (outre le temps) c’est qu’une fois un article de qualité rédigé on à tendance à vouloir le poster sur son propre blog plutôt qu’ailleurs.
Article qui a le mérite d’être concis et clair, j’aime 🙂
Idem ici au Canada, mon site de CP autopromotion.ca a aussi connu les foudres de Google.
À savoir s’il s’agit d’un Panda ou d’un Pingouin, c’est secondaire (pour ma part je trouve que cela ressemble plus à un (Portuguese Man-of-War).
Désolé, mais pour moi l’article ne touche pas le fond du problème, au contraire il ne fait que répéter des choses dont on parle depuis des années.
Cela fait des lustres qu’on parle de user expérience, donc cela n’a rien de nouveau.
Aussi pénaliser les sites qui remplissent bien comme il faut le title, le h1 et choisissent la bonne url, n’a aucun sens.
Ainsi, à encore cet article, si je publie une page sur la recette de la tarte aux pommes, ceci me pénaliserait :
url : recettes/tarte-aux-pommes.html
Title : Tarte aux pommes, recette simple et rapide
H1 Recette pour la préparation de la tarte aux pommes
Ceci selon vous serait alors de la suroptimisation ? Désolé mais à mon avis cela n’a pas de sens.
Mais si c’est vous qui avez raison, alors quel url, quel title et quel h1 choisirez-vous ? Voilà une question à laquelle l’article ne répond pas.
Encore une fois, le problème n’est pas la suroptimisation, les problème est que l’optimisation ne suffit plus.
Mais l’optimisation reste un élément fondamental de votre référencement, car le pire qu’il peuvent vous arriver est de vous retrouver avec un site qui non seulement n’est pas génial pour l’utilisateur mais en plus qui est sous optimisé 😀
Ce serait dommage.
Je suis convaincu que la triplette ne fait pas pénaliser un site à lui seul donc on est d’accord.
Mais ça + un nom de domaine ayant les mots-clés, + trop d’ancres optimisées sur ce terme, qui plus est issues uniquement de sites de CPs par exemple, et là je suis convaincu que la pénalité n’est pas loin.
Donc pour moi je problème est bien la surroptimisation : l’optimisation trop poussée et pas assez naturelle.
Et pour ce qui est de l’expérience utilisateur, tu as raison, on en parle depuis longtemps, mais as-tu l’impression que c’était toujours mis en application ? Moi non, et je trouve donc utile de continuer à communiquer dessus.
Ah oui, j’oubliais
il faut quand même dire que je suis d’accord sur certains points, qui eux aussi ne sont pas nouveaux…
Effectivement le Guest bloging, c’est très bien, mais qui dirait le contraire 🙂
D’ailleurs, qui serait intéressé pour le faire sur la thématique SEO ?
Tout à fait d’accord avec SeoSpere
La triplette n’a rien à voir… Je suis un adepte de la triplette et à mon avis cela ajoute à l’expérience de l’utilisateur.
Si je prends l’exemple de mon propre site, à mon humble avis: Google à simplement mis un filtre avec des mots clés tel que: Rolex Replica par exemple.
Lorsque ces Spammeurs déposaient leurs merdes sur mon site, WordPress étant performant, un ping était envoyé, le Googlebot passait alors et repérait la merde avant même que je l’aie ramassé (modéré)…
Mon erreur, fût d’ouvrir à tous la publication, à mon avis il faut modérer chacun des articles.
L’autre élément qui a dû irriter Google, le fait que les ancres étaient optimisées oui…, mais surtout le fait que ces liens n’avaient rien de commun entre eux.
Je pense qu’un bon netliking sera toujours la meilleur solution, pensez vous que google vois si votre site a de la qualité? moi je n’y crois pas à par la denstité,…. 😉
Il y a de multiples facteurs qui peuvent indiquer à Google si un site est de qualité ou pas.
La densité n’est pas un facteur qui peut prouver la bonne qualité du site, mais elle peut en revanche prouver l’inverse s’il y a trop d’exagération.
D’autres critères comme l’ajout de nouveaux contenus régulièrement, la reprise de ces contenus dans les réseaux sociaux, … sont des critères qui vont donner du poids à votre site aux yeux de Google.
Si votre site est aimé par les internautes, Google l’aimera probablement.
Merci Matthieu pour vos encouragements.
J’ai fait beaucoup (trop) de modifs et je ne sais plus quoi faire : toujours 300ème !!! et plus de nouveau contenu…ce qui est normal 🙁
J’ai fait une croix sur google.
Par contre, je me pose une question qui me semble primordiale :
Est-ce que Google ne serait-il pas tout simplement avec ses pingouins en train de préparer son moteur de recherche sémantique ??????
En clonant tout le monde sur des gabarits et en imposant un formatage du web, ça lui facilitera la tâche pour récupérer du contenu pertinent sans avoir à adapter de manière complexe son algo.
Tout dans la page de recherche bien formaté et bien ciblé publicitaire parlant…
CQFD ?
De rien Nat.
Pour ce qui est de la préparation de son moteur de recherche sémantique, je pense que c’est ni plus ni moins la même chose qu’avant. On s’est toujours aligné aux demandes de Google et il impose son gabarit depuis longtemps. Ca ne change donc pas aujourd’hui.
Par contre, il met clairement ses services payants bien plus en avant. Si on ne fonctionne plus avec le référencement naturel, nombre de clients vont transférer leur budget sur du Adwords.
Avec Panda, Google a clairement visé les comparateurs de prix, ce qui laisse davantage de place à Google Shopping qui va devenir payant…
C’est la loi de Google, et on a pas vraiment d’autres choix que de s’y adapter…
Bonjour a tous et bravo pour cette article.
Mais comme disait spin, le temps joue pour beaucoup dans un référencement. Plus les liens sont fait naturellement et mieux seront leur poids quand viendra le temps de se positionner. Si un site reçoit 200 backlink par jour, il est très possible de le voir rétrograde dans les résultats de Google.
Si Penguin a été fait c’est pour éviter les combines et trucs pour faire purement que du SEO,ce qui est le plus important est de faire un contenu textuel pertinent qui apporte des informations qui vont intéresser les internautes.
Votre adresse e-mail ne sera pas publiée.
Le meilleur de Webmarketing & co’m dans votre boite mail.
Grâce à notre parcours certifiant “Développer son activité avec le webmarketing” , vous serez complètement autonome dans votre stratégie emarketing !
Sylvain LEMBERT
Consultant-formateur
Notre parcours certifiant “Création et développement d’une activité de formation” vous donnera les clés pour développer votre activité de formateur.
Sylvain LEMBERT
Consultant-formateur
Depuis 2006, Webmarketing & co’m accompagne les entrepreneurs et professionnels du marketing à monter en compétence.
Abonnez-vous à la newsletter et recevez notre guide pour réussir son blog
ON A UN
CADEAU
POUR VOUS !
Vous souhaitez être au top de votre veille Webmarketing ? Abonnez-vous à notre newsletter et recevez gratuitement votre guide “Réussir son blog”.
Votre adresse mail
En cliquant sur “S’inscrire”, vous acceptez notre politique de confidentialité décrivant la finalité des traitements de vos données personnelles