Attention à l'impact de la cybersécurité sur le SEO

Referencement

SEO / Referencement 95 Views comments

Attaque DOS, Injection SQL, Malware, Cyberattaque, Hacking, anti-intrusion, Scrapping, Pen check… Une série de termes s’est accru dans le quotidien des référenceurs web optimization & SEA avec leurs sites, au lendemain des attaques de sites gouvernementaux, des vols de données ou du rançonnage de sites E-Commerce. Or, la plupart des mesures de mise en sécurité des sites peuvent affecter le crawling de Google pour le référencement naturel des pages net et campagnes payantes en SEA.&

Le nombre complete de logiciels malveillants détectés augmente depuis 10 ans. ©& AVTEST

La cybercriminalité profite de la pandémie (+400% depuis la Covid-19 d’après Alert MSSP) pour tirer revenue des failles non corrigées avec la baisse de vigilance liée à la période. Or, la plupart des mesures de mise en sécurité des websites peuvent affecter le crawling de Google pour le référencement naturel de vos sites et vos campagnes payantes en SEA. Voici quelques factors d’consideration aux mesures que vous envisagez de prendre pour éviter de classer les moteurs de recherche comme des cyberattaquants& !

La sécurisation d’un website ne passe pas seulement par l’achat d’un certificat SSL pour obtenir un protocole https. Ce Protocole sécurisé est d’ailleurs inutile contre toutes les attaques que nous allons évoquer dans cet article.

Nombreuses sont les conséquences lors d’une attaque ou d’une tentative : le website devient inaccessible dans le cas d’une attaque DDoS ou présente un risque pour vos utilisateurs si nous parlons d’une injection SQL. Dans le premier cas, le website subit une surcharge de requêtes qui provoque soit une extrême lenteur, soit une accessibilité complète. Bref, une state of affairs très souvent stressante pour les responsables, les obligeant à prendre des mesures radicales pour éviter au plus vite une nouvelle fermeture temporaire. Le manque à gagner à la suite de ce sort d’attaque n’est pas seulement financier, cela impacte aussi l’picture de la société.

Sécuriser son website pour éviter de tuer le search engine marketing de son website

Google, dans son objectif quotidien de présenter la meilleure des réponses à chaque recherche des internautes, tient compte aussi de la sécurité des sites. Son objectif est évidemment de ne pas faire prendre de risque à ses utilisateurs et donc, de présenter des sites 100% sûrs ! D’ailleurs, Google, dans le cas où vous avez ouvert une search console, peut vous prévenir à minima d’une hausse d’erreur inhabituelle à l’an infection de votre website par un logiciel malveillant. Dans le cas d’une contamination, Google aura identifié votre website comme étant infecté d’un malware et votre classement dégringolera pour ne plus être mise en avant aux internautes !

Exemple de website infecté ©& Seize

Pour finir sur l’aide que vous apporte Google, dans la lutte contre la cybersécurité, la première mesure souvent citée concerne la mise à jour de votre CMS. Google peut vous envoyer une notification lorsque votre CMS est une ancienne version avec des failles connues.

Tout bloquer à tout prix !

Le service de sécurité informatique d’une entreprise cherchera, pour éviter les attaques, à réduire à peau de chagrin les espaces d’intrusions. Elle se prémunit, en mesure préventive, de limiter les accès des websites aux origines douteuses, aux fréquences de passage intense ou étonnement automatisés. Son objectif est de concentrer les passages à une seule voie extrêmement surveillée pour limiter au most les risques.

Malheureusement, les actions entreprises peuvent clairement devenir un frein voire un blocage pour le passage des moteurs de recherche qui restent des outils automatisés (crawleur) avec une empreinte comparable aux logiciels malveillants.

Quelles mesures web optimization friendly pour se protéger des cyberattaques ?

Aujourd’hui, la majorité des sites ont acheté leur certificat sécurisé pour obtenir un protocole en https. L’une des principales motivations était d’améliorer leur référencement (ce qui reste à prouver). Le principe d’avoir un certificat SSL permet de crypter les données qui transitent vers votre website. Sans ce certificat, vous risquez de compromettre la sécurité de vos visiteurs dans les étapes de paiement par exemple.

Non, Google ne fait pas d’attaque DooS

Les attaques DooS (déni de service distribué) consiste à saturer un website d’appel vers votre website pour afficher 1 ou des pages par de multiple requêtes. En général, les serveurs ne supportent pas ce sort d’interrogation en masse et dans le cas où ils ne sont pas équipés de safety, ralentissent et plantent. Le website devient alors inaccessible sur une courte durée et retombe si l’attaque continue.

Google est régulièrement incriminé comme étant la trigger de ralentissement d’un website voire d’indisponibilité de ce dernier. Avant d’affirmer cela, il faut être sûr que la Mountain View soit derrière le consumer agent Googlebot. Si Google est réellement le moteur qui fait tousser votre serveur, alors vous devez vous poser des questions sur votre infrastructure : est-elle réellement bien dimensionnée ?

Plusieurs providers comme Akamai ou Cloudflare proposent des solutions de blocage des attaques DooS, permettant d’identifier les sources de ces attaques par différentes couches. Cela passe à la fois par l’identification du consumer agent avec un blocage sur tous les identifiants contenant *bot*.

La mesure de détection peut aussi se faire sur la fréquence des interrogations. Aucun humain ne viendrait appeler les pages d’un website avec une fréquence régulière de 5 pages par seconde par exemple.

Enfin, certains systèmes détectent aussi en amont l’IP de l’entité qui demande accès à la web page et peut être bloquée si elle est jugée comme source d’attaque régulière.

Or, Google, crawle depuis une IP américaine, avec un consumer agent GoogleBOT et avec une fréquence assez automatisée pouvant laisser croire à un botnet& malveillant.

Remark éviter que Google ne soit bloqué ?

Quand une entreprise subit une attaque, le service sécurité de l’entreprise a souvent carte blanche pour que cela ne se reproduise plus. Généralement, les mesures sont tellement restrictives que les moteurs de recherche sont souvent pris dans les mailles du filet avec comme conséquence un déréférencement de votre website. Or, même s’il semble évident que bloquer les moteurs de recherche est une hérésie pour le search engine optimisation d’un website, il n’est pas toujours easy de faire entendre qu’une whitelist pour eux doit exister.

Tout d’abord, si on veut autoriser Google à passer outre les mesures de sécurité, il ne suffit pas seulement d’autoriser les consumer agent utilisant Googlebot& pour ouvrir la voie à son crawleur. Il est, en effet, assez easy d’utiliser ce consumer agent pour lancer des crawls sur des websites et se faire passer pour ce dernier.

La answer de réanswer DNS pour détecter Google

Google ne communique plus de plage d’IP pour détecter si ce sont bien les serveurs de San Francisco qui sont en motion. En effet, Google peut crawler ou tester des websites depuis des IPs partout dans le monde pour vérifier, par exemple, que le website reste identique. Google suggest une answer à mettre en place pour vérifier que le crawleur Googlebot est bien celui de Google : la réanswer DNS.

Lorsqu’une personne/entité visite trop& votre website, vous obtiendrez ainsi dans vos logs, son adresse IP ! En effectuant une réanswer DNS sur cette IP, vous pourrez ainsi obtenir le domaine qui se trouve derrière : dans le cas d’une IP Google, vous obtiendrez google.com ou Googlebot.com.

Pour éviter la latence du website, la answer est de tester les IPs de requête trop fréquente avec un consumer agent Googlebot pour trier les& hits légitimes de ceux qui ne le sont pas. Ne le faites pas systématiquement pour éviter de charger vos serveurs et risquer d’être à l’origine de lenteur voir de panne de vos infrastructures.

Comments