Google et NLP : quels changements pour le SEO ?

Referencement

SEO / Referencement 122 Views comments

Google et le NLP& : le traitement du langage naturel est-il un recreation changer pour le search engine optimization& ?

Depuis plus de dix ans, Google investit massivement dans la recherche et le développement de technologies basées sur l’intelligence artificielle et ses dérivés, notamment le traitement du langage naturel.&

On le retrouve non seulement dans de nombreuses purposes entrées dans nos foyers (les traducteurs automatiques et les assistants virtuels au premier chef), mais aussi dans l’algorithme du moteur de recherche &- utilisé quotidiennement par plus d’1 milliard d’internautes. En quoi ce travail de Google NLP (Pure Language Processing) change-t-il la donne pour le référencement naturel& ? Est-ce vraiment un recreation changer en matière de web optimization& ?

C’est quoi, le traitement du langage naturel& ?

Le traitement du langage naturel (NLP en anglais) désigne la capacité d’un système à comprendre le sens des mots à partir d’un texte écrit ou du langage parlé, afin d’en saisir les subtilités et les nuances& : le ton, le phrasé, le choix de certains mots plutôt que d’autres, le contexte, les émotions, and so on.

La volonté de faire intégrer le langage naturel aux machines n’est pas une marotte récente. Voilà plus de 50 ans que les ingénieurs travaillent à rendre le langage humain plus aisé à comprendre pour les programmes informatiques, et qu’ils s’attachent à développer des technologies capables d’employer ce expertise. Après un bond en avant dans les années 80 avec les débuts du machine learning, c’est l’augmentation exponentielle de la puissance de calcul et des capacités de stockage dans les années 2000 qui a ouvert un boulevard à la recherche dans ce domaine.

Le however& ? Fluidifier les émodifications entre les êtres humains et les machines, simplifier et automatiser les tâches, traiter d’importants volumes de données, et in nice optimiser le quotidien des utilisateurs. Dans cette optique, il faut non seulement que les programmes soient «& typeés& » au langage naturel, mais aussi qu’ils puissent apprendre au fur et à mesure de leurs interactions avec les utilisateurs afin de développer leurs compétences et de répondre toujours mieux aux demandes. Pour cette raison, le NLP se place au croisement du machine et du deep learning, comme sous-discipline de l’intelligence artificielle.

(Source& : encora.com)

Quelles sont les purposes du Natural Language Processing& ?

Concrètement, un algorithme qui intègre le NLP s’appuie sur un système de schémas, de récurrences et de corrélations pour décomposer le langage et pour en tirer du sens. Il segmente les éléments constitutifs de la phrase, sépare les groupes de mots pour leur attribuer une fonction, étudie leur morphologie, s’attache à les remettre dans leur contexte. Il mène des analyses au niveau lexical, syntaxique, sémantique, pragmatique et émotionnel, pour convertir ce langage en données brutes à exploiter. En vertu de cette démarche, le traitement du langage naturel permet à un programme de saisir les nuances de la langue, comme les figures de type, les sous-entendus, l’ironie ou l’humour, et de comprendre l’intention qui se cache derrière une proposition.

Les purposes en sont déjà nombreuses, mais les utilisateurs ignorent trop souvent que les programmes qu’ils emploient intègrent cette technologie. On retrouve ainsi le NLP dans les outils de traduction instantanée, de reconnaissance vocale (comme les assistants virtuels embarqués sur les smartphones et les enceintes connectées), d’analyse des émotions, mais aussi dans les chatbots (qui «& apprennent& » à mieux répondre aux demandes grâce au deep learning associé au traitement du langage naturel) et leurs dérivés, à l’picture des voicebots et autres callbots. Et il ne s’agit là que des purposes les plus courantes, celles qui touchent directement les consommateurs& &- d’autres utilisations plus methods voient régulièrement le jour au sein des entreprises.

Google et le NLP& : quand le traitement du langage naturel s’invite dans l’algorithme du moteur de recherche

Google a très rapidement saisi les opportunités ouvertes par le traitement du langage naturel, et intégré cette technologie dans certaines de ses purposes& : Google Translate, Google Assistant, et plus récemment Google NLP (une API servant à l’analyse des contenus textuels, mais l’on y reviendra). Et, bien sûr, dans son algorithme de recherche.

Pour rappel, le moteur de Google ambitionne d’apporter aux internautes des informations pertinentes afin que ces derniers soient pleinement satisfaits de leur expérience et qu’ils utilisent de nouveau l’outil. Pour garantir un haut degré de qualité et de pertinence dans les résultats de recherche, le moteur optimise très régulièrement son algorithme de façon à mieux indexer, classer et positionner les pages net, et à transmettre aux usagers des réponses toujours plus précises aux requêtes qu’ils formulent.

Cela suppose de bien comprendre ces requêtes& : non seulement les termes employés, mais aussi le sens de la phrase, l’intention qui se cache derrière, et même les émotions qui s’en dégagent. C’est vrai des requêtes écrites, mais aussi des recherches formulées à l’oral dans le cadre de la recherche vocale.

Le lancement de BERT ou la révolution NLP appliquée à la recherche net

Dès 2011, Google collabore avec des ingénieurs pour lancer ses premiers travaux autour du traitement du langage naturel et de ses purposes en matière de recherche (dans le cadre du Search, donc). Il faut attendre 2019 pour que la firme lance BERT, une mise à jour de l’algorithme qui, selon ses propres dires, doit améliorer la pertinence des réponses pour environ 10 % des requêtes.

BERT (Bidirectional Encoder Representations from Transformers) est une évolution plus importante qu’elle n’en a l’air de prime abord. Grâce à cette mise à jour, l’algorithme ne se contente plus de traiter les requêtes mot à mot, mais les substitute dans leur contexte et tisse des liens entre les termes employés dans le but de dégager le sens profond de la phrase. Il attribue même un «& rating& » aux émotions associées à la requête, selon qu’elles sont positives, négatives ou neutres.

Or le Natural Language Processing est un peu le cerveau de BERT. C’est cette technologie qui donne les moyens à l’algorithme de mieux appréhender les requêtes et de relever les signaux qui les entourent, d’évaluer les sentiments de l’internaute, et de saisir d’emblée les nombreuses requêtes entièrement nouvelles &- que Google estime alors à environ 15 % du complete.

En 2020, une amélioration de BERT voit le jour sous le nom de SMITH (Siamese Multi-depth Transformer-based Hierarchical). Si les deux sont très proches, SMITH pousse cependant le bouchon plus loin, en étant capable notamment d’isoler avec plus d’efficacité les portions d’une requête les plus pertinentes. En 2021, enfin, c’est la mise à jour MUM (Multitask Unified Model) qui vient approfondir les skills de BERT en améliorant la compréhension des requêtes complexes.

BERT, SMITH, MUM& : ça change quoi pour le moteur de recherche& ?

Ce qu’il faut retenir de ces trois mises à jour, c’est que l’algorithme du moteur de recherche ne regarde plus les termes individuellement, mais qu’il s’intéresse à la requête dans son ensemble et à tout ce qu’elle veut dire… sans pour autant le dire explicitement. Il comprend mieux, également, les phrases complètes formulées en langage naturel, telles que les utilisateurs les prononcent à l’oral en s’adressant à leur assistant virtuel.

Par extension, Google porte aussi un regard plus attentif aux contenus que l’algorithme va proposer en réponse à ces requêtes. Il peut isoler plus aisément des parts d’un texte afin d’apporter une réponse plus précise aux internautes& : c’est ce qui permet au moteur de surligner le passage d’un contenu qui correspond aux termes recherchés, de manière à envoyer l’internaute directement vers la partie pertinente de la page.

Ce que Google espère tirer de l’introduction du NLP dans son algorithme de recherche, c’est une amélioration notable de la qualité des réponses, donc de l’expérience utilisateur dans tous ses features (recherche écrite ou vocale, requêtes génériques ou longue traîne, and so on.). Plus les internautes trouveront des réponses pertinentes à leurs demandes, plus ils seront satisfaits, et plus ils utiliseront Google. Et cela passe par le traitement du langage naturel, comme l’explique Pandu Nayak, le «& monsieur innovation& » pour le Search& : «& Avec les dernières avancées dans la science de la compréhension des langues (…) nous améliorons considérablement la façon dont nous comprenons les requêtes, ce qui représente l’un des plus importants bonds en avant dans l’histoire de la recherche& ».

Le traitement du langage naturel par l’algorithme de Google& : un recreation changer pour le search engine optimisation& ?

En résumé, le NLP aide Google à mieux comprendre les requêtes, donc à mieux y répondre. Et ça change tout. Automotive dès lors que l’algorithme se repose sur le traitement du langage naturel,& les créateurs de contenu se doivent de proposer des informations plus spécifiques, plus pertinentes et plus descriptives afin de mieux coller aux attentes des internautes.

Remark cela se traduit-il, concrètement, en matière de référencement naturel& ?

  • Les combinaisons de mots-clés et la sémantique prennent plus d’importance. En proposant des contenus aux internautes, Google cherche à coller à leurs intentions. L’algorithme va donc se focaliser sur les pages qui reflètent le mieux ces intentions, en s’intéressant non pas uniquement aux mots-clés principaux, mais aux combinaisons entre les différentes expressions pour lesquelles les pages ont été optimisées, ainsi qu’aux champs sémantiques employés. Le moteur a d’ailleurs mis à la disposition des professionnels un outil permettant d’analyser la construction des contenus les mieux positionnés et de «& voir& » ce que voit l’algorithme, dans le however de cibler les mêmes combinaisons de mots-clés& : cet outil, c’est Google NLP.
  • Les liens internes et externes prennent une dimension nouvelle. En vertu du NLP, ces liens doivent être toujours plus cohérents avec le contenu des pages, qu’il s’agisse de leur placement, de leur structure ou de l’ancre utilisée. En linkbuilding comme en maillage interne, un lien ne peut pas être placé au hasard dans un contenu& : il doit avoir du sens au regard de la portion de texte dans lequel il s’inscrit, et avoir pour ambition d’améliorer l’expérience de l’internaute. Leur rôle en search engine optimisation, déjà essential, s’en trouve encore approfondi.
  • L’intention de l’utilisateur se place au cœur de tout. Depuis la mise à jour Colibri en 2013, Google a clairement mis l’intention de l’utilisateur au cœur de son algorithme. BERT, SMITH et MUM constituent les premiers pas concrets dans cette path, puisqu’en comprenant mieux les requêtes, ils visent à saisir également l’intention de l’internaute afin d’y répondre plus efficacement.

(Supply : robertkatai.com)

  • & Des réponses plus spécifiques deviennent essentielles. Google valorise de plus en plus la spécificité du contenu. Par «& spécificité& », il faut entendre le fait qu’un contenu soit focalisé sur une ou plusieurs questions auquel(auxquelles) il tâche de répondre en apportant un maximum d’informations pertinentes. Ce qui signifie qu’il faut privilégier les pages dédiées à des requêtes précises et éviter de produire des contenus volontairement vagues, flous, dispersés. Il s’agit ici de répondre à des requêtes de sort «& longue traîne& », qui représentent 70 % des recherches et garantissent un taux de conversion plus élevé que les mots-clés génériques. (Il ne faut pas avoir peur de faire lengthy et de traiter différents sujets dans un même contenu, puisque Google peut surligner les portions qui correspondent à la requête de l’internaute, comme on l’a vu plus haut.)

Alors, ce NLP appliqué au moteur de recherche, est-ce vraiment un recreation changer ? Les webmasters et les spécialistes du référencement naturel doivent-ils faire table rase du crossé et reconstruire leurs stratégies à partir de zéro& ?

Non, inutile d’aller jusque-là. Automotive il s’agit moins d’une révolution soudaine et incontrôlée que d’une évolution progressive et logique, qui va dans le sens de ce que Google essaie de faire depuis plusieurs années. De sorte que les stratégies web optimization qui intègrent du contenu de qualité, des mots-clés qui reflètent les intentions de recherche, des réponses spécifiques et précises, et des liens qui respectent le contexte d’une web page, sont d’ores et déjà parmi les bons élèves aux yeux de Google version NLP.

Néanmoins, comprendre le traitement du langage naturel et le travail effectué par Google dans ce domaine est indispensable pour saisir toutes les implications de cette technologie pour le web optimization, et travailler toujours plus à optimiser les contenus pour qu’ils soient adaptés aux nouveaux besoins du moteur… comme des utilisateurs& !

Comments