Google a dévoilé sa nouvelle technologie d’intelligence artificielle appelée MUM (pour Multitask Unified Model), annoncée comme 1000 fois plus puissante que BERT. Comme chaque année, les annonces lors de l’événement Google I/O sont nombreuses et la mouture 2021 démarre sur les chapeaux de roues…
MUM, comme son nom l’indique, est capable de fonctionner en multitâches et permet de gagner du temps dans les traitements et les analyses de données. Ainsi, la technologie permet de comprendre et répondre plus rapidement aux questions ou requêtes diverses. Google espère ainsi qu’il faudra moins de recherches à l’avenir pour résoudre des problèmes complexes, comme BERT l’avait déjà permis en son temps.
MUM, comme BERT, est basé sur une architecture Transformer, à savoir un réseau de neurones récurrent (RNN pour recurrent neuronal network) qui aide nettement à mieux comprendre les langages et à procéder à des tâches telles que la traduction de contenus en direct ou encore des jeux de questions-réponses. L’idée est ainsi de pouvoir plus facilement répondre à des besoins en matière de recherche vocale, bien plus complexes à résoudre. En effet, MUM, via Transformer, est capable de mieux comprendre un contexte de requêtes et d’y répondre sans que tous les besoins soient explicités. Déjà compatible dans 75 langues, son aspect multitâches permet d’accélérer les processus mais surtout de pouvoir répondre mieux aux demandes particulières. Dernier aspect à prendre en considération, MUM est multimodal, il comprend donc les informations à travers les texte et les images et, à l’avenir, pourrait s’étendre à plus de modalités telles que la vidéo et l’audio.
Google fournit un exemple concret : “J’ai parcouru le mont Adams et je souhaite faire une randonnée sur le mont Fuji l’automne prochain, que dois-je faire différemment pour me préparer ?”. Humainement, cette question pourrait facilement être contextualisée et comprises, mais pour un moteur de recherche, cela le perdrait. En effet, la question “que dois-je faire différemment pour me préparer ?” implique que le moteur ait compris que l’on parle de randonnée en montagne, du mont Fuji ou encore de préparation à la marche, etc. Avec MUM, Google pourrait comprendre cette requête complexe et générer une réponse en fournissant des résultats pertinents à approfondir. Dans ce cas, Google ne répondrait plus à de simples mots clés, mais bel et bien à des requêtes contextualisées, comme l’ont déjà fait BERT ou même RankBrain par le passé.
Google a déjà lancé des projets pilotes internes avec MUM et est sorti plutôt enthousiasmé par son potentiel d’amélioration pour les produits Google. Certes, MUM ne va pas changer toutes les SERP composées de requêtes simples, mais la technologie va permettre d’aller encore plus loin en matière de compréhension du langage naturel et d’analyse des requêtes complexes. Finalement, Google améliore rapidement ses modèles et cela lui permet de modifier nettement ses technologies tous les deux ans voire tous les ans (pour rappel, Google a enchaîné Hummingbird, Rankbrain, BERT et maintenant MUM en peu d’années…).
Auteur : Alexandra Martin / Mathieu Chartier
Editeur : Eyrolles
Prix : 32,00 € (345 pages)
Auteur : Alexandra Martin / Mathieu Chartier
Editeur : Eyrolles
Prix : 32,00 € (570 pages)
Auteur : Alexandra Martin / Mathieu Chartier
Editeur : Eyrolles
Prix : 29,90 € (522 pages)
Auteur : Mathieu Chartier
Editeur : First Interactive
Prix : 19,90 € (411 pages)
Auteur : Mathieu Chartier
Editeur : First Interactive
Prix : 29,90 € (622 pages)
Ce blog est le résultat de plusieurs années de travail mais il ne fait pas manger son homme. Découvrez l’agence web et l’organisme de formation géré par Mathieu Chartier et n’hésitez pas à prendre contact pour suivre des formations personnalisées.
Tous droits réservés © Blog Internet-Formation 2009 – 2023