Sélectionner une page
Publié par Olivier Andrieu | 20 Sep 2007 | | Temps de lecture : 2 minutes
Le moteur de recherche Mozbot propose depuis aujourd’hui les “MozClouds“, un petit outil qui permet de créer des nuages de mots clés à installer sur son site.
Son utilisation est très simple : vous saisissez l’adresse d’une page web (page d’accueil ou page interne d’un site) et l’outil en extrait les mots clés le plus souvent présents avec leur nombre d’occurrences. Vous choisissez les mots qui vous intéressent dans la liste, la couleur des liens, le fait qu’ils soient soulignés ou non, la police de caractère, le mode de tri, le type de recherche (sur le Web, sur votre site ou sur les deux) et vous n’avez plus qu’à copier-coller le code HTML fourni dans vos pages. Le tour est joué.
Voici, par exemple, le “MozCloud” créé pour la page d’accueil du site Abondance.com :
Cet outil est encore proposé en version bêta. Nous sommes preneurs de toute suggestion, critique, idée pour l’améliorer, rapport de bug, etc. avant de le lancer officiellement.
N’hésitez donc pas à le tester et à nous dire ce que vous en pensez !
Gardez donc la tête dans les nuages (de mots clés) avec les Mozclouds à l’adresse : http://web.mozbot.info/mozclouds/
Partager :
Note :
Bonjour,
Pour info l’adresse est morte : http://web.mozbot.info/mozclouds/
Thierry
Bonjour,
je viens me méler d'une conversation de spécialistes et vous me pardonnerez mes mots imprécis .
J'avais envie de réaliser un nuage de liens sur mon blog pour éviter une trop longue liste de liens fastidieuse et peu esthétique. Il faut dire que mon blog est pour moi une sorte de terrain de jeu dans lequel je m'amuse énormément. je suis auteur de littérature de jeunesse et je m'en sers pour communiquer autour de cette activité.
Donc, j'ai utlisé l'outil que vous conseillez. Je n'ai jamais ni de près, ni de loin , appris le langage HTML mais il ne m'a pas fallu longtemps pour repérer l'adresse du site commercial vers lequel les mots du nuage renvoyaient et les remplacer par les adresse qui m'interessaient.J'ai de même "neutralisé" les mots qui ne devaient renvoyer sur rien. J'ai ensuite très facilement bidouillé les tailles et les couleurs, moyennant une petite recherche de code et de palette sur internet.
Donc, merci beaucoup. Les néophites comme moi, moyennant un peu d'astuce, peuvent s'en sortir !! Evidemment, ce n'est parfait mais ça se laisse regarder…
à voir sur http://www.ghislaineroman.com/
à une autre fois sans doute …
Ghislaine Roman
Bonjour
Désolé, l'outil ne fonctionne plus.
Cdt
bonjour,
je rentre l'adresse de mon site:
http://www.osteopathebeziers.com mais j'obtiens un message d'erreur et je ne comprends pas pourquoi?
Pourriez vous m'aider car cet outil me serait très utile.
merci
Bonjour,
Aujourd’hui où en est « MozClouds » exactement avec toutes les bonnes remarques données ci-dessus ?
je n’ai pas trouvé l’information 🙁 je pense donc qu’un complémént à votre article serait utile. Merci.
J-L.R
>> En revanche, l’outil semble ne pas beaucoup
>>aimer l’unicode UTF-8 (testé sur un blog
>>wordpress).
>Euh, avec l’adresse du site testé, >ça serait parfait, pour qu’on >puisse débugguer éventuellement !
Voici ce que j’ai testé. Le site est peut-être lui-même mal configuré ?
http://www.ensm-douai.fr/admi-douai
> cela renvoit sur mozbot et de la pub de ce moteur qui fait concurrence à celle de notre site ça c’est moins positif …
Bjr
Ma foi, si vous voyez un autre moyen d’offir un service gratuit, nous sommes preneurs 🙂
Mais un outil « premium », payant, avec plus de fonctionnalités et sans publicité peut effectivement être une bonne solution. A voir.
Cordialement
Pardon si la question a déjà été posée : j’ai essayé sur la page d’accueil et l’outil ne prend en compte que les mots de la page d’accueil.
Comment fait-on pour que cela prenne en compte tous les mots-clé du site ?
(à part ça j’ai bcp ri du commentaire de id)
Bonjour,
1/ Aucun problème d’accents avec
[html lang= »fr »]
et
[meta http-equiv= »content-type » content= »text/html;charset=iso-8859-1″>]Je ne sais pas s’il faut l’un ou l’autre ou les deux (ou tout autre chose ?).
2/ Demande de génération de liens internes au site sur une page redirigée par un dns (nom de domaine > hébergement) : les liens ne sont pas générés. Mais cela semble être un problème général des moteurs de recherches. Exemples :
Requête « antivirus site:http://assiste.com«
2 pages trouvées
Le système ne fonctionne pas
Requête « antivirus site:http://assiste.com.free.fr«
1280 pages trouvées
Résultat idiot car sans aucune pertinence (il faudrait développer un « pagerank » !. Serait plus pertinent si une option permettait de limiter la recherche d’occurrences aux mots des url du site et des header des pages du site (balise Title) et, peut-être, quelques autres (urls des liens internes contenus dans les pages, balises « alt »…).
3/ Les nuages de tags ont donné lieux à des discussions entre webmasters et utilisateurs (visiteurs) et sont considérés comme une salissure. Ils défigurent les sites et ne sont pas « fun » du tout. Des sites ayant mis cela en place sont désormais ignorés, voire exclus des recherches. Les résultats sont abracadabrantesques et dans 99,9% des cas d’aucun intérêt voire totalement hors de propos.
Les pressions sur certains Webmasters ont été telles qu’ils ont du mettre en place un bouton pour permettre la fermeture du layer contenant les tags avec mémorisation dans un cookie.
Commentcamarche a fini par supprimer ses nuages de tags.
4/ Ma position, en tant qu’intervenant en matière de sécurité, est que le résultat est similaire à celui de robots de spamdexing même si, en l’occurrence, il ne s’agit pas du tout de violer les moteurs de recherches. Et que l’on ne vienne pas me parler de Web 2.0 et de navigation transversale (qui se regarde en tant que contenu sémantique de tout le site).
5/ Les résultats d’une recherche affichent des liens commerciaux entrant en concurrence avec le contenu du site même si l’on a demandé une recherche uniquement en interne (sur le site et pas sur le web). Inadmissible lorsque les liens sont demandés « sur le site » et, lorsqu’ils sont demandés « sur le Web », ils doivent pouvoir être évités/supprimés.
6/ Suggestion : possibilité de choisir la génération sous forme d’une liste ordonnée en plus du format « nuage » (ce patchwork de mots en vrac est imbuvable et inexploitable par aucun visiteur !).
7/ Le système devrait reconnaître des expressions, par exemple
« en ligne »
« hors ligne »
« anti-spywares »
« pare-feu »
etc. …
Il pourrait trouver ces expressions dans une liste embarquée localement par chaque site (dans une url à nom réservé comme c’est le cas pour les maps de site) mais, peut-être, plus simplement, dans le contenu de la balise « keywords » qui est « normalement » valable page par page (s’il y a quelqu’un qui connaît le poids des mots des pages de son site, c’est bien le webmaster – surtout pour des sites statiques).
8/ Les résultats externes sont uniquement en français. Il faut pourvoir trouver des résultats dans une sélection d’autres langues que celle de l’OS.
9/ On peut aussi imaginer que chaque site propose à l’outil une liste de mots à exclure.
10/ Les idées de Nam (liste de mots « forcés », génération automatique limitée aux n (paramétrable) premiers mots les plus utilisés.
11/ Un outil d’occurrence des mots à travers tout le site (pour une navigation transversale en liaison avec l’idée « 10 » de mots forcés).
Cordialement
J’ai eu un coup au coeur en voyant le mot « cul » comme mot-clé sur ma page. Il ne figure nulle part, sauf… en tant qu’expression cul-de-lampe qui ne figure que comme texte alternatif (pas visible).
Comme utilité je vois aussi celle de peaufiner la rédaction de la page : ajouter, retrancher, modifier des mots-clés.
j’ai essayé sur mon site :
http://supercdi.free.fr
très facile d’utilisation, bon c’est posotif
cela renvoit sur mozbot et de la pub de ce moteur qui fait concurrence à celle de notre site ça c’est moins positif …
bon début à améliorer …
Ce serait beaucoup plus interessant si les liens allaient vers un page interieure au site recherché par defaut, et que si l’on clique sur le bouton en bas de page vers une recherche mozbot
Super retour, merci !
Pouvez-vous nou sindiquer sur quel site vous l’avez testé ? En effet, les accents semblent bien gérés sur certains sites et pas sur d’autres. Merci
Cordialement
Bonjour,
Je viens de tester car je cherche depuis longtemps une solution de ce type. Voici mon retour … constructif.
1. Résumé des problèmes : le nuage est calculé à un instant (alors que le Web évolue), il n’est pas toujours pertinent (présence de mots morts), il est illisible (gestion des accents).
2. Point bloquant :
Gérer les accents
3. Suggestion d’améliorations :
Gestion de la pertinences des tags
– liste d’exclusion de mots morts (articles comme le la les, variantes singulier/pluriel)
– pouvoir forcér la présence de mots (mots obligatoires dans le nuage).
Gestion automatique du « volume » de tags
– pouvoir indiquer un nombre de tags/mots souhaités
ou
– pouvoir définir un seuil : le tag n’apparait dans le nuage que si nombre d’occurences >= n
Pouvoir indiquer une fréquence de rafraîchissement du nuage correspondant à la ré-interrogation de la page d’origine.
4. Bonus sous forme d’option :
– affichage entre parenthèses du nombre d’occurences du mot (le poids illustré par la taille de la police n’est pas très précis).
Merci de votre retour
bjr
Je parle de la balise meta « robots » qui est prise en compte par tous les moteurs, majeurs s’entend…
Pour Google, c’est ici :
http://www.google.com/support/webmasters/bin/answer.py?answer=61050
Sinon, c’est effectivement l’une des rares balises « meta » prises en compte par le smoteurs, effectivement.
Cordialement
Je ne suis pas un pro, mais j’ai toujours entendu dire que le « tag » noindex n’est pas pris en compte par les robots de google.
Mais bon, vous devais surement être mieux au courant que moi.
Ben euh non. Les nuages de mots clés sont une fonction très connue et qui ne posent pas de soucis à mon avis. Les pages de résultats de Mozbot sont d’autres part taguées en « noindex » pour les robots donc aucun souci à mon avis de ce côté-là non plus. Sinon tous les sites qui proposent des nuages de mots clés seraient considérés comme des spammeurs et ça ferait de sérieux dégats 🙂
A ma connaissance, ce n’est pas le cas…
Bien cordialement
Vous ne pensez vraiment pas que cette abondance soudaine de liens vers les pages de résultats de recherche de mozbot pourrait être considérée comme une facon de spammer des moteurs de recherches tels que google ?
Bonjour
En fait, je ne vois pas en quoi cela pourrait poser un probleme aux robots de Google… Ni en quoi cela pourrait améliorer le référencement du site d’autre part, d’ailleurs.
C’est surtout un accès plus rapide aux infos du site et à la recherche intra site par exemple, ainsi qu’une visualisation intéressante, graphiquement parlant, du contenu d’une page web.
Mais c’est surtout un outil destiné aux internautes, je ne pense pas que cela aide ou nuise au référencement d’une quelconque façon…
Cordialement
Bon je me suis sans doute mal exprimé 🙁
Je voulais savoir si ce nuage de mots clés n’allait pas poser un problème pour les robots de google ?
Et si la réponse est négative, cela devrait donc améliorer le référencement d’une maniére importante ?
Cordialement
> Quel est l’impact pour google ? ou plutôt quel sera
>l’impact au niveau des mots clés pour google
Euh, pouvez-vous préciser la question ?
merci
cordialement
Bonjour,
Quel est l’impact pour google ? ou plutôt quel sera l’impact au niveau des mots clés pour google
Merci d’avance
Bonjour
Beaucoup de bonnes idées la dedans merci !
Pour l’aspect dynamique, le probleme est économique car cela peut vite consommer énormément de bande passante si le systeme est installé sur un site générant un fort trafic…
Cordialement
bien mais il le faudrait dynamique (qui s’adapte automatiquement au contenu de la page comme les adwords de google) et liste de mots à exclure (de, la, les, etc…) et nombre mini d’occurence pour afficher le mot dans le nuage (par exemple n’afficher que les mots au moins 3 fois), voila, y’a du boulot !
> a quel endroit de ma page html je dois
>mettre ce code (entre quelles balises)
En fait où vous voulez 🙂
Moi je l’ai mis dans un tableau mais d’autres solutions sont possibles…
L’intégration du nuage de mots clés nécessite un minimum de connaissances en HTML, mais a priori cela ne pose pas de probleme…
> En revanche, l’outil semble ne pas beaucoup
>aimer l’unicode UTF-8 (testé sur un blog
>wordpress).
Euh, avec l’adresse du site testé, ça serait parfait, pour qu’on puisse débugguer éventuellement !
Merci !!!
Cordialement
> J’ai du mal à comprendre l’intérêt pour un
> webmaster de faire ainsi des liens vers mozbot
Deja répondu à cette question ci-dessus… 🙂
cordialement
a quel endroit de ma page html je dois mettre ce code (entre quelles balises)
Merci
C’est super. Mais évidemment, si la liste des mots-clefs pouvait être purgée d’avance des mots vides (stopwords), avec un toggle stopwords on/off, ce serait encore mieux !
Dans quelle mesure cet outil peut-il être dynamique, c’est à dire regénérer le nuage lorsque le contenu de la page est modifié ?
Fonctionnalité d’utilité assez marginale à mon avis mais bon, pourquoi pas…
En revanche, l’outil semble ne pas beaucoup aimer l’unicode UTF-8 (testé sur un blog wordpress).
J’ai du mal à comprendre l’intérêt pour un webmaster de faire ainsi des liens vers mozbot
Fonctionnalité très utile !
il serait peut être pertinent de lier les mots clés à des sites de taxonomy comme technorati. qu’en pensez-vous ?
Bien vu. On nous demande aussi pas mal depuis ce matin des expressions sur plusieurs mots et non pas uniquement des termes isolés, c’est l’une des améliorations prévues…
Cordialement
Bravo. Outil très utile. Je vais l’adopter pour la nouvelle version de mon site. Côté suggestion: il serait utile de pouvoir également choisir la taille et l’interlignage des tags. Merci.
J. Elias
Par exemple, une des options permet de faire une recherche interne sur le site.
Cela peut également agrémenter le contenu d’une page en fournissant un outil complémentaire de recherche.
C’est un peu la même question que « pourquoi certains webmasters mettent-il un formulaire de recherche google sur leur site ? »
🙂
Bien cordialement
J’ai du mal à comprendre l’intérêt pour un webmaster de faire ainsi des liens vers mozbot ?
La charte Abondance.com pour la soumission de commentaires est la suivante :
– Champ Nom : obligatoire. Seuls les noms de famille et/ou prénoms sont acceptés. Un commentaire n’est pas écrit par une entreprise, mais par une personne physique. Les textes d’ancre (sur)optimisés et les noms d’entreprises indiqués dans ce champ verront automatiquement l’URL associée supprimée et la mention [Anonyme] indiquée à cet endroit.
– Champ E-mail : obligatoire. L’adresse mail n’est pas affichée si le commentaire est validé.
– Champ Site web : facultatif. Uniquement affiché si le champ “Nom” contient le patronyme d’une personne (voir ci-dessus). Le mieux est certainement d’y indiquer l’URL de votre compte Facebook, Twitter ou Google+. Mais vous pouvez également y indiquer l’URL de votre site web (page d’accueil uniquement).
Merci !!!
Consultez le site Livre Référencement !
© Abondance | Toute l'actualité sur le SEO et les moteurs de recherche