Developpez.com

Le Club des Développeurs et IT Pro

Google veut favoriser les sites « de qualité »

Et modifie son algorithme de recherche pour évaluer cette « qualité »

Le 2011-02-25 11:14:48, par Hinault Romaric, Responsable .NET
Google vient d'annoncer officiellement une mise à jour de son algorithme de recherche.

Cette mise à jour vise à mieux référencer les sites produisant du contenu de bonne qualité au détriment de ceux de qualité médiocre (fermes de contenus, Spams). D'après Google « cette mise à jour vise à faire baisser le classement des sites de qualité médiocre, sans valeur ajoutée ou sans utilité véritable. [...]Dans le même temps, il fournira un meilleur classement pour les sites de haute qualité avec un contenu original ».

Sans préciser plus avant ce qu'il entend par « qualité » ni comment elle sera évaluée.

Toujours d'après Google, la modification de l'algorithme impacte de manière significative 11,8% des sites.

Si on ne sait rien de l’algorithme mis en place, Google souligne cependant que cette mise à jour ne repose en aucun cas sur l'analyse des listes noires issues des jugements des internautes et transmis via son extension pour le navigateur Chrome, Personnal Blocklist .

Ces listes noires ont tout de même servies pour cette mise à jour puisqu'elles ont été exploitées par Google pour tester la qualité de son algorithme en comparant les sites les plus touchés par le déploiement de celui-ci à ceux bloqués par l'extension. Il en ressort que 84% des sites bloqués par l'extension ont été touchés par l'algorithme.

Pour l'instant seul le moteur de Google aux Etats-Unis est impacté. Le nouvel algorithme sera ensuite déployée progressivement sur les moteurs des autres pays.

Les Webmestres ont donc tout intérêt à suivre d'encore plus près l'évolution de leur référencement dans les jours à venir.

Source : Google

Et vous ?

Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?

En collaboration avec Gordon Fowler
  Discussion forum
2 commentaires
  • pseudocode
    Rédacteur
    Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?
    Je ne pense pas qu'il s'agit d'évaluer la qualité éditoriale, au sens "littéraire" du terme.

    Il s'agit plus de mesurer la quantité d'information "utile" que contient un site.

    Un site contenant uniquement des liens ou des fragments copié d'ailleurs, aura une note basse. Il sera donc déclassé, meme si l'information présente sur le site correspond exactement à la recherche de l'utilisateur...

    Je pense que cette annonce de Google fait suite à celle annonçant leur volonté de lutter contre les fermes de contenu qui squattent le haut des résultats.
  • Narann
    Membre actif
    Le principe "afficher la source plutot qu'une copie" est bonne celon moi.

    Combien de fois je suis tombé sur des "portails" qui présente tous le même début d'article en faisant une recherche. (genre Yahoo).

    Bref, je pense que ça peut être interessant pour l'utilisateur final. ça permettra (j'espère) de ne pas avoir les grands groupes (gros site) classé devant l'article original qu'il utilise. Je trouve ça pas mal.