IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google veut favoriser les sites « de qualité »
Et modifie son algorithme de recherche pour évaluer cette « qualité »

Le , par Hinault Romaric

5PARTAGES

1  0 
Google vient d'annoncer officiellement une mise à jour de son algorithme de recherche.

Cette mise à jour vise à mieux référencer les sites produisant du contenu de bonne qualité au détriment de ceux de qualité médiocre (fermes de contenus, Spams). D'après Google « cette mise à jour vise à faire baisser le classement des sites de qualité médiocre, sans valeur ajoutée ou sans utilité véritable. [...]Dans le même temps, il fournira un meilleur classement pour les sites de haute qualité avec un contenu original ».

Sans préciser plus avant ce qu'il entend par « qualité » ni comment elle sera évaluée.

Toujours d'après Google, la modification de l'algorithme impacte de manière significative 11,8% des sites.

Si on ne sait rien de l’algorithme mis en place, Google souligne cependant que cette mise à jour ne repose en aucun cas sur l'analyse des listes noires issues des jugements des internautes et transmis via son extension pour le navigateur Chrome, Personnal Blocklist .

Ces listes noires ont tout de même servies pour cette mise à jour puisqu'elles ont été exploitées par Google pour tester la qualité de son algorithme en comparant les sites les plus touchés par le déploiement de celui-ci à ceux bloqués par l'extension. Il en ressort que 84% des sites bloqués par l'extension ont été touchés par l'algorithme.

Pour l'instant seul le moteur de Google aux Etats-Unis est impacté. Le nouvel algorithme sera ensuite déployée progressivement sur les moteurs des autres pays.

Les Webmestres ont donc tout intérêt à suivre d'encore plus près l'évolution de leur référencement dans les jours à venir.

Source : Google

Et vous ?

Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?

En collaboration avec Gordon Fowler

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pseudocode
Rédacteur https://www.developpez.com
Le 25/02/2011 à 19:50
Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?
Je ne pense pas qu'il s'agit d'évaluer la qualité éditoriale, au sens "littéraire" du terme.

Il s'agit plus de mesurer la quantité d'information "utile" que contient un site.

Un site contenant uniquement des liens ou des fragments copié d'ailleurs, aura une note basse. Il sera donc déclassé, meme si l'information présente sur le site correspond exactement à la recherche de l'utilisateur...

Je pense que cette annonce de Google fait suite à celle annonçant leur volonté de lutter contre les fermes de contenu qui squattent le haut des résultats.
1  0 
Avatar de Narann
Membre actif https://www.developpez.com
Le 25/02/2011 à 12:16
Le principe "afficher la source plutot qu'une copie" est bonne celon moi.

Combien de fois je suis tombé sur des "portails" qui présente tous le même début d'article en faisant une recherche. (genre Yahoo).

Bref, je pense que ça peut être interessant pour l'utilisateur final. ça permettra (j'espère) de ne pas avoir les grands groupes (gros site) classé devant l'article original qu'il utilise. Je trouve ça pas mal.
0  0