Google déploie discrètement Panda 25
Les prochaines versions de l'algorithme qui évalue la qualité des sites ne seront plus annoncées

Le , par Stéphane le calme, Chroniqueur Actualités
Disponible depuis février 2011, Panda est un algorithme de recherche mis sur pied par Google dans le but d’améliorer la pertinence des résultats.

Jusqu’ici, Google a toujours officialisé les mises à jour (24 au total) de Panda.

Le site spécialisé Search Engine Land a aperçu le lancement de Panda 25, la version qui marque le début d’un nouveau cycle de publication des mises à jour de l’algorithme.




En effet, Matt Cutts, chef de la recherche de spam de Google, avait annoncé à la SMX West que Panda ne serait plus intégré dans les mises à jour de l’algorithme d’ensemble. Panda sera désormais mis à jour en continu (l’algorithme sera déployé progressivement à mesure que la structure remodèle son index).

Ainsi, la firme confirme qu’il est peu probable qu’elle officialise à nouveau une quelconque mise à jour de Panda.

Cet algorithme n’est pas pour plaire à tous les éditeurs de sites Web, vu que certains ont noté un effondrement de leur trafic Web dû à la perte dans le classement des résultats de recherche. Notamment les comparateurs de produits ou encore des agrégateurs puisque l’un des objectifs de Panda est de pénaliser les abus dans la duplication du contenu.

Les webmasters et spécialistes du SEO sont dorénavant obligés de partir de leur propre jugement en tant qu’experts pour s’adapter aux évolutions discrètes de Panda.

Source : Search Engine Land

Et vous ?

Que pensez-vous de cette action de Google ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de judev57 judev57 - Membre à l'essai https://www.developpez.com
le 20/03/2013 à 16:48
Bonjour,

D'un côté, les développeurs faisant du black SEO ne pourront plus s'adapter à temps dès qu'une mise à jour sera sur le point d'être effectué. Cela favorisera les sites respectant les règles et proposant du contenu pertinent. Et côté utilisateur, un meilleur confort dans la recherche.

D'un autre côté, pour la duplication de contenu, les développeurs ne le font pas forcément exprès. Cela serait bien que google le signale dans les outils webmaster dès que du duplicate content a été détecté par le robot pour pouvoir le corriger.
Avatar de Clorge Clorge - En attente de confirmation mail https://www.developpez.com
le 26/03/2013 à 22:19
@judev57 Les moteurs de recherches se sont déjà mis d'accord pour qu'une balise meta "url canonique" soit utilisée afin de signaler l'unique page à crawler évitant le duplicate content sur les pages qui porte la même url canonique.
Avatar de Muchos Muchos - Membre expert https://www.developpez.com
le 27/03/2013 à 7:05
Citation Envoyé par Clorge
qu'une balise meta "url canonique" soit utilisée afin de signaler l'unique page à crawler évitant le duplicate content sur les pages qui porte la même url canonique.

Ce n'est pas aussi radical que ça : «Une page canonique correspond à la version préférée d'un ensemble de pages au contenu fortement similaire.» [source] Toutes les pages sont crawlées.
Mais c'est vrai que c'est simple, souple, avec peu de risques de se tromper.
Avatar de ABCIWEB ABCIWEB - Expert éminent https://www.developpez.com
le 28/03/2013 à 0:07
Citation Envoyé par Stéphane le calme  Voir le message
Cet algorithme n’est pas pour plaire à tous les éditeurs de sites Web, vu que certains ont noté un effondrement de leur trafic Web dû à la perte dans le classement des résultats de recherche...
Que pensez-vous de cette action de Google ?

Cela produit souvent des résultats tout à fait incohérents puisqu'une boutique qui propose plus d'une centaine de produits peut se retrouver après une autre qui n'en propose que quelques uns du même type... pour peu que le type du produit ait été répété pour chaque produit et soit considéré comme du contenu abusif.

On est assez nombreux à penser que ces changements incessants sont conçus pour provoquer un référencement imprévisible - sentiment conforté par le fait que "les prochaines versions de l’algorithme qui évalue la qualité des sites ne seront plus annoncées" - ce qui fait que les clients seront obligés de payer des annonces google pour se retrouver en première page, plutôt que de s'adresser à des spécialistes du référencement

En même temps cela fait grimper le prix des annonces... à terme seuls les plus riches seront en mesure de payer.
Ce système d'annones payantes produit par ailleurs des résultats non pertinents car il y a aussi de belles arnaques dans les annonces google qui n'est pas très regardant en termes de pertinence pourvu qu'on passe à la caisse.

On remarque aussi que les resultats Youtube ont pris une place complètement disproportionnée par rapport à leur pertinence dans les résultats. Tiens comme c'est bizarre, et pourquoi pas pareil pour Dailymotion ?

Bref google fait son business. Niveau amélioration de la pertinence des résultats j'ai de gros doutes sur les nouvelles versions du moteur de recherche. Par contre niveau commercial c'est tout à fait cohérent

Alors après certains penseront peut-être que j'ai mauvais esprit, mais quand on pense uniquement business on ne peut pas être complètement bon
Offres d'emploi IT
Dev Spark (Java/Scala/Python)
AUBAY - Ile de France - Boulogne-Billancourt (92100)
Chef de projet web
Point Service Mobiles - Ile de France - Paris (75000)
Tech Lead PHP H/F Lyon
Smile - Rhône Alpes - Lyon (69000)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil