Developpez.com

Le Club des Développeurs et IT Pro

Google déploie discrètement Panda 25

Les prochaines versions de l'algorithme qui évalue la qualité des sites ne seront plus annoncées

Le 2013-03-20 10:28:51, par Stéphane le calme, Chroniqueur Actualités
Disponible depuis février 2011, Panda est un algorithme de recherche mis sur pied par Google dans le but d’améliorer la pertinence des résultats.

Jusqu’ici, Google a toujours officialisé les mises à jour (24 au total) de Panda.

Le site spécialisé Search Engine Land a aperçu le lancement de Panda 25, la version qui marque le début d’un nouveau cycle de publication des mises à jour de l’algorithme.




En effet, Matt Cutts, chef de la recherche de spam de Google, avait annoncé à la SMX West que Panda ne serait plus intégré dans les mises à jour de l’algorithme d’ensemble. Panda sera désormais mis à jour en continu (l’algorithme sera déployé progressivement à mesure que la structure remodèle son index).

Ainsi, la firme confirme qu’il est peu probable qu’elle officialise à nouveau une quelconque mise à jour de Panda.

Cet algorithme n’est pas pour plaire à tous les éditeurs de sites Web, vu que certains ont noté un effondrement de leur trafic Web dû à la perte dans le classement des résultats de recherche. Notamment les comparateurs de produits ou encore des agrégateurs puisque l’un des objectifs de Panda est de pénaliser les abus dans la duplication du contenu.

Les webmasters et spécialistes du SEO sont dorénavant obligés de partir de leur propre jugement en tant qu’experts pour s’adapter aux évolutions discrètes de Panda.

Source : Search Engine Land

Et vous ?

Que pensez-vous de cette action de Google ?
  Discussion forum
4 commentaires
  • judev57
    Membre du Club
    Bonjour,

    D'un côté, les développeurs faisant du black SEO ne pourront plus s'adapter à temps dès qu'une mise à jour sera sur le point d'être effectué. Cela favorisera les sites respectant les règles et proposant du contenu pertinent. Et côté utilisateur, un meilleur confort dans la recherche.

    D'un autre côté, pour la duplication de contenu, les développeurs ne le font pas forcément exprès. Cela serait bien que google le signale dans les outils webmaster dès que du duplicate content a été détecté par le robot pour pouvoir le corriger.
  • ABCIWEB
    Expert éminent sénior
    Envoyé par Stéphane le calme

    Cet algorithme n’est pas pour plaire à tous les éditeurs de sites Web, vu que certains ont noté un effondrement de leur trafic Web dû à la perte dans le classement des résultats de recherche...
    Que pensez-vous de cette action de Google ?
    Cela produit souvent des résultats tout à fait incohérents puisqu'une boutique qui propose plus d'une centaine de produits peut se retrouver après une autre qui n'en propose que quelques uns du même type... pour peu que le type du produit ait été répété pour chaque produit et soit considéré comme du contenu abusif.

    On est assez nombreux à penser que ces changements incessants sont conçus pour provoquer un référencement imprévisible - sentiment conforté par le fait que "les prochaines versions de l’algorithme qui évalue la qualité des sites ne seront plus annoncées" - ce qui fait que les clients seront obligés de payer des annonces google pour se retrouver en première page, plutôt que de s'adresser à des spécialistes du référencement

    En même temps cela fait grimper le prix des annonces... à terme seuls les plus riches seront en mesure de payer.
    Ce système d'annones payantes produit par ailleurs des résultats non pertinents car il y a aussi de belles arnaques dans les annonces google qui n'est pas très regardant en termes de pertinence pourvu qu'on passe à la caisse.

    On remarque aussi que les resultats Youtube ont pris une place complètement disproportionnée par rapport à leur pertinence dans les résultats. Tiens comme c'est bizarre, et pourquoi pas pareil pour Dailymotion ?

    Bref google fait son business. Niveau amélioration de la pertinence des résultats j'ai de gros doutes sur les nouvelles versions du moteur de recherche. Par contre niveau commercial c'est tout à fait cohérent

    Alors après certains penseront peut-être que j'ai mauvais esprit, mais quand on pense uniquement business on ne peut pas être complètement bon
  • Clorge
    En attente de confirmation mail
    @judev57 Les moteurs de recherches se sont déjà mis d'accord pour qu'une balise meta "url canonique" soit utilisée afin de signaler l'unique page à crawler évitant le duplicate content sur les pages qui porte la même url canonique.
  • Muchos
    Membre expert
    Envoyé par Clorge
    qu'une balise meta "url canonique" soit utilisée afin de signaler l'unique page à crawler évitant le duplicate content sur les pages qui porte la même url canonique.
    Ce n'est pas aussi radical que ça : «Une page canonique correspond à la version préférée d'un ensemble de pages au contenu fortement similaire.» [source] Toutes les pages sont crawlées.
    Mais c'est vrai que c'est simple, souple, avec peu de risques de se tromper.