Developpez.com

Le Club des Développeurs et IT Pro

Google va renforcer ses mesures anti-cloacking

Un changement important qui pourrait impacter les sites mobiles et les contenus riches

Le 2010-12-30 12:30:13, par Idelways, Expert éminent sénior
Comme résolution du nouvel an, Google a décidé de resserrer l'étau sur le « cloaking », cette pratique qui consiste à présenter aux moteurs de recherche un contenu différent de celui présenté à l'utilisateur.

Souvent utilisée à des fins de spam, cette technique est réprimée par Google et les autres moteurs de recherche.

Pourtant, de nombreux webmasters la trouvent utile pour améliorer le référencement de sites conçus avec des technologies encore mal prises en compte par les bots des moteurs de recherche, comme le Flash ou le Rich Media en général.

Matt Cutts, en charge des mesures anti-spam chez Google, a fait savoir via son Twitter que la protection anti-spam ne se contentera plus d'analyser uniquement le contenu des sites. Cutts conseille donc aux développeurs Web d'éviter d'envoyer des entêtes/redirections différentes pour Googlebot et l'utilisateur.

Ce court message ne donne pas plus de détails, ce qui n'est pas nouveau pour Google qui a toujours entouré de mystère le fonctionnement précis de son algorithme de recherche.
Mais l'enjeu est tellement important que les interprétations vont bon train sur les impacts des nouvelles méthodes qui seront utilisées par le numéro 1 des moteurs de recherche.

Google n'a d'ailleurs pas l'habitude de communiquer sur les changements de son algorithme, du moins pas avant leur application, ce qui présage de changements (très) importants.

Le risque est évidemment de pénaliser les sites légitimes qui présentent une version alternative – mais fidèle - pour que leurs contenus riche soient mieux indexés (et positionnés). Ou de pénaliser les sites qui présentent des contenus différents mais optimisés, par exemple, pour la navigation mobile.

Un changement que les développeurs Web suivront de toute façon de près.

Source : le compte Twitter de Matt Cutts

Et vous ?

Utilisez-vous (légitimement) la technique du cloaking ? Dans quel but ?
Quelles solutions imaginez-vous pour ne pas être pénalisé(e) par ces nouvelles mesures anti-cloacking ?

En collaboration avec Gordon Fowler
  Discussion forum
4 commentaires
  • ferber
    Membre éprouvé
    le but d'un moteur de recherche est de référencer des contenues présent sur le web.
    Le principe est tous simple.
    Sauf que ce n'est pas exactement le cas. Google référence t'il l'ajax, silver light, flash, canvas (textes dessinées dynamiquement ), java ?
    La réponse est non.
    Mais même ci c'était le cas, on se trouve de toute façons a un moment ou un autre avec des concurrents, mieux positionnés.
    Pour éviter cela, des opérations sont tentés pour améliorer le référencement.
    Du coup ont s'éloignes du principe du <<moteur de recherche qui référence des contenues>>.
    Et ont tombe dans le principe du <<web master qui référence lui même ses contenues>>.

    Du coup on en arrive à se rendre compte que ce n'est pas le format html/js/flash/silverlight qui compte.
    Ce qui compte c'est d'être bien positionné, la technologie après, est secondaire.

    Tous cela pour dire quoi ?
    Tous simplement que google na jamais été le "moteur de recherche qui référence tous les contenues". Depuis longtemps, ce sont les web master qui références et mettent en place des stratégie de référencement, google étant devenue une technologie/un outil parmi d'autre.
    Du coup cette information ne change pas la donne.
    Les web master vont continuer de référencer leur contenues en prenant en compte ce nouveau paramètre.
    sans pour autant ce sentir obligés d'abandonner certaines technologie.
  • johnny-57
    Nouveau membre du Club
    Personnellement j'utilise sur un site un système de cloaking. Je laisse passer google sur du contenue à accès payant mais je bloque les visiteurs en les renvoyant vers une page leur demandant de s'abonner.
  • visafacile.net
    Nouveau membre du Club
    Cette décision devrait inciter à plus de travail les rédacteurs web, et trier les "bons" référenceurs.
  • padawa
    Membre du Club
    Ben ce qu'il y a aussi c'est qu'on entend tres rarement (voir jamais pour ma part) des sites ayant ete blacklisté ou déreferencé a cause du cloaking ou autre methode, du coup on se dit que finalement toutes les 'menaces' sont peut etre juste pour faire peur (un peu comme au gosse on leur dit que si il font pipi dans la piscine l'eau va devenir rouge.....)