IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google va renforcer ses mesures anti-cloacking
Un changement important qui pourrait impacter les sites mobiles et les contenus riches

Le , par Idelways

112PARTAGES

1  0 
Comme résolution du nouvel an, Google a décidé de resserrer l'étau sur le « cloaking », cette pratique qui consiste à présenter aux moteurs de recherche un contenu différent de celui présenté à l'utilisateur.

Souvent utilisée à des fins de spam, cette technique est réprimée par Google et les autres moteurs de recherche.

Pourtant, de nombreux webmasters la trouvent utile pour améliorer le référencement de sites conçus avec des technologies encore mal prises en compte par les bots des moteurs de recherche, comme le Flash ou le Rich Media en général.

Matt Cutts, en charge des mesures anti-spam chez Google, a fait savoir via son Twitter que la protection anti-spam ne se contentera plus d'analyser uniquement le contenu des sites. Cutts conseille donc aux développeurs Web d'éviter d'envoyer des entêtes/redirections différentes pour Googlebot et l'utilisateur.

Ce court message ne donne pas plus de détails, ce qui n'est pas nouveau pour Google qui a toujours entouré de mystère le fonctionnement précis de son algorithme de recherche.
Mais l'enjeu est tellement important que les interprétations vont bon train sur les impacts des nouvelles méthodes qui seront utilisées par le numéro 1 des moteurs de recherche.

Google n'a d'ailleurs pas l'habitude de communiquer sur les changements de son algorithme, du moins pas avant leur application, ce qui présage de changements (très) importants.

Le risque est évidemment de pénaliser les sites légitimes qui présentent une version alternative – mais fidèle - pour que leurs contenus riche soient mieux indexés (et positionnés). Ou de pénaliser les sites qui présentent des contenus différents mais optimisés, par exemple, pour la navigation mobile.

Un changement que les développeurs Web suivront de toute façon de près.

Source : le compte Twitter de Matt Cutts

Et vous ?

Utilisez-vous (légitimement) la technique du cloaking ? Dans quel but ?
Quelles solutions imaginez-vous pour ne pas être pénalisé(e) par ces nouvelles mesures anti-cloacking ?

En collaboration avec Gordon Fowler

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ferber
Membre éprouvé https://www.developpez.com
Le 03/01/2011 à 11:27
le but d'un moteur de recherche est de référencer des contenues présent sur le web.
Le principe est tous simple.
Sauf que ce n'est pas exactement le cas. Google référence t'il l'ajax, silver light, flash, canvas (textes dessinées dynamiquement ), java ?
La réponse est non.
Mais même ci c'était le cas, on se trouve de toute façons a un moment ou un autre avec des concurrents, mieux positionnés.
Pour éviter cela, des opérations sont tentés pour améliorer le référencement.
Du coup ont s'éloignes du principe du <<moteur de recherche qui référence des contenues>>.
Et ont tombe dans le principe du <<web master qui référence lui même ses contenues>>.

Du coup on en arrive à se rendre compte que ce n'est pas le format html/js/flash/silverlight qui compte.
Ce qui compte c'est d'être bien positionné, la technologie après, est secondaire.

Tous cela pour dire quoi ?
Tous simplement que google na jamais été le "moteur de recherche qui référence tous les contenues". Depuis longtemps, ce sont les web master qui références et mettent en place des stratégie de référencement, google étant devenue une technologie/un outil parmi d'autre.
Du coup cette information ne change pas la donne.
Les web master vont continuer de référencer leur contenues en prenant en compte ce nouveau paramètre.
sans pour autant ce sentir obligés d'abandonner certaines technologie.
1  0 
Avatar de johnny-57
Nouveau membre du Club https://www.developpez.com
Le 05/01/2011 à 21:03
Personnellement j'utilise sur un site un système de cloaking. Je laisse passer google sur du contenue à accès payant mais je bloque les visiteurs en les renvoyant vers une page leur demandant de s'abonner.
0  0 
Avatar de visafacile.net
Nouveau membre du Club https://www.developpez.com
Le 06/01/2011 à 14:13
Cette décision devrait inciter à plus de travail les rédacteurs web, et trier les "bons" référenceurs.
0  0 
Avatar de padawa
Membre du Club https://www.developpez.com
Le 26/01/2011 à 10:59
Ben ce qu'il y a aussi c'est qu'on entend tres rarement (voir jamais pour ma part) des sites ayant ete blacklisté ou déreferencé a cause du cloaking ou autre methode, du coup on se dit que finalement toutes les 'menaces' sont peut etre juste pour faire peur (un peu comme au gosse on leur dit que si il font pipi dans la piscine l'eau va devenir rouge.....)
0  0