
L’expert en marketing et communication poursuit son analyse par une définition des termes pour mieux camper le débat. D’après Julien, « collecte, exploration et analyse de grandes masses de données » semble être la définition qui est le plus généralement admise. Et l’on voit bien que cette description est loin d’être suffisamment précise, affirme-t-il. Pour mieux faire comprendre le concept, monsieur Zakoian découpe cette définition pour analyser chacune de ses parties. En effet pour lui, « grande masse de données » n’a de sens que pour les géants du Web tels que Google ou Facebook pour qui cela représente des millions de To mais pour des petites sociétés, ce n’est qu’un maquillage d’un « big » qui est en réalité du « small ». Du coup, ces sociétés vendent doublement du rêve : d’une part, celui du fantasme lié à l’espionnage du type NSA et d’autre part celui d’une exploitation enfin aisée, complète et peu onéreuse de leurs données, poursuit Julien.
Il n’y a que le temps qui nous dira si Julien a vu juste ou pas. En effet, selon le « Hype Cycle » de Gartner, nous pouvons prendre rendez-vous en 2020 ou en 2025 pour voir si « Big Data » aura tenu toutes ses promesses.
Source : Livre blanc EBG 2014
Et vous ?

Voir aussi

