IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Big Data : les entreprises sont-elles préparées au boom des données ?
La France bien positionnée d'après une étude d'Oracle

Le , par Gordon Fowler

161PARTAGES

2  0 
Une récente étude d’Oracle montre que de nombreuses entreprises semblent avoir été surprises par le boom des volumes de données (les « Big Data ») provoquées par des facteurs comme l'augmentation des interactions entre les consommateurs et les marques, les terminaux mobiles, la forte augmentation des communications entre machines ou la multiplication des informations manipulées par les processus opérationnels internes des entreprises.

« La maîtrise des Big Data va devenir le défi informatique numéro un pour les entreprises au cours des deux prochaines années, » a ainsi déclaré Luigi Freguia, Senior Vice President d'Oracle, lors de la présentation de ces résultats. « A la fin de cette période, soit elles auront su faire face, soit elles seront en total décalage par rapport à leur propre activité – sans parler des risques et des opportunités que représentent les Big Data. »

Face à cette situation, les entreprises augmenteraient à court terme le recours aux datacenters externalisés et aux services de cloud, tout en planifiant à plus long terme la constitution de leur propre datacenter interne.

Il semble par ailleurs que les conseils d'administration s'intéressent de plus près à la question des données, ce qui tendrait à prouver qu’elles commencent à être reconnues comme ayant une valeur intrinsèque.

Résultat, « les entreprises accordent de plus en plus d'attention et d'investissements à leur stratégie de datacenter, notamment en réaction au phénomène des Big Data ». Pour appuyer son propos, Oracle cite son indice qui mesure de façon synthétique à quel niveau se situe une entreprise dans l'utilisation des technologies de datacenter. Ce Next Generation Data Centre Index montrerait que « tous les pays, tous les secteurs d'activité et toutes les rubriques voient leur indice ».

Dans le détail, la proportion des entreprises qui possédent des datacenters exclusivement internes est en baisse (de 60% à 44%). Et celles qui utilisent des datacenters externes a augmenté (de 40% à 56%).

Seuls 8% des répondants (à comparer aux 17% précédemment) ont déclaré qu'ils n'auraient pas besoin d'un nouveau datacenter dans un avenir prévisible. Et 38% affirment en avoir besoin dans les deux ans (contre 27% précédemment).



Autre enseignement, la durabilité fait à nouveau partie des préoccupations majeures des décideurs. La proportion des responsables de datacenters qui reçoivent une copie de la facture énergétique est par exemple passée de 43,2% à 52,2%. Mais plus d'un tiers (36%) des responsables de datacenters n'ont toujours aucune visibilité sur leur consommation énergétique, tandis que près de 10% doutent fort que quelqu'un d'autre jette un œil sur la facture énergétique du datacenter.

Quant à la France, elle est toujours au 5ème rang dans les notes globales de cet indice.

Ses professionnels auraient « déjà pris conscience de la nécessité des nouveaux datacenters, mais les motivations qui suscitent ces investissements ont changé ». Comme pour la plupart des autres pays, « accompagner la croissance de l'activité » est descendu dans la liste et le besoin de consolidation ainsi que l'ancienneté et les limitations des ressources existantes ont pris le dessus pour constituer aujourd'hui les principales raisons de ces investissements.

« Le défi exceptionnel des Big Data constitue l'horizon de nombreuses évolutions informatiques. La croissance des applications, des équipements, des systèmes et des individus connectés, aussi bien dans le grand public que dans le monde de l'entreprise, va générer d'énormes quantités de données structurées et non structurées à partir de toutes leurs actions. L'exploration et la compréhension de ces données constituent la clé de la réussite, et ce processus commence dans le datacenter », conclue Luigi Freguia pour qui « les résultats de cette étude suggèrent que les entreprises commencent à en prendre conscience et s'efforcent de faire face rapidement à leurs besoins de données à court terme et à long terme. »

La mutation du Big Data ne fait donc que commencer.

Téléchargez le rapport Oracle Next Generation Data Centre Index

Et vous ?

Que pensez-vous de cette étude : purement publicitaire ou pertinente ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 13/01/2012 à 10:28
le boom des données hein ???

acquérir davantage de mémoire encourage l’utilisation de techniques gourmandes en mémoire. Il a été observé qu’entre 1996 et 2006 l’utilisation de mémoire sur des systèmes évolutifs a tendance à doubler à peu près tous les 18 mois. La quantité de mémoire disponible pour une somme donnée a également tendance à doubler tous les 18 mois (voir Loi de Moore) ; la loi de Parkinson peut s'étendre aux ordinateur : on augmente les besoins jusqu’à ressentir toujours la même étroitesse des supports de stockage, malgré cette augmentation.

Cela peut être généralisé en « La demande pour une ressource s’accroît toujours pour correspondre à l’approvisionnement de la ressource »

Cela dit, je reconnais éprouver un coté grisant à manipuler des To par dizaines....
Vive les SAN , le cloud, et le gros bourinnage ! ça me donne du boulot. !
On y engrange de la merde mais comme c'est possible, ça évite de réfléchir à ce qui présente réellement de l'interet.
2  0 
Avatar de doublex
Membre confirmé https://www.developpez.com
Le 13/01/2012 à 8:38
Tiens, c'est curieux, dans un discours que vient de faire mon n+2, il parle justement d'améliorer le data warehouse.
Mais je ne peux me prononcer sur les chiffres globaux, même s'il paraît vraisemblable que les données augmentent en quantité.
La Chine vient d'atteindre les 500 millions d'internautes, et sans aller aussi loin, le chiffre est aussi en constante augmentation en France.
0  0 
Avatar de bugsan
Membre confirmé https://www.developpez.com
Le 13/01/2012 à 19:45
@pcdwarf

je ne pense pas que cela soit de la merde que l'on stock. Ca peut aller très vite pour des bases de données stratégiques, avec dimension temporelle etc ...
0  0