IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des milliards de dollars gaspillés dans les startups Hadoop, il en serait de même pour Docker,
La blockchain, et l'intelligence artificielle

Le , par Bill Fassinou

405PARTAGES

15  0 
Le volume de données circulant sur Internet a commencé à devenir très massif depuis la moitié de la dernière décennie, ce qui a conduit à l’émergence et la démocratisation du Big Data. Les solutions comme Hadoop sont alors apparues et ont très vite faire leurs preuves dans l’analyse et le traitement de ces données. Hadoop est rapidement devenu le framework de prédilection pour les entreprises qui veulent se spécialiser dans le Big Data, mais aujourd’hui, les choses semblent se compliquer pour ces entreprises. MapR, l’une des plus grandes entreprises de Californie spécialiste du Big Data risque de bientôt fermer ses portes en raison de résultats catastrophiques liés à l’exploitation d’Hadoop.

Le framework Hadoop a-t-il été au cœur d’un battage publicitaire ? Certaines personnes le pensent en tout cas. En effet, Hadoop est un framework libre et open source écrit en Java destiné à faciliter la création d'applications distribuées (au niveau du stockage des données et de leur traitement) et échelonnables (scalables) permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Ainsi chaque nœud est constitué de machines standard regroupées en grappe. Tous les modules de Hadoop sont conçus dans l'idée fondamentale que les pannes matérielles sont fréquentes et qu'en conséquence elles doivent être gérées automatiquement par le framework.

Le framework fait partie du projet Apache sponsorisé par Apache Software Foundation. Hadoop permet la collecte, le stockage et l’analyse de gros volumes de données afin de découvrir des patterns ou d’autres informations utiles permettant de faire émerger de la valeur à partir de ces données. Les traitements peuvent être effectués en mode batch, micro batch ou en temps réel. Hadoop excelle dans le stockage et le traitement de la donnée non structurée et semi-structurée, mais il est aussi capable de gérer de la donnée structurée. Avec son émergence rapide, certains s’étaient même posés la question de savoir si l’approche analytique d’Hadoop allait bouleverser celui des Data Warehouses utilisée très largement à l’époque.


Cela n’a pas été le cas, car les deux technologies ont continué à émerger chacun de son côté, mais avec une forte publicité autour d’Hadoop. L’une des entreprises les plus remarquables à s’être illustrée avec la montée en puissance d’Hadoop est MapR. Crée en 2009, MapR Technologies est une entreprise basée à San Jose, en Californie, qui développe et vend des solutions dérivées d’Apache Hadoop. Sur son site, MapR Technologies se présente comme une entreprise qui fournit à ses clients une plateforme de données de nouvelle génération pour les domaines de l’IA et de l'analyse, permettant ainsi à ses entreprises clientes d'ajouter des analyses à leurs processus métier pour augmenter leurs revenus, réduire leurs coûts et atténuer leurs risques.

MapR aborde les complexités de données du traitement distribué à grande échelle et critique, du cloud à la périphérie, de l'analyse IoT et de la persistance des conteneurs. Aujourd’hui, l’entreprise est sur le point de fermer ses portes à cause de résultats très médiocres et de l’absence de soutiens financiers. Pourquoi ? L’on estime que l’entreprise a surestimé les capacités réelles d’Apache Hadoop. Le supposé battage publicitaire autour d’Apache Hadoop se serait donc dissipé et de nombreux investissements faits par MapR et d’autres entreprises du même domaine semblent maintenant avoir été des investissements sans lendemain.

Dans une lettre adressée mi-mai à ses employés et publiée en vertu des lois californiennes sur la notification de reconversion des travailleurs, le directeur général, John Schroeder, a imputé cette décision à des « résultats extrêmement médiocres » au cours du dernier trimestre clos. « Les raisons des résultats ne sont pas entièrement comprises, mais elles ont été en partie dues au report soudain et inattendu du calendrier de plusieurs clients pour prendre une décision d'achat », a-t-il écrit. Les clients ont-ils trouvé mieux que le framework Hadoop et son écosystème ?

Si l’entreprise n’obtenait pas une solution dans les prochaines semaines, elle pourrait être amenée à supprimer environ 122 emplois et fermer son siège social à Santa Clara dans l’État de Californie. Les résultats ont été obtenus alors que MapR était en train de négocier des fonds supplémentaires avec un partenaire pour l'instant anonyme, ce qui a mis fin aux négociations sur la nouvelle, selon la lettre. MapR Technologies a déclaré qu'il poursuivait ses options de financement, mais prévoyait de « cesser ses activités et de fermer le siège de Santa Clara » d'ici le 14 juin si aucun financement supplémentaire ne se matérialisait.

La société a quand même réussi à lever énormément de fonds d’investissement par le passé. Une première levée de fonds d’une valeur totale de 280 millions de dollars a été réalisée par l’entreprise à sa création en 2009, ce qui lui a valu une capitalisation boursière dépassant le milliard de dollars. D’autres s’en sont suivies en 2016 et la dernière a été réalisée en 2017 pour un montant de 56 millions de dollars, une diminution très considérable par rapport à celle réalisée par l’entreprise à ses débuts. L’on estime que MapR était l'une des trois startups les plus financées aux côtés de Cloudera Inc. et Hortonworks Inc. qui est apparue il y a une décennie pour commercialiser des produits et des services dans l'écosystème open source autour de Hadoop, un logiciel très utilisé pour traiter d'énormes quantités de données.

Le battage publicitaire a atteint son apogée au début de 2014 lorsque Cloudera a réussi une levée de fonds massive d’environ 900 millions de dollars pour une valeur de 4,1 milliards de dollars. Après leurs entrées en bourse, respectivement Hortonworks en 2014 et Cloudera en 2017, leurs actions ont toutes deux chuté du fait de l'intensification de la concurrence sur le marché et du passage rapide des clients au cloud. Cloudera et Hortonworks n’ont pas eu d’autres choix que de fusionner en 2018, mais le cours de l'action de l’entité combinée a continué de chuter, réduisant de moitié la valeur marchande au cours des sept derniers mois. MapR a annoncé son intention de devenir publique il y a un peu plus de quatre ans, mais cela n’est jamais arrivé.

À croire que d’autres s’attendaient à cette désillusion des entreprises qui ont fondé leurs activités sur l’écosystème Apache Hadoop. David Vellante, analyste chez Wikibon, une communauté de praticiens et de consultants en technologie et systèmes d'entreprise qui utilise le partage open source de connaissances consultatives gratuites, s’est dit pas du tout étonné de cette situation. « J'ai toujours dit au sujet des marchés en général et de celui d’Hadoop en particulier que le leader peut gagner de l'argent, le numéro deux a la chance de faire ses frais et le numéro trois, eh bien, cela ne vaut même pas la peine de rester en affaires, car il n'y a pas d'argent à gagner », a-t-il commenté à propos de la situation de MapR.

Cloudera et MapR ont tous deux tenté de se démarquer du marché Hadoop au cours des dernières années, alors que les richesses attendues ne se matérialisaient pas. Récemment, MapR s'est positionné comme une plateforme universelle pour la consolidation et l'harmonisation de plusieurs sources de données, tandis que Cloudera a mis l'accent sur les applications de périmètre de produit et d'apprentissage automatique. La concurrence des fournisseurs du cloud computing et la difficulté de monétiser une entreprise basée sur des logiciels à source ouverte ont été des défis importants pour les deux entreprises.

Bien que MapR vende des logiciels propriétaires, ses bases en open source l’ont rendu vulnérable face aux vents contraires qui ont gêné de nombreuses autres entreprises qui tentaient de créer des entreprises rentables en plus de logiciels essentiellement gratuits. Vellante a qualifié cette dynamique de « prospérité sans profit, ce qui signifie qu'il y avait beaucoup de buzz, de croissance et de potentiel stratégique, mais que la voie des profits n'était jamais claire ». « Au début de notre recherche, nous avons montré que toutes les actions intéressantes autour du Big Data se déroulaient dans le cloud et qu'aucun des premiers fournisseurs n'avait de stratégie cloud convaincante », a déclaré Vellante.


De plus, l’année dernière, Silicon Angle a notifié que Wikibon avait remarqué lors d’une étude qu’Hadoop était de plus en plus absent dans les feuilles de route des fournisseurs pour les activités du Big Data. HDFS (Hadoop Distributed File System) est de plus en plus absent des stratégies de plateforme de base des éditeurs de solutions d'analyse de données volumineuses. La raison principale pour laquelle HDFS recule dans les feuilles de route en matière de Big Data des fournisseurs est que leurs clients sont allés bien au-delà des architectures de données au repos qu’ils supposent. Les architectures de données au repos, telles que les « Data Lake » basés sur HDFS, deviennent de moins en moins centrales dans les stratégies de données d'entreprise.

Pour le cas de MapR, l’on estime que l'argent a été gaspillé sur le battage médiatique. La même chose pourrait être dite dans le cas de Docker. Selon certains, Docker ne dispose pas de caractéristiques particulières ou bénéficie d’un avantage qui ne soit pas identique à celui d'autres ordinateurs virtuels. Ils estiment que les ordinateurs virtuels standard permettent l'utilisation de systèmes d'exploitation standard qui ont résolu tous les problèmes difficiles qui existaient il y a plusieurs décennies, alors que Docker s'efforce ou commence à peine à résoudre ces problèmes aujourd'hui.

Cela dit, qu’en est-il des technologies telles que l’IA ou encore la Blockchain ? Dans ces domaines également, il semblerait que le battage publicitaire soit d’actualité. Dans une étude en décembre dernier, des chercheurs se sont demandés si la blockchain était une technologie sans intérêt. Ces derniers ont estimé que les cas d’utilisations de la blockchain ont un taux de réussite de 0 %. « Nous avons documenté 43 cas d’utilisation de la blockchain à travers des recherches sur internet, la plupart ont été décrits par des prétentions éclatantes comme “les coûts opérationnels réduits à jusqu’à 90 %”, ou avec l’assurance de “capture et stockage sécurisé et soigneux de données. Nous avons constaté une prolifération de communiqués de presse, de livres blancs et des articles de persuasion. Cependant, nous n’avons trouvé aucune documentation ou preuve des résultats de la blockchain par rapport à ces prétentions. Nous n’avons pas aussi trouvé de leçons apprises ou un aperçu concret, comme c’est le cas pour les autres technologies en développement », avait écrit le trio de chercheurs.

D’un autre côté, le domaine de l’IA souffrirait du même mal. On minimise les défis majeurs de la technologie et l'on ne met en avant que ses quelques avantages qui n’ont pas autant d’impact dans la vie de l’homme, indiquent certains. Les défis importants que l'intelligence artificielle pose pour l'état de droit et les droits individuels sont multiples, a par exemple souligné Paul Nemitz, un conseiller auprès de la Commission européenne, en évoquant que l’IA est nuisible à la démocratie. « Aujourd’hui, avec l’IA développée par les grandes entreprises investissant des milliards de dollars, l'intelligence artificielle risque de rencontrer les mêmes problèmes que l'Internet à ses débuts. La conception de l'IA pour le développement de systèmes autonomes et son utilisation très répandue pourrait bien conduire à plus de catastrophes que ceux déjà produits par l’Internet non réglementé », avait-il sous-entendu.

Source : Silicon Angle

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous que la blockchain et l'intelligence artificielle soient aussi victimes du battage médiatique ?

Voir aussi

La blockchain est-elle une technologie sans intérêt ? Une étude stipule que ses cas d'utilisation ont un taux de réussite de 0 %

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

La demande d'ingénieurs blockchain est en forte croissance avec une augmentation de 517 % de 2018 à 2019, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 01/06/2019 à 9:09
Pensez-vous que la blockchain et l'intelligence artificielle soient aussi victimes du battage médiatique ?


Le blockchain est un buzzword commercial , ce n 'est pas le cas du machine learning , qui prouve sont efficacité , mais ce ne sont pas des solutions magique pour autant . Les journalises ne font plus leur boulots et colporte des idées simples ; a la mode , ils ont utilisé le terme crypté , au lieu de chiffré pour un oui ou un non . L ' informatique , comme toute science est exigeante et la société actuelle ne le supporte plus .
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/06/2019 à 22:16
Citation Envoyé par darklinux Voir le message
Le blockchain est un buzzword commercial , ce n 'est pas le cas du machine learning
On ne parle pas de machine learning mais d'IA en général... qui est un buzzword aussi.
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 28/06/2019 à 14:05
J'ai du mal déjà à trouver pertinent le parallèlle entre Hadoop et la blockchain. Déjà parce que dans les grand média (ceux tout public), j'ai pas souvenir d'avoir entendu parler de Hadoop, de Big Data oui, d'IA oui, de blockchain oui, de Docker et de Hadoop, dans la presse plus spécialisée seulement.

Ensuite je me méfie quand on tape sur un outil alors que d'autres l'utilisent avec succès. En quelques années de professions, j'ai déjà vu plusieurs catastrophe sur le SQL et ORM qui ne sont pas la faute de l'outil, et vu qu'Hadoop sert aussi à gérer des données, je ne serait pas étonné qu'il s'agisse des mêmes personnes qui critiques.

Enfin il est sans doute vrai que depuis le temps que ça existe, d'autre on peut être fait mieux, ce qui ne veut pas dire qu'on à nécessairement jeter des milliards par la fenêtre, et que l'erreur ne vient pas d'Hadoop ( ou alors qu'en partie relativement limitée).

Docker, ou plutôt les conteneur léger, existent depuis déjà longtemps, et s'il perce aujourd'hui, il me semble que c'est notamment dû au cloud ou toutes les ressources sont payés à l'unité, et ça peut monter vite. Hors instancier des conteneurs plutôt que des OS, ça nécessite moins de ressources. Je n'en sais pas assez pour savoir si on peut faire des choses différentes avec Docker que les VM, mais c'est clairement plus léger et ça coûte donc moins cher en ressources (après viens les problèmes de sécurité mais il y'en a aussi avec les gestionnaires de VM).
1  0