La DARPA finance le développement d'un nouveau type de processeur
Optimisé pour l'analyse de graphes et le Big data

Le , par Christian Olivier, Rédacteur
L’agence de recherche et développement de l’armée américaine DARPA (Defense Advanced Research Project Agency) s’est engagée à créer une nouvelle génération de plateforme informatique de type non Von-Neumann spécialisée dans le traitement et la gestion de données à haute performance.

Annoncé en 2016, le projet HIVE (Hiérarchisation-Identification-Vérification-Exploitation) devrait déboucher sur la création d’une nouvelle architecture matérielle, plus rapide et plus économe en énergie qui sera à même de répondre aux besoins du traitement des données de masse. Le fonctionnement de ces nouveaux systèmes informatiques devrait s’appuyer sur un nouveau type de processeurs HIVE capables de trouver ou de traiter en un temps record des données spécifiques stockées à l’intérieur d’immenses masses de données.

Les processeurs HIVE de DARPA seront les premiers processeurs d’analyse de graphes au monde. En d’autres termes, ils devront être en mesure d’exploiter des données présentées sous forme de représentations graphiques dans un réseau en utilisant des techniques de l’intelligence artificielle (IA) et du Machine Learning (ML) afin de traiter ces données et de construire rapidement, non seulement des relations de type « un à un » ou « un à plusieurs », mais aussi des arbres plus complexes présentant des relations indirectes.


Ces systèmes permettront ainsi, de mettre en évidence des interactions entre différentes personnes ou situations, d’optimiser l’exploitation des ressources du Big Data, d’établir des liens entre divers éléments apparemment indépendants, d’expliquer les coïncidences, etc.

« Le matériel d’aujourd’hui n’est pas adapté aux besoins de gestion du Big Data. Il devient de plus en plus difficile de répondre aux exigences du Big Data, car la quantité de données croît de façon exponentielle et beaucoup plus vite que les technologies de gestion qui s’y rapportent », a déclaré Trung Tran, un responsable du Microsystems Technology Office (MTO) en charge du programme chez DARPA. « HIVE se distingue de l’architecture Von Neumann, car il peut effectuer simultanément différents traitements sur différentes zones de la mémoire. »

La DARPA estime qu’un tel processeur d’analyse de graphes serait jusqu’à « 1000 fois plus performant (performance par watt) que les meilleurs processeurs actuels ». Il serait en mesure d’identifier et de suggérer, en temps réel, des relations d’importance stratégique au fur et à mesure qu’elles apparaissent plutôt que de s’appuyer sur l’analyse après-coup d’évènements dans des centres de données comme on le fait actuellement. Les processeurs d'analyse de graphes diffèrent, en théorie, des CPU et des GPU utilisés aujourd’hui. Ils devront être optimisés pour le traitement de primitives graphiques et l’accès aléatoire en mémoire à des vitesses très élevées (de l’ordre du téraoctet par seconde).


D’après la DARPA, « en combinaison avec le Machine Learning avec d’autres techniques d’analyse et de traitement émergentes comme l’intelligence artificielle, il sera possible de catégoriser les éléments composants des données brutes. Et en mettant à jour les éléments de graphes au fur et à mesure que de nouvelles données sont disponibles, un puissant processeur d’analyse de graphes devrait être capable de mettre en évidence des relations de causalité dissimulées parmi les éléments qui composent les données des différentes représentations graphiques. »

« Pris ensemble, ces éléments devraient nous permettre d’exploiter l’énorme quantité de données générées aujourd’hui, afin de prendre de meilleures décisions quant à savoir si, quand et comment agir en faveur du bien public et de la sécurité nationale », a déclaré Tran.

La DARPA a officiellement désigné les cinq entreprises qui auront la charge de mener à bien ce programme : Intel, Qualcomm, Pacific Northwest National Laboratory, Northrop Grumman et Georgia Tech. Ce programme est financé par la DARPA à hauteur de 80 millions USD environ et devra durer quatre ans et demi. La première année devra servir, essentiellement, à déterminer l’architecture idéale, matérielle et logicielle, qu’il faudra adopter.

« Comme tous les autres projets conçus par la DARPA avant lui, le programme HIVE est un prototype qui devra servir d’exemple à la mise en œuvre d’autres projets. Le projet HIVE implique la collaboration d’entreprises américaines opérant dans des secteurs bien spécifiques qui devront, ensemble, trouver des solutions garantissant, avant tout, l’intérêt de la nation américaine », a déclaré William Chappell, directeur du MTO.

« En formant une équipe constituée d’acteurs opérant dans des secteurs divers (commerce, recherche, défense et technologies de pointe), nous espérons forger de nouvelles voies de R & D capables d’inspirer des avancées technologiques majeures sans précédent », a-t-il ajouté.

Source : DARPA, Pièces jointes projet HIVE

Et vous ?

Qu'en pensez-vous ?

Voir aussi

NVIDIA annonce CUDA 9, la nouvelle version de son API de programmation des processeurs graphiques avec la notion de groupe coopératif
Des chercheurs réussissent à diriger une armée de robots avec le cerveau via une interface de contrôle sans fil


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de TiranusKBX TiranusKBX - Expert confirmé https://www.developpez.com
le 14/06/2017 à 9:43
la différence annoncée est bien trop importante pour que ce soit réaliste au mieux je voit bien une différence de 8x
Avatar de abriotde abriotde - Membre éclairé https://www.developpez.com
le 14/06/2017 à 17:42
Comme beaucoup de recherche américaine (ou de recherche étatique), je doute qu'elle aboutisse un jour à quelques chose de vraiment concret. Il faudrait une véritable percé pour quelle soit moins cher que les solutions actuelles (qui même si elles ne sont pas parfaite sont redoutable d’efficacité au regard de leur coût).
Le problème de fond c'est que les "problème" mis en évidences ne sont pas si important que ça de mon point de vue. Le big-data nécessite beaucoup de calcul processeur et pas simplement du déplacement de données. En outre de nombreuses architectures différentes de processeurs ont été étudié et on en reviens toujours au processeur Von Newman (même l'architecture CISC pourtant prometteuse sur le papier c'est finalement avéré assez peu intéressante face a la simplicité du RISC)
Offres d'emploi IT
Ingénieur développement logiciels temps réel embarqué H/F
Safran - Ile de France - Éragny (95610)
Ingénieur produit (FADEC militaire) H/F
Safran - Ile de France - 100 rue de Paris 91300 MASSY
Expert application Supply Chain & Achats H/F
Safran - Ile de France - Evry (91)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Accueil