Des chercheurs dévoilent un prototype d'Internet du futur,
Reposant sur une architecture sans serveur, complètement décentralisée
Le 2013-11-01 15:08:00, par Cedric Chevalier, Expert éminent sénior
Une équipe de chercheurs de l’université de Cambridge a pour intention de remplacer le modèle relationnel client-serveur dont dépendent de nombreux services, applications et protocoles d’internet, par une architecture complètement décentralisée du réseau des réseaux.
Le projet ambitieux se nomme Pursuit, et un prototype de l’internet de demain conçu par les chercheurs est déjà disponible.
L’architecture retenue pour celui-ci est similaire dans son fonctionnement aux protocoles de partage de fichiers P2P (dans lesquels un nœud joue à la fois le rôle de client et serveur) et hérite de ceux-ci les nombreux avantages et inconvénients.
L’adoption du nouveau système des chercheurs mettrait fin aux préoccupations de protection de la vie privée des internautes ainsi qu’aux attaques de type DoS (Denial of Service) qui sont de véritables fléaux pour les serveurs.
Toutefois, il faudrait préciser que PARC (appelé autrefois Xerox), de qui on tient les premières souris et imprimantes, a mis lui aussi en place un projet similaire le CCN (Content Centric Network). Tout comme pour Pursuit, il est également question d’abandonner l’architecture client-serveur au profit d’un système décentralisé qui libérerait les entreprises de la dépendance au Cloud, technologie qui soulève de nombreuses questions sur la protection de la vie privée.
[ame="http://www.youtube.com/watch?v=xxFPFoCDGEo"]CCN[/ame]
Quand les utilisateurs lambda pourront-ils essayer ce nouveau réseau ? Aucune date n’est annoncée. On ne peut qu'espérer que cela se fasse le plus rapidement possible.
Source : PURSUIT
Et vous ?
Pursuit pourrait-il résoudre le problème épineux de la protection de la vie privée sur internet ?
Le projet ambitieux se nomme Pursuit, et un prototype de l’internet de demain conçu par les chercheurs est déjà disponible.
L’architecture retenue pour celui-ci est similaire dans son fonctionnement aux protocoles de partage de fichiers P2P (dans lesquels un nœud joue à la fois le rôle de client et serveur) et hérite de ceux-ci les nombreux avantages et inconvénients.
L’adoption du nouveau système des chercheurs mettrait fin aux préoccupations de protection de la vie privée des internautes ainsi qu’aux attaques de type DoS (Denial of Service) qui sont de véritables fléaux pour les serveurs.
Toutefois, il faudrait préciser que PARC (appelé autrefois Xerox), de qui on tient les premières souris et imprimantes, a mis lui aussi en place un projet similaire le CCN (Content Centric Network). Tout comme pour Pursuit, il est également question d’abandonner l’architecture client-serveur au profit d’un système décentralisé qui libérerait les entreprises de la dépendance au Cloud, technologie qui soulève de nombreuses questions sur la protection de la vie privée.
[ame="http://www.youtube.com/watch?v=xxFPFoCDGEo"]CCN[/ame]
Quand les utilisateurs lambda pourront-ils essayer ce nouveau réseau ? Aucune date n’est annoncée. On ne peut qu'espérer que cela se fasse le plus rapidement possible.
Source : PURSUIT
Et vous ?
-
Marco46Expert éminent séniorBen non.
Ce que propose de faire le projet PSIRP c'est de décaler la couche sécurité dans les couches basses des protocoles réseaux. En gros avant même d'accepter un seul paquet d'un inconnu il y a authentification.
Mais rien n'est dit de la gestion de l'infrastructure des clefs nécessaire. Pour qu'il y ait une authentification il faut qu'il y ait un annuaire (centralisé à la X.509 ou décentralisé à la PGP).
Ce qu'ils proposent permettrait éventuellement de contrer le spam et les attaques DOS, donc ça concerne même pas les utilisateurs mais plutôt les administrateurs de services web (mails, sites web, etc ...). Ceci dit, des zombies authentifiés par leur système Doseront aussi bien les serveurs que des zombies non-authentifiés aujourd'hui xD
Je veux dire par là que l'authentification ne résout pas spécialement grand chose si les utilisateurs continuent de faire n'importe quoi avec leurs postes.Envoyé par ChristopheHvd
Bref tout ça c'est un joli projet d'étude mais c'est pas pour demain (et heureusement, imaginez le pouvoir de contrôle de celui qui gère les autorités de certification, il pourrait tout simplement décider de ce que vous pouvez lire et écrire sur le réseau).
EDIT :
Le fait que les informations soient centralisées sur le réseau n'est pas du à la nature ou à la structure d'internet mais aux usages des utilisateurs. Je veux dire que rien n'empêche (sauf parfois le FAI) d'héberger ses mails ou son blog. Et c'est bien du client-serveur pourtant ...le 04/11/2013 à 12:37 -
MarkandMembre éclairéPourquoi pas, mais faudra un système d'intégrité de données poussée pour que chaque personne ait accès à la même donnée.le 04/11/2013 à 10:37
-
Traroth2Membre émérite@jojosbiz : je suis plutôt d'accord avec toi. Mais il faut bien être conscient que les deux problèmes s'entremêlent. Facebook contient les photos du cul de M. X, mais aussi la liste des sites qu'il parcourt et qui contiennent un bouton "like" parce qu'il ne s'est pas déconnecté de Facebook.le 04/11/2013 à 11:33
-
dkMembre actifJe suis allé consulter leur site internet pour en savoir un peu plus (rapidement je suis au taf quand même :p), et je trouve un peu dommage de réduire leur projet à une simple question de protection de la vie privée.
Si j'ai bien compris, ils veulent totalement faire abstraction du modèle ip qui va créer un internet "physique", dans le sens où il va y avoir des "routes" physiques à emprunter, pour à la place créer un réseau basé sur l'information : au lieu d'aller chercher l'information à telle adresse, j'adresse directement l'information. C'est un concept assez utopique a priori, mais qui sait c'est peut-être le futur.
En tout cas pour en revenir à la sécurité, je ne suis pas certain que ce soit mieux, le problème est juste déporté : si chaque client est aussi un serveur, il est possible en théorie de trafiquer un serveur pour pirater des informations et/ou corrompre le fonctionnement du réseaule 04/11/2013 à 14:09 -
Marco46Expert éminent séniorA partir du moment où tu as un programme sur ta machine qui a un socket qui attend des connexions tu es serveur.
N'importe qui peut installer un serveur web sur sa machine, ça ne pose aucun problème, à part que dès que la machine est éteinte le serveur web est indisponible.
Ensuite il y a le problème du routage jusqu'à la machine depuis ta machinbox mais c'est pas plus dur à gérer que d'être high id sur emule (c'est même très exactement le même problème technique).
Pour être serveur, c'est comme pour héberger (réellement pas via steam !) une partie d'un jeu vidéo, il faut ouvrir un ou plusieurs port(s) sur UDP ou/et TCP (les 2 protocoles réseaux standards) et avoir lancé le programme serveur.
Ca ne sécurise pas mieux (ils ne parlent pas de techniques sécurités nouvelles) simplement ils veulent gérer la sécurité avant de recevoir des paquets.
Le fonctionnement du réseau actuellement c'est de recevoir des paquets peu importe qui envoie quoi. Charge au programme de gérer la sécurité à son niveau (ton appli gère si le paquet est interprété ou non). Du coup ça permet d'effectuer des attaques DoS sur une machine en la floodant de requêtes légitimes (par exemple donne moi ton index.html).
Eux ils veulent que tu t'authentifies avant de pouvoir recevoir des paquets de la machine serveur. Donc ça suppose de gérer une archi d'authentification et c'est ça qui est bizarre pour moi et où l'explication manque.
Qui va gérer ça et avec quelles technos ?le 04/11/2013 à 16:06 -
fredocheMembre extrêmement actifJe ne suis pas d'accord
les technos grand public sont dissymétriques par choix des opérateurs.
On a tout ce qu'il faut pour faire du symétrique, et même les derniers déploiements FTTH se font avec des offres dissymétriques
Le 95th qui sert de base de facturation de la BP s'applique de manière symétrique.
Quand 5 ans en arrière le P2P marchait plein pot, aurais tu dit que la centralisation était due au choix des utilisateurs ?
Et puis, j'ai essayé de trouver des infos sur ce projet et ce que tu évoques en ce qui concerne la sécurité. Tu as un lien ?
L'erreur est souvent faite, la sécurité n'est pas tant affaire d'authentification, elle est affaire surtout d'autorisation, de l'autorité que l'on confie.le 04/11/2013 à 17:14 -
TaurreMembre du ClubSalut,Des chercheurs développent un prototype de réseau d’architecture complètement décentraliséele 04/11/2013 à 21:27
-
WashmidMembre avertiC'est précisément ce que j'étais en train de me dire. Ce sont pas les opérateurs et ceux qui innovent dans le cloud (comprenez "cloud" = modèle Minitel) qui font tout pour qu'internet deviennent une architecture... centralisée?
Il n'y a qu'à voir les plaintes qu'il y a contre le peer to peer, ces chercheurs proposent exactement ce que craignent certains acteurs d'internet, non?le 04/11/2013 à 22:08 -
Marco46Expert éminent séniorTu parles des débits, je suis d'accord avec toi sur ce point, les opérateurs réseaux ont décidé arbitrairement que les internautes ne voulaient pas émettre.
Mais je parlais de la centralisation de l'information, sur Facebook, sur Google, etc ...
C'est pas vraiment un choix en toute connaissance de cause. Le P2P a fonctionné parce que c'était le plus pratique. Et puis on a eu Hadopi, et le direct download a explosé et tué kadmelia. Et on se retrouve avec une centralisation monstre inverse du P2P via emule ou torrent qui permettent de répartir la charge et les données.
L'usage c'est le téléchargement et la techno permettant l'usage fait que c'est centralisé ou non. Et ça les utilisateurs s'en foutent, ils veulent juste leurs séries.
Pour ce qui est des informations personnelles (blogs, photos, documents, recherche, etc ...) les services les plus pratiques à utiliser ça va être overblog, facebook, google, etc ... Mécaniquement ça centralise.
Forcément, c'est infiniment plus facile et rapide d'ouvrir un overblog que d'héberger un spip chez soi.
J'avais lu ce morceau.In pub/sub networking, senders “publish” what they want to send and receivers “subscribe” to the publications that they want to receive. In principle, no one receives any material to which they have not explicitly expressed an interest by way of subscription.
Et j'ai pas trouvé d'explications à ce sujet sur leur site, bon j'ai lu ça en diagonale au boulot aussi donc si qqun voit quelque chose je suis preneur.le 04/11/2013 à 23:25 -
souviron34Expert éminent séniorje trouve que c'est pas si nouveau que ça..
L'achitecture "en grappes" a au moins 30 ans...
Et le fait d'ajouter la vérification de sécurité était intimment liée à ça..
(j'avais d'ailleurs fait une achitecture comme ça il y a.. 18 ans)le 15/11/2013 à 13:44