IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs dévoilent un prototype d'Internet du futur,
Reposant sur une architecture sans serveur, complètement décentralisée

Le , par Cedric Chevalier

67PARTAGES

4  2 
Une équipe de chercheurs de l’université de Cambridge a pour intention de remplacer le modèle relationnel client-serveur dont dépendent de nombreux services, applications et protocoles d’internet, par une architecture complètement décentralisée du réseau des réseaux.


Le projet ambitieux se nomme Pursuit, et un prototype de l’internet de demain conçu par les chercheurs est déjà disponible.

L’architecture retenue pour celui-ci est similaire dans son fonctionnement aux protocoles de partage de fichiers P2P (dans lesquels un nœud joue à la fois le rôle de client et serveur) et hérite de ceux-ci les nombreux avantages et inconvénients.

L’adoption du nouveau système des chercheurs mettrait fin aux préoccupations de protection de la vie privée des internautes ainsi qu’aux attaques de type DoS (Denial of Service) qui sont de véritables fléaux pour les serveurs.

Toutefois, il faudrait préciser que PARC (appelé autrefois Xerox), de qui on tient les premières souris et imprimantes, a mis lui aussi en place un projet similaire le CCN (Content Centric Network). Tout comme pour Pursuit, il est également question d’abandonner l’architecture client-serveur au profit d’un système décentralisé qui libérerait les entreprises de la dépendance au Cloud, technologie qui soulève de nombreuses questions sur la protection de la vie privée.

[ame="http://www.youtube.com/watch?v=xxFPFoCDGEo"]CCN[/ame]

Quand les utilisateurs lambda pourront-ils essayer ce nouveau réseau ? Aucune date n’est annoncée. On ne peut qu'espérer que cela se fasse le plus rapidement possible.

Source : PURSUIT

Et vous ?

Pursuit pourrait-il résoudre le problème épineux de la protection de la vie privée sur internet ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Marco46
Expert éminent sénior https://www.developpez.com
Le 04/11/2013 à 12:37
Citation Envoyé par Cedric Chevalier Voir le message

Pursuit pourrait-il résoudre le problème épineux de la protection de la vie privée sur internet ?
Ben non.

Ce que propose de faire le projet PSIRP c'est de décaler la couche sécurité dans les couches basses des protocoles réseaux. En gros avant même d'accepter un seul paquet d'un inconnu il y a authentification.

Mais rien n'est dit de la gestion de l'infrastructure des clefs nécessaire. Pour qu'il y ait une authentification il faut qu'il y ait un annuaire (centralisé à la X.509 ou décentralisé à la PGP).

Ce qu'ils proposent permettrait éventuellement de contrer le spam et les attaques DOS, donc ça concerne même pas les utilisateurs mais plutôt les administrateurs de services web (mails, sites web, etc ...). Ceci dit, des zombies authentifiés par leur système Doseront aussi bien les serveurs que des zombies non-authentifiés aujourd'hui xD
Je veux dire par là que l'authentification ne résout pas spécialement grand chose si les utilisateurs continuent de faire n'importe quoi avec leurs postes.

Citation Envoyé par ChristopheHvd
Ma question est plus pragmatique : ce type de techno peut-il s'intégrer dans la topo actuelle d'internet? Pourrait-on vraiment mettre en place ce système facilement ("seamlessly" comme on dit)?
Non puisqu'ils veulent réécrire les couches basses du réseau. Cela signifie que si ton matériel et tes logiciels ne supportent pas leur système tu ne peux pas t'interconnecter.

Bref tout ça c'est un joli projet d'étude mais c'est pas pour demain (et heureusement, imaginez le pouvoir de contrôle de celui qui gère les autorités de certification, il pourrait tout simplement décider de ce que vous pouvez lire et écrire sur le réseau).

EDIT :
Le fait que les informations soient centralisées sur le réseau n'est pas du à la nature ou à la structure d'internet mais aux usages des utilisateurs. Je veux dire que rien n'empêche (sauf parfois le FAI) d'héberger ses mails ou son blog. Et c'est bien du client-serveur pourtant ...
3  0 
Avatar de Markand
Membre éclairé https://www.developpez.com
Le 04/11/2013 à 10:37
Pourquoi pas, mais faudra un système d'intégrité de données poussée pour que chaque personne ait accès à la même donnée.
2  0 
Avatar de Traroth2
Membre émérite https://www.developpez.com
Le 04/11/2013 à 11:33
@jojosbiz : je suis plutôt d'accord avec toi. Mais il faut bien être conscient que les deux problèmes s'entremêlent. Facebook contient les photos du cul de M. X, mais aussi la liste des sites qu'il parcourt et qui contiennent un bouton "like" parce qu'il ne s'est pas déconnecté de Facebook.
1  0 
Avatar de dk
Membre actif https://www.developpez.com
Le 04/11/2013 à 14:09
Je suis allé consulter leur site internet pour en savoir un peu plus (rapidement je suis au taf quand même :p), et je trouve un peu dommage de réduire leur projet à une simple question de protection de la vie privée.
Si j'ai bien compris, ils veulent totalement faire abstraction du modèle ip qui va créer un internet "physique", dans le sens où il va y avoir des "routes" physiques à emprunter, pour à la place créer un réseau basé sur l'information : au lieu d'aller chercher l'information à telle adresse, j'adresse directement l'information. C'est un concept assez utopique a priori, mais qui sait c'est peut-être le futur.
En tout cas pour en revenir à la sécurité, je ne suis pas certain que ce soit mieux, le problème est juste déporté : si chaque client est aussi un serveur, il est possible en théorie de trafiquer un serveur pour pirater des informations et/ou corrompre le fonctionnement du réseau
1  0 
Avatar de Marco46
Expert éminent sénior https://www.developpez.com
Le 04/11/2013 à 16:06
Citation Envoyé par dk Voir le message
c'est à dire ? un client bitorrent par exemple ? parce qu'il me semble justement qu'il y a moyen justement de trafiquer un client (et donc la partie serveur) pour simuler des gros uploads ce qui permet de télécharger comme un porc.
A partir du moment où tu as un programme sur ta machine qui a un socket qui attend des connexions tu es serveur.

N'importe qui peut installer un serveur web sur sa machine, ça ne pose aucun problème, à part que dès que la machine est éteinte le serveur web est indisponible.
Ensuite il y a le problème du routage jusqu'à la machine depuis ta machinbox mais c'est pas plus dur à gérer que d'être high id sur emule (c'est même très exactement le même problème technique).

Pour être serveur, c'est comme pour héberger (réellement pas via steam !) une partie d'un jeu vidéo, il faut ouvrir un ou plusieurs port(s) sur UDP ou/et TCP (les 2 protocoles réseaux standards) et avoir lancé le programme serveur.

Citation Envoyé par dk Voir le message

je le dis tout de suite je suis nul en réseau, mais en quoi ça sécurise mieux ? si c'est une couche basse ça implique de modifier le matériel également donc ? En quoi le spam serait évité ? franchement ça reste assez vague pour moi ces avantages
Ca ne sécurise pas mieux (ils ne parlent pas de techniques sécurités nouvelles) simplement ils veulent gérer la sécurité avant de recevoir des paquets.

Le fonctionnement du réseau actuellement c'est de recevoir des paquets peu importe qui envoie quoi. Charge au programme de gérer la sécurité à son niveau (ton appli gère si le paquet est interprété ou non). Du coup ça permet d'effectuer des attaques DoS sur une machine en la floodant de requêtes légitimes (par exemple donne moi ton index.html).

Eux ils veulent que tu t'authentifies avant de pouvoir recevoir des paquets de la machine serveur. Donc ça suppose de gérer une archi d'authentification et c'est ça qui est bizarre pour moi et où l'explication manque.

Qui va gérer ça et avec quelles technos ?
1  0 
Avatar de fredoche
Membre extrêmement actif https://www.developpez.com
Le 04/11/2013 à 17:14
Citation Envoyé par Marco46 Voir le message

EDIT :
Le fait que les informations soient centralisées sur le réseau n'est pas du à la nature ou à la structure d'internet mais aux usages des utilisateurs. Je veux dire que rien n'empêche (sauf parfois le FAI) d'héberger ses mails ou son blog. Et c'est bien du client-serveur pourtant ...
Je ne suis pas d'accord

les technos grand public sont dissymétriques par choix des opérateurs.
On a tout ce qu'il faut pour faire du symétrique, et même les derniers déploiements FTTH se font avec des offres dissymétriques
Le 95th qui sert de base de facturation de la BP s'applique de manière symétrique.

Quand 5 ans en arrière le P2P marchait plein pot, aurais tu dit que la centralisation était due au choix des utilisateurs ?

Et puis, j'ai essayé de trouver des infos sur ce projet et ce que tu évoques en ce qui concerne la sécurité. Tu as un lien ?
L'erreur est souvent faite, la sécurité n'est pas tant affaire d'authentification, elle est affaire surtout d'autorisation, de l'autorité que l'on confie.
1  0 
Avatar de Taurre
Membre du Club https://www.developpez.com
Le 04/11/2013 à 21:27
Salut,

Des chercheurs développent un prototype de réseau d’architecture complètement décentralisée
Heu... J'avoue avoir du mal à saisir l'idée : Internet n'est-il pas justement un réseau complètement décentralisé ?
1  0 
Avatar de Washmid
Membre averti https://www.developpez.com
Le 04/11/2013 à 22:08
Citation Envoyé par Taurre Voir le message
Salut,

Heu... J'avoue avoir du mal à saisir l'idée : Internet n'est-il pas justement un réseau complètement décentralisé ?
C'est précisément ce que j'étais en train de me dire. Ce sont pas les opérateurs et ceux qui innovent dans le cloud (comprenez "cloud" = modèle Minitel) qui font tout pour qu'internet deviennent une architecture... centralisée?

Il n'y a qu'à voir les plaintes qu'il y a contre le peer to peer, ces chercheurs proposent exactement ce que craignent certains acteurs d'internet, non?
1  0 
Avatar de Marco46
Expert éminent sénior https://www.developpez.com
Le 04/11/2013 à 23:25
Citation Envoyé par fredoche Voir le message
Je ne suis pas d'accord

les technos grand public sont dissymétriques par choix des opérateurs.
On a tout ce qu'il faut pour faire du symétrique, et même les derniers déploiements FTTH se font avec des offres dissymétriques
Le 95th qui sert de base de facturation de la BP s'applique de manière symétrique.
Tu parles des débits, je suis d'accord avec toi sur ce point, les opérateurs réseaux ont décidé arbitrairement que les internautes ne voulaient pas émettre.

Mais je parlais de la centralisation de l'information, sur Facebook, sur Google, etc ...

Citation Envoyé par fredoche Voir le message

Quand 5 ans en arrière le P2P marchait plein pot, aurais tu dit que la centralisation était due au choix des utilisateurs ?
C'est pas vraiment un choix en toute connaissance de cause. Le P2P a fonctionné parce que c'était le plus pratique. Et puis on a eu Hadopi, et le direct download a explosé et tué kadmelia. Et on se retrouve avec une centralisation monstre inverse du P2P via emule ou torrent qui permettent de répartir la charge et les données.

L'usage c'est le téléchargement et la techno permettant l'usage fait que c'est centralisé ou non. Et ça les utilisateurs s'en foutent, ils veulent juste leurs séries.

Pour ce qui est des informations personnelles (blogs, photos, documents, recherche, etc ...) les services les plus pratiques à utiliser ça va être overblog, facebook, google, etc ... Mécaniquement ça centralise.

Forcément, c'est infiniment plus facile et rapide d'ouvrir un overblog que d'héberger un spip chez soi.

Citation Envoyé par fredoche Voir le message

Et puis, j'ai essayé de trouver des infos sur ce projet et ce que tu évoques en ce qui concerne la sécurité. Tu as un lien ?
L'erreur est souvent faite, la sécurité n'est pas tant affaire d'authentification, elle est affaire surtout d'autorisation, de l'autorité que l'on confie.
J'avais lu ce morceau.

In pub/sub networking, senders “publish” what they want to send and receivers “subscribe” to the publications that they want to receive. In principle, no one receives any material to which they have not explicitly expressed an interest by way of subscription.
Ca suppose bien pour le serveur de pouvoir authentifier le client, sinon pour doser une machine qui fonctionne avec ce système il n'y a aucun soucis, tu t'abonnes à la publication et tu doses.

Et j'ai pas trouvé d'explications à ce sujet sur leur site, bon j'ai lu ça en diagonale au boulot aussi donc si qqun voit quelque chose je suis preneur.
1  0 
Avatar de souviron34
Expert éminent sénior https://www.developpez.com
Le 15/11/2013 à 13:44
je trouve que c'est pas si nouveau que ça..

L'achitecture "en grappes" a au moins 30 ans...

Et le fait d'ajouter la vérification de sécurité était intimment liée à ça..

(j'avais d'ailleurs fait une achitecture comme ça il y a.. 18 ans)
1  0