IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un membre de l'IAB, le comité chargé de la surveillance et du développement de l'Internet,
Explique pourquoi le réseau est appelé à évoluer

Le , par Stéphane le calme

243PARTAGES

10  0 
Selon Mark Nottingham, un membre de l’IAB (Internet Architecture Board, un comité chargé de la surveillance et du développement de l'Internet désigné par l'Internet Society), l’évolution des protocoles régissant Internet a été relativement lente pendant des années.

« En conséquence, les opérateurs de réseau, les fournisseurs et les décideurs qui veulent comprendre (et parfois contrôler) Internet ont adopté un certain nombre de pratiques basées sur l'empreinte numérique de ces protocoles – que ce soit pour déboguer les problèmes, améliorer la qualité de service, ou imposer une politique », a-t-il noté.

Pourquoi Internet est-il appelé à évoluer ?

Mark avance qu’un certain nombre de facteurs expliquent ces changements :

  • Tout d'abord, les limites des protocoles Internet de base sont devenues apparentes, en particulier en ce qui concerne les performances. En raison de problèmes structurels dans les protocoles d'application et de transport, le réseau n'a pas été utilisé aussi efficacement qu'il pouvait l'être, ce qui a conduit à des performances perçues par l'utilisateur final (en particulier, la latence).

    Cela se traduit par une forte motivation à évoluer ou à remplacer ces protocoles, car il existe une vaste expérience montrant l'impact de gains de performance même minimes.
  • Ensuite, la capacité à faire évoluer les protocoles Internet – à tous les niveaux – est devenue plus difficile au fil du temps, en grande partie à cause des utilisations involontaires des réseaux. Par exemple, les proxys HTTP qui essayaient de compresser les réponses rendaient plus difficile le déploiement de nouvelles techniques de compression, l'optimisation TCP dans les boîtiers de médiation a rendu plus difficile le déploiement d'améliorations au protocole TCP.
  • Enfin, nous sommes en train de passer à une utilisation accrue du chiffrement sur Internet, un mouvement qui est probablement stimulé par les révélations d'Edward Snowden en 2015.

Dans un souci de tracer l’évolution d’Internet, Mark s’est proposé de passer rapidement en revue ce qui a déjà été fait, ce qui sera fait, l’impact sur le réseau et comment le réseau influe sur la conception des protocoles.

HTTP / 2

HTTP / 2 a été le premier changement notable – standardisé en 2015. HTTP 2.0, viendra remplacer la dernière mise à jour du protocole HTTP 1.1, dont l’âge (la spécification avait été lancée en 1999) ne permet plus de répondre comme il se doit aux besoins du Web, qui est passé des simples pages sans trop de contenu à une véritable plateforme utilisée pour la diffusion du contenu multimédia, des applications, etc.

HTTP/2 promet de réduire considérablement le temps de chargement des pages. Il repose en grande partie sur le protocole SPDY, développé par Google et soumis à l’IETF en 2012, dont l’atout principal est le multiplexage. En effet, le protocole multiplexe les requêtes HTTP en une seule connexion TLS. Ainsi, une requête n’aura plus besoin d’attendre dans le navigateur à cause des limites de connexion.

HTTP 2.0 renforce également la sécurité. Le protocole supporte mieux le chiffrement (notamment le chiffrement avec TLS), ce qui permettra de rendre le Web plus sûr pour les internautes, tout en limitant l’espionnage de masse des organismes comme la NSA.

En ce qui concerne les développeurs, HTTP/2 repose sur les mêmes API que HTTP avec lesquels ils sont familiers. Mais, il propose cependant en bonus de nouvelles fonctionnalités que ceux-ci peuvent utiliser.

HTTP / 2 nécessite également l'utilisation de TLS / 1.2 lorsqu'il est chiffré et met sur liste noire des suites de chiffrement qui ont été jugées non sécurisées –- avec pour effet de n'autoriser que les clés éphémères.

TLS 1.3

TLS 1.3 ne fait que passer par les derniers processus de normalisation et est déjà supporté par certaines implémentations. Rappelons que Firefox le supporte depuis sa version 49, et Chrome depuis sa version 63.

Le nouveau design repose sur l'échange de clés éphémères, excluant ainsi les clés statiques. Cela a suscité des inquiétudes de la part de certains opérateurs et fournisseurs de réseaux – en particulier ceux qui ont besoin de visibilité sur ce qui se passe à l'intérieur de ces connexions.

Pour illustrer en quoi cela peut poser une gêne à certains opérateurs, Mark a pris l’exemple : considérons le centre de données d'une banque qui a des exigences réglementaires en matière de visibilité. En analysant le trafic dans le réseau et en le déchiffrant avec les clés statiques de leurs serveurs, ils peuvent enregistrer le trafic légitime et identifier le trafic nuisible, que ce soit des attaquants de l'extérieur ou des employés essayant de faire fuiter des données de l'intérieur.

TLS 1.3 ne supporte pas cette technique particulière d'interception du trafic, car c'est aussi une forme d'attaque contre laquelle les clés éphémères protègent. Cependant, étant donné qu'ils ont des exigences réglementaires pour utiliser à la fois des protocoles modernes de chiffrement et pour surveiller leurs réseaux, cela place ces opérateurs de réseau dans une position inconfortable.

Il y a eu beaucoup de débats pour savoir si des approches alternatives pourraient être tout aussi efficaces, et si la sécurité de l'Internet tout entier au profit de relativement peu de réseaux est la bonne solution. En effet, il est toujours possible de déchiffrer le trafic dans TLS 1.3, mais vous avez besoin d'accéder aux clés éphémères pour le faire, et de par leur conception, elles n’ont pas de longue durée.

QUIC

Pendant le travail sur HTTP / 2, il est devenu évident que TCP présente des limites similaires. En juin 2013 Google a révélé pour la première fois QUIC (Quick UDP Internet Connections) et l’a intégré à Chrome Canary. L’année d’avant, l'ingénieur Yuchung Cheng expliquait que pour contourner les limitations de TCP, le navigateur Web ouvre plusieurs connexions parallèles ; un mécanisme qui résulterait cependant en plusieurs temps de latence. Le protocole procède en effet à une première vérification en envoyant tout d'abord trois paquets avant de finaliser l'intégralité du transfert.

L’objectif premier de ce protocole est de prendre le meilleur de TCP (pour son mécanisme de vérification) et d'UDP (pour la rapidité du transfert, un protocole qui est souvent utilisé pour les jeux, les streamings de média, mais aussi les services VoIP) avec la mise en place de QUIC.

QUIC est une tentative pour résoudre le problème lié à TCP en reconstruisant efficacement sa sémantique (avec certains modèles de flux de HTTP / 2) par-dessus UDP. Comme HTTP / 2, il est né des efforts de contribution de Google et est maintenant en étude au sein de l'IETF (Internet Engineering Task Force, un groupe international qui participe à l’élaboration des standards Internet), avec un cas d'utilisation initiale de HTTP sur UDP et un objectif de devenir une norme à la fin de 2018. Cependant, puisque Google a déjà déployé QUIC dans le navigateur Chrome et sur ses sites, il représente déjà plus de 7 % du trafic Internet.

Le réseau et les utilisateurs

Quand un protocole ne peut pas évoluer, car les déploiements « gèlent » ses points d'extensibilité, on dit qu'il s'est ossifié. En dehors du désir d’éviter cette situation, Mark voit en ces changements le reflet de l'évolution de la relation entre les réseaux et leurs utilisateurs.

« Pour qu'Internet fonctionne bien à long terme, il doit fournir de la valeur aux utilisateurs finals, éviter l'ossification et permettre aux réseaux de fonctionner. Les changements en cours doivent maintenant atteindre les trois objectifs, mais nous avons besoin de plus d'informations de la part des opérateurs de réseau. »

Source : billet Mark Nottingham

Et vous ?

Quelles sont les évolutions dans les protocoles qui marquent, selon vous, les progressions les plus notables d'Internet ?

Voir aussi :

HTTP 2.0 : le développement du protocole finalisé, 16 ans après la sortie de HTTP 1.1
Google projette de proposer son protocole QUIC à l'IETF, pour un Internet plus rapide

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 15/12/2017 à 0:45
pour le bien ou le pas bien la pile protocolaire Internet a déjà pas mal évolué, les dev toujours obsédés à vouloir tout mettre sur le web (paye ton 2.0, qui a dit webmin, mysqladmin et autres ?) ont fini par avoir gain de cause, on ajoute à ça l'engouement pour les mobiles et c'est ce qui légitime aujourd'hui des protocoles comme QUIC ou HTTP/2

fini le FTP de papa, si on veut télécharger un fichier rapidement il faut le faire au dessus de HTTP qui a l'origine n'est censé véhiculer que du texte formaté, avouez que c'est quand même étrange comme évolution...

avant il y avait des ingénieurs qui se cassaient la tête pour faire une base solide et cohérente, c'était le modèle OSI, puis finalement le standard Internet s'est imposé, aujourd'hui c'est HTTP qui s'est imposé

je vois bien dans 30 ans de l'IA as a service dans un OS en réseau dans un hyperviseur distribué codé en Rotolol.js et transfér-exécutée au dessus d'une API en REST8 over CSS 15+plugin Gladiator, le tout encapsulé dans TRUFE (coques grises/noires & chaussures à lacets) over ZBURG (mains libres & crypto-monnaies) over QUIC (mobilité & streaming), le tout rendu possible par la seule puissance des cartes graphiques qui auront alors définitivement remplacé les processeurs (évidemment dans ces processeurs graphiques on aura trouvé un vieux Windows NT4 dont on soupçonnera qu'il puisse induire des vulnérabilités) etc.

et IPv6 me direz-vous ? rassurez-vous, la migration sera en bonne voie d'ici là avec au moins 0.2% du parc mondial totalement migré

non vraiment, j'ai hâte.

j'ai le sentiment qu'une poignée de chercheurs aujourd'hui redoublent d'ingéniosité pour palier aux décisions sans queue ni tête qu'on aurait pu (ou au moins dû) s'empêcher de prendre il y a 10 ans...

2  0 
Avatar de Skyxia
Membre confirmé https://www.developpez.com
Le 13/12/2017 à 10:28
Bonjour,

Ça me rassure de voir que des gens comme cet homme réfléchissent sérieusement à ce sujet

Un exemple sûrement bête mais les films de nos jours, quand on voit l'imagination qu'ils ont à créer des systèmes ultra performant et des choses très futuristes bah... ça paraît improbable à l'oeil du spectateur du coup la réaction qu'on a c'est "Haha n'importe quoi ce qu'ils font je m'y connais en informatique et c'est pas possible" et pourtant.. il est vrai qu'on utilise jamais au maximum les capacités de l'existant et on se limite à se qu'on connait.

Vivement que ça évolue et vivement les voitures volantes !
1  0