IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un système développé par le laboratoire d'IA du MIT diminue le temps de chargement des sites de 34 %
En minimisant les allers-retours sur le réseau

Le , par Victor Vincent

20PARTAGES

5  0 
La rapidité de chargement des sites web est une problématique qui intéresse beaucoup d'entreprises, en particulier celles qui ont un trafic important comme les réseaux sociaux ou encore celles qui sont dans le domaine du e-commerce. Amazon par exemple, estime que tout retard de 100 millisecondes fait baisser ses profits d’un pour cent. C’est dire combien il est important que de tels sites génèrent les réponses le plus rapidement possible. Pour aider à lutter contre les problèmes de lenteur des sites web, des chercheurs du laboratoire d’informatique et d’intelligence artificielle de la prestigieuse université américaine du MIT ont mis au point un système qui réduit les temps de chargement des pages web de 34 pour cent. Le système, qui a été baptisé Polaris, permet de déterminer l’ordre de succession du téléchargement des différents objets de la page de sorte que la page entière nécessite moins de temps pour se charger.

Le doctorant Ravi Netravali, auteur d’un document sur le système Polaris, estime qu’« un navigateur peut prendre jusqu'à 100 millisecondes à chaque fois qu'il doit traverser un noeud de réseau mobile pour aller chercher des données ». Il ajoute que suivant la complexité des données à charger, il est souvent nécessaire de faire plusieurs allers-retours avant de charger l’ensemble de la page, ce qui peut causer d’énormes lenteurs dans les réponses. L’approche qui a été utilisée dans le système Polaris consiste à minimiser le nombre d’allers-retours dans le réseau afin de pouvoir accélérer le chargement de la page au maximum. L’équipe qui a travaillé sur le projet se compose du doctorant Ameesh Goyal, du professeur Hari Balakrishnan ainsi que le professeur James Mickens de Harvard qui a travaillé sur le projet lors de passage au MIT en tant que professeur invité. Les chercheurs ont testé leur système sur deux cents des sites les plus populaires au monde tels que ESPN.com, NYTimes.com, Weather.com entre autres. Les tests ont également été faits sous différentes configurations réseau.

Le procédé de Polaris pour diminuer les allers-retours sur le réseau est de chercher automatiquement toutes les interactions et interdépendances entre les différents objets d’une page. Il sait par exemple lorsqu’un objet lit des données dans un autre objet ou met à jour des données dans un autre. Il utilise ainsi son système de log assez détaillé pour pouvoir construire un graphe de dépendance pour la page à charger. Kitchen fait l’analogie avec un voyageur qui découvre les villes qu’il doit visiter une fois seulement. S’il avait la liste des villes avant de commencer son parcours, il pourrait déterminer le chemin le plus court. Sans la liste, il lui sera impossible de déterminer ce chemin et pourrait donc faire des trajets non optimisés entre les différentes villes. Mickens affirme que pour le cas d’un navigateur web, les objets à charger représentent les différentes villes. Il ajoute que Polaris donne cette liste des villes au navigateur lui permettant donc de charger de manière beaucoup plus rapide les pages web. Le système Polaris est présenté comme étant particulièrement adapté à de grands sites avec notamment une complexité élevée et des milliers d’objets lourds à charger ainsi qu’aux réseaux mobiles.

Source : mit news

Et vous ?

Que pensez-vous de ce système ?

Voir aussi

la rubrique Actualités

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de martycanfly
Membre habitué https://www.developpez.com
Le 11/03/2016 à 11:41
Qui sera ainsi chargé de donner la "carte des villes" ? (pour rester dans l'analogie)
Le Webmaster, en spécifiant l'arbre de dépendance dans l'en-tête de la page ?
Le navigateur, qui sera chargé d'étudier le contenu de la page lors de la première consultation, et qui en fera profiter les futurs visiteurs ?
Ou une autre entité ?
1  0 
Avatar de ymoreau
Membre émérite https://www.developpez.com
Le 11/03/2016 à 15:46
C'est justement leur système qui fabrique cette carte, mais je n'ai pas vu comment. Il est simplement dit qu'ils ont une meilleure approche que la simple analyse de la page HTML et ses dépendances, je suppose qu'ils tiennent principalement compte des chargements de ressource par JavaScript. Je serais de curieux de savoir comment.
1  0 
Avatar de goomazio
Membre chevronné https://www.developpez.com
Le 11/03/2016 à 18:44
Ils tentent de corriger automatiquement les erreurs que font beaucoup de développeurs web, même ceux qui bossent sur les sites les plus visités au monde ?

Il ne faudra plus être un pro du web pour pouvoir lancer un site truffé de pub et mal optimisé mais rapide. :yeah:
0  0 
Avatar de Tagashy
Membre confirmé https://www.developpez.com
Le 12/03/2016 à 23:39
Je pense que le logiciel doit enregistrer les temps de reponses des differents serveurs puis lors des nouvelles requettes dispatcher les requettes de facon à optimiser le trafic comme en effectuant les plus lente en premier
0  0 
Avatar de dlewin
Membre confirmé https://www.developpez.com
Le 14/03/2016 à 16:07
Bonjour,

J'ai l'impression qu'il manque des paramètres, car sinon il y à un sushi :
l'exemple pris dans le texte est clairement le cas d'école du représentant de commerce pour qui il faut passer de façon optimale dans plusieurs villes.
Je pense qu'en ce qui concerne l'optimisation décrite ici, c'est très (trop) schématisé car cela aurait été résolu ainsi depuis longtemps. Je pense surtout aux algorithmes génétiques ( quelle belle introduction ) ou résaux de neurones.
0  0