IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Maelstrom : BitTorrent dévoile son navigateur décentralisé
Qui ambitionne de changer la façon dont les contenus sont diffusés sur le Web

Le , par Hinault Romaric

5PARTAGES

6  0 
BitTorrent veut faire du P2P (peer-to-peer) un élément essentiel du Web. La société à l’origine du célèbre protocole décentralisé de transfert de données diversifie ses services, tout en restant sur l’idée de base qui a fait son succès.

Après sa messagerie sécurisée Bleep basée sur une technologie distribuée pour les échanges et son outil de synchronisation de fichiers Sync, reposant toujours sur un modèle P2P, la société californienne dévoile sa prochaine innovation : Maelstrom.

Maelstrom est un navigateur qui ambitionne de changer la façon dont le Web fonctionne et apporter un internet plus décentralisé que jamais.

BitTorrent veut repenser la manière dont les internautes interagissent (accès au web, publication des contenus, etc.) et offrir un internet neutre.


« Le projet Maelstrom commence à répondre à cette question avec notre première version publique d'un navigateur Web qui permet de publier, d'accéder ou de consommer du contenu d'une nouvelle manière. Un Internet alimenté par chacun, qui réduit les barrières et repousse ceux qui veulent garder le contrôle et une emprise sur notre futur », explique Eric Klinker, le PDG de la firme dans un billet de blog.

Avec les multiples programmes d’espionnage des gouvernements qui ont été révélés ses dernières années, les défis à relever son important pour garder le web ouvert. « Si nous y parvenons, nous croyons que ce projet aura le potentiel pour résoudre certains des plus gros problèmes auquel Internet est confronté aujourd'hui. Comment garder internet ouvert ? Comment garantir la neutralité d’internet ? Comment pouvons-nous nous assurer que nos données privées sont en sécurité et ne sont pas détournées par des grandes entreprises ? Comment pouvons-nous aider Internet dans son besoin de diffusion de contenus ? », renchérit Eric Klinker.

Pour l’instant, peu d’informations techniques ont été publiées sur le projet Maelstrom. Il n’apportera pas de changement sur la manière dont les contenus sont créés, mais introduira un autre moyen de distribution et de publication des contenus Web.

Le navigateur serait actuellement au stade de version Alpha et pour avoir l’occasion de le tester, vous devez vous enregistrer sur le site du projet.

S'enregistrer pour tester le navigateur

Source : BitTorrent

Et vous ?

Un tel navigateur pourra-t-il être à l’abri de l’espionnage et maintenir le net neutre ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/12/2014 à 10:42
Citation Envoyé par transgohan Voir le message
Si toutes les données sont considérées comme privées et ne sont donc pas partagées entre une multitude de personnes on arrive à la limite de ce concept car il ne sert à rien
Non, les données considérées comme privées, ce sont les métadonnées : quels sites tu visites, à quel fréquence, pour quel usage...

Vous pensez que les utilisateurs vont accepter de stocker des Giga/Tera qu'ils ne pourront lire chez eux (car crypté, ect) pour le système ?
Non... S'ils stockent des données ce sont des données auxquelles ils accèdent.
C'est justement le cas du torrent, quand on télécharge un fichier on ne le garde pas ad-vitam eternam généralement, une fois qu'on l'a consommé on finit par le supprimer et donc on s'enlève de la liste des sources.
peut être pas des giga ou des Tera, mais par exemple le cache de ressources des différents sites...
Exemple : Le logo développement en haut a droite de ce site, qu'on pourrait aller chercher dans le "cache" du navigateur du voisin plutôt que sur le serveur Developpez.net à l'autre bout de la France. ça permettrait d'alleger la charge du serveur sur des tâches sans valeurs ajoutées pour se concentrer sur le reste.
Dans le cadre d'un forum avec un contenu ultra personnalisé, l'exemple est limité. Dans le cadre de Wikipedia par exemple, ou certaines pages ne bougent pas beaucoup, ça peut être encore mieu.

Pour info, un utilisateur lambda qui ne passe pas CCleaner tous les mois a régulièrement plusieurs centaines de méga de "Fichiers Temporaires" qui traînent sur leur disques.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 08/01/2015 à 18:51
J'ai envie de dire ENFIN ! J'ai dans mes projets quelques réflexions sur un navigateur entièrement décentralisé, mais ça me fait plaisir de voir qu'une entité on ne peut mieux placé pour ça s'en charge. Reste à voir le chemin qu'ils prennent. Ils peuvent déjà me compter dans leur mailing list.
1  0 
Avatar de Wirbelwind
Membre régulier https://www.developpez.com
Le 10/04/2015 à 23:28
Il y a aussi Tribler lancé il y a quelques années dans le même genre qu'un BiTorrent décentralisé, si je me souvient bien.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2015 à 16:28
Citation Envoyé par sazearte Voir le message
Il faut quand même au moins 1 serveur pour indexer le contenue, une sorte d'annuaire, (c'est pareil avec notre internet faut un moteur de recherche.)
Oui et non, oui car sans indexage on ne trouve rien mais non car ce serveur peut-être ta machine locale, autrement dit pas besoin d'un "serveur" tel qu'on l'entends généralement. C'est vrai que ça aide mais ce n'est pas nécessaire. L'indexage peut être distribué, et c'est le principe de la table distribuée de bittorrent : certains savent quelles sont les sources de tel torrent, d'autres savent quelles sont les sources d'un autre, etc. et en échangeant les données on finit par trouver les sources qu'on veut pour le torrent qu'on veut.

Citation Envoyé par sazearte Voir le message
Autre vrai problème, si on inventer les serveurs c'est pas pour des prunes. En se limitant au langage html et js, on fait pas grand chose d'une part, (on affiche juste du contenue, pas de traitement, ni de sauvegarde, ni de lien pour télécharger des fichiers) et d'autre part, qui vas stocker les données ?, parce que quand y'a 1To de donnée sa vas répartit sur 10000 utilisateurs, mais quand y'en aura 500To, 10000To... faudra crée des serveurs de stockages pour le coup.
Je suis encore à moitié d'accord. Ce n'est pas comme si on pouvait tout trimballer sur son propre PC, mais en même temps c'est de l'ordre de la gestion de l'espace disque : quand tu accèdes à un site, tu télécharge le contenu. Le tout étant de ne télécharger que le contenu qui t'intéresse, et non tout le site, et de le virer quand tu n'en a plus besoin. Ça c'est du point de vue du "client". Du point de vue du "serveur", il te faut effectivement stocker tout ton site, ne serait-ce que pour pouvoir le modifier. Cependant, rien ne t'empêche d'utiliser un vrai serveur à cette fin. Ce serveur ne serait qu'une machine de plus au sein de la nébuleuse, et serait une source avec un bon débit permettant à d'autres d'y accéder.

Pour le traitement de pages dynamiques et le téléchargement de fichiers, faut pas oublier qu'on peut faire tout ça sur sa machine locale. Et si tu as déjà fait ton propre site tu devrais le savoir : n'importe qui peut installer un serveur apache et faire son site en local et le rendre dispo online au travers de son IP (ou il se prend un nom de domaine s'il veut simplifier l'accès), même s'il peut être limité par sa propre connexion. Mais si c'est le cas, il s'achète ou se loue un serveur avec un bon débit et l'utilise-lui pour ses grosses affaires. On n'a rien sans rien, mais même les particuliers peuvent le faire. Je le fais depuis des années, ça fait longtemps que je n'utilise plus un site tout fait hébergé par une grosse compagnie, et ça ne se limite pas à un blog perso.

Commentaires mis à part, je viens de passer un peu de temps dessus, mais je peine à trouver des détails de conception : le dépot github n'a quasiment rien et le forum est aussi presque vide, et l'ensemble se focalise sur la création de sites pour l'afficher dans le navigateur mais pas le navigateur lui-même. Du coup je reste un peu sur ma faim et j'aimerais comprendre comment ça fonctionne concrètement.
1  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 12/04/2015 à 16:43
Je suis encore à moitié d'accord. Ce n'est pas comme si on pouvait tout trimballer sur son propre PC, mais en même temps c'est de l'ordre de la gestion de l'espace disque : quand tu accèdes à un site, tu télécharge le contenu. Le tout étant de ne télécharger que le contenu qui t'intéresse, et non tout le site, et de le virer quand tu n'en a plus besoin. Ça c'est du point de vue du "client". Du point de vue du "serveur", il te faut effectivement stocker tout ton site, ne serait-ce que pour pouvoir le modifier. Cependant, rien ne t'empêche d'utiliser un vrai serveur à cette fin. Ce serveur ne serait qu'une machine de plus au sein de la nébuleuse, et serait une source avec un bon débit permettant à d'autres d'y accéder.
Pour l'instant leur navigateur ne gère que le html et le js, pas de langage "serveur".

Le principe est simple, tu fais ton site web, et ton site et ensuite télécharger et stoker sur plusieurs machine connecter.
Quand tu te connecte sur un site avec le navigateur, il vas récupérer tous les fragments éparpiller sur les machines qui possède une partie du site

Je me demande comment il gère les versions du site, aujourd'hui je publie mon site, demain je modifier 1 ligne de css, comment il vas savoir que c'est la version officiel et la mettre a jour ?

Au final, je crois que c'est une mauvaise solution a un problème.
Le problème d'aujourd'hui c'est la centralisations des données, les sites web sont stoker chez une poigné d'hebergeur.

Pour moi la vrai solution se serait plutôt un déploiement massif de la fibre dans tout le territoire, chacun pourrais ainsi (avec un raspberry par exemple, un mini pc qui consomme 3watt...) publier sont propre site web, sur son propre serveur localisé dans son salon.

Reste encore le problème du nom de domaine qu'il faut payer, car une adresse du type 192.22.33.01 c'est pas très pratique, et je parle meme pas d'une adresse ipv6
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2015 à 17:56
Je suis d'accord. Quand c'est décentralisé, la mise à jour s'en retrouve plus difficile à gérer car il y a la notion de confiance qui entre en jeux : qu'est-ce qui me dit que ce fichier que m'envoit cette source est à jour sur la source "originale" ? Voire même, qu'est-ce qui me dit qu'elle n'a pas été sciemment remplacée par un malware ? À ce niveau là on entre dans tout ce qui est WoT (Web of Trust) et autres trucs du style. Ça existe et il y a des solutions qui se basent sur ce genre de choses pour mettre en place de la confiance décentralisée, comme PGP de mémoire.

En revanche, si c'est plus difficile, ce n'est pas nouveau : en mode client-serveur, la problématique existe déjà, car qu'est-ce qui te dis que le serveur auquel tu te connectes est bien celui qu'il prétend être ? Le DNS Poisoning existe, les attaques Man-in-the-Middle aussi. Le fait d'avoir un serveur ne règle pas ce genre de problème, ça le simplifie tout au plus car on ne doit regarder qu'un seul serveur, ou un petit nombre, et non généraliser à l'ensemble des pairs.

Ce qu'apporte bittorrent, c'est déviter que quand quelqu'un souhaite aller sur ton site, tu sois le seul à devoir assumer les coûts de bande passante immédiats. Parce que ton site est distribué, il permet de multiplier les sources. C'est comme des proxys (au sens duplication, pas au sens cacher son identité) : bittorrent généralise le principe de proxy pour que chacun agisse comme un proxy pour un autre. De cette manière, plutôt que d'avoir ton site en local et de devoir assumer 100% des coûts lors de chaque requête, tu ne le fais que lors des premières requêtes et ton site est ensuite progressivement distribué, ce qui permet à ta machine d'assurer moins de coûts lors de chaque requête car ces coûts sont distribués sur le réseau de pairs.

C'est complémentaire à mettre la fibre partout, et surtout ça coûte beaucoup moins cher. {^_^}
1  0 
Avatar de sizvix
Membre habitué https://www.developpez.com
Le 11/12/2014 à 16:02
C'est surtout le coté intégrité des informations qui est plus dur à gérer.
Et d'un bout à l'autre du réseau on pourrait ne pas avoir le même internet et être dépendant des noeuds voisins. ( ou sinon, c'est centralisé ^^U )
0  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 11/12/2014 à 18:02
Citation Envoyé par transgohan Voir le message
On parle bien de Peer to Peer hein ? Où est le côté privé dans ce concept ?
Le but est en général que la ressource soit au contraire partagée par de nombreuses sources afin de ne pas la perdre.
On a donc la sécurité qu'elle soit toujours disponible, mais pas qu'elle soit privée...
Tu confond à mon avis avec le concept de torrent, basé sur le peer to peer.
Aujourd'hui le Web a une architecture centralisé : Les informations sont stockées sur des serveurs (Que ce soit les mails ou les status Facebook). Tes données sont donc otages de ces serveurs, dont les proprios font ce qu'ils veulent.

Avec le peer to peer (pair à pair), les infos traversent les routeurs mais en théories ne sont pas stockées sur des serveurs Tiers : Elle est là l'amélioration de la vie privée. Tes données vont de chez toi à chez ton destinataire. Et avec des protocoles sécurisée """"""""en théorie"""""""" personne ne peut écouter sur le chemin.

Dans le cadre du torrent, les segments de tes fichiers sont bien échangés de Pair à Pair, et pas à partir d'un serveur centralisé. Celui-ci étant là uniquement pour recenser ceux qui partagent ou ceux qui cherchent.
0  0 
Avatar de Agrajag
Membre actif https://www.developpez.com
Le 15/12/2014 à 12:41
Nous annoncerait-on la fin des attaques DDOS ?
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 10/04/2015 à 22:05
Je viens de recevoir la notif par mail, vu que je suis inscris, et quelle ne fut pas ma déception : Windows only, et Mac en cours... mais pas un mot pour les linuxiens. {;_;}

On va attendre encore un peu. C'est pas comme si j'avais une masse de temps en ce moment. Mais si j'ai bien compris la problématique du contenu dynamique requérant un serveur central, je réfléchit depuis un moment à comment faire un MMORPG complètement décentralisé (oui, y'en a qui sont complètement stupides {^_^}), et y'a probablement moyen de raffiner les idées pour ce genre d'application.
0  0