IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Partage du spectre : l'intelligence artificielle à la rescousse ?
Pour le défi SC2 de la DARPA, l'apprentissage par renforcement semble bien positionné

Le , par dourouc05

86PARTAGES

10  0 
Le spectre électromagnétique est une ressource rare : chaque technologie sans fil veut sa bande de fréquences, de préférence aussi grande que possible. De plus, toutes les applications ne sont pas compatibles avec toutes les bandes de fréquence : de manière générale, plus la fréquence augmente, plus on peut faire passer de données... mais moins la portée est grande. C'est pourquoi les États mettent aux enchères des bandes de fréquences à intervalle régulier : l'objectif n'est pas que d'imposer des taxes aux opérateurs télécoms et autres utilisateurs du spectre, il a une vraie raison technique d'exister. La bande des 800 MHz est réservée à GSM et ses évolutions, les 700 MHz et 1,4 GHz à la télévision, les fréquences de 1,227 et de 1,575 GHz à GPS. Certaines zones sont entièrement libres : n'importe qui peut émettre, à n'importe quel moment. C'est notamment le cas de la bande de 2,45 GHz, dans laquelle on retrouve Bluetooth, WiFi... mais aussi les fours à microondes.

Si plusieurs appareils fonctionnent en même temps sur la même fréquence, leurs communications sont brouillées : ils reçoivent tous les signaux en même temps et sont incapables de les décoder correctement. C'est ce qui arrive lorsqu'on utilise un four à microondes, surtout lorsqu'il n'est pas suffisamment étanche : il brouille le signal WiFi dans un certain périmètre, par exemple. Le comité de normalisation de Bluetooth (IEEE 802.15) a décidé d'une technique bien particulière pour gérer l'accès au spectre électromagnétique : sauter régulièrement de fréquence en fréquence, de telle sorte que la communication ne reste que peu de temps sur une fréquence donnée, ce qui est très bénéfique si elle est encombrée (par exemple, par le signal WiFi du voisin). Le système fonctionne bien tant qu'il n'y a pas trop de fréquences utilisées.

Cette technique a été développée au début des années 2000. Depuis lors, la situation ne s'est pas améliorée, de plus en plus de signaux transitent dans les airs et risquent d'interférer joyeusement. De plus en plus de gens se demandent si l'allocation exclusive de fréquences a toujours du sens, notamment du côté de l'industrie. Un défi de la DARPA, l'agence américaine de développement de technologies de pointe à destination de l'armée, a lancé le concours Spectrum Collaboration (SC2), dont la finale aura bientôt lieu, après deux ans de développement. Les solutions proposées sont novatrices et permettent d'émettre beaucoup plus de données que précédemment sur la même bande passante, grâce à des techniques de partage dynamique.

Les systèmes en concurrence sont testées sur un simulateur à très grande échelle, Colosseum, hébergé à l'université John Hopkins. Il s'agit, ni plus ni moins, que d'un petit superordinateur : vingt et une baies de serveurs, soixante-cinq kilowatts de consommation. Ce système peut simuler plus de soixante-cinq mille interactions entre cent vingt-huit radios simultanément. Les simulations proprement dites sont effectuées par soixante-quatre FPGA, qui déterminent exactement comment les signaux se comportent dans l'espace et le temps, grâce à un modèle mathématique sophistiqué. Notamment, les murs sont pleinement pris en compte, avec leurs effets de rebonds. Certains scénarios incluent de la pluie, qui absorbe le signal, ou encore des brouilleurs de signaux.


Les concurrents peuvent ensuite y déployer leurs systèmes pour gérer, de manière collaborative, la bande passante disponible. Les algorithmes actuels n'utilisent pas beaucoup d'intelligence, à peine quelques règles codées en dur. Il n'existe pas vraiment de système d'accès au canal qui se base sur les techniques actuelles d'apprentissage automatique. La manière la plus naturelle de formuler le problème est l'apprentissage par renforcement : chaque fois que le système peut transférer des données, il reçoit une récompense ; si un paquet est perdu, il est pénalisé. L'algorithme d'apprentissage peut ainsi déterminer quelles techniques ont tendance à réussir et lesquelles ratent invariablement. Cependant, la différence par rapport à l'apprentissage par renforcement classique est que les concurrents doivent collaborer entre eux : sinon, ils créeront des interférences, qui feront baisser la quantité totale de données transférées, pour tout le monde. Bien évidemment, les systèmes concurrents ne disposent pas de manière pour communiquer entre eux et ne connaissent pas les politiques déployées par les autres : ce serait trop facile, sinon !

Un premier tour de compétition a eu lieu en décembre 2017. La plupart des équipes utilisaient des systèmes complexes de règles, écrites à la main, pour gérer l'accès au canal de manière équitable. Chaque équipe avait son propre système, mais on peut noter de grandes similarités : écoute du canal pour déterminer les fréquences déjà utilisées, détermination d'une part équitable du reste de bande passante, utilisation des fréquences avec le moins d'interférences. Certaines équipes ont implémenté des règles plus spécifiques, comme ne jamais utiliser plus d'un tiers du spectre disponible : ce genre de règle n'a pas aussi bien fonctionné que prévu, parce qu'ils ne pouvaient pas utiliser autant de bande passante que nécessaire pour réaliser certaines tâches ; de plus, certains concurrents, en remarquant que quelqu'un n'utilisait jamais trop de bande passante, lui laissaient de la place dans le spectre... une place qui n'a jamais été utilisée. Une telle règle ne fait donc que perdre de la bande passante utile, malgré son côté altruiste.

Pour corriger ce défaut, la majorité des équipes est passée à de l'apprentissage par renforcement pour le deuxième tour, en décembre 2018. Une bonne partie de ces systèmes exploite une forme de prédiction : quelles fréquences seront-elles disponibles dans le futur proche ? De la sorte, les systèmes peuvent émettre autant de données que possible, sans pour autant nuire à leurs voisins : les prédictions sont effectuées à un intervalle très régulier, pour s'adapter au mieux aux conditions réelles de l'utilisation du spectre.

La finale aura très bientôt lieu : le 23 octobre 2019. On saura à ce moment-là laquelle des dix équipes remportera la première place. Cependant, ces systèmes ne seront probablement pas déployés dans les systèmes commerciaux avant longtemps : la DARPA avant lancé un défi similaire en 2004 pour la conduite autonome, il aura fallu plus de dix ans avant de voir les premières voitures réellement autonomes, qui sont encore loin d'être majoritaires sur les routes.

Source : IEEE Spectrum.

Une erreur dans cette actualité ? Signalez-nous-la !