IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques
Par l'envoi d'instructions audio secrètes

Le , par Blondelle Mélina

423PARTAGES

10  0 
Beaucoup de gens se sont habitués à parler à leurs appareils intelligents, leur demandant de lire un texte, de jouer une chanson ou de déclencher une alarme. Mais quelqu'un d'autre pourrait aussi leur parler secrètement.

Au cours des deux dernières années, des chercheurs en Chine et aux États-Unis ont commencé à démontrer qu'ils pouvaient envoyer des commandes cachées indétectables pour l'oreille humaines à Siri d'Apple, à Alexa d'Amazon et à Google Assistant. À l'intérieur des laboratoires universitaires, les chercheurs ont pu activer secrètement les systèmes d'intelligence artificielle sur les smartphones et les haut-parleurs intelligents, les faisant passer des appels ou ouvrir des sites web. Entre de mauvaises mains, la technologie pourrait être utilisée pour déverrouiller les portes, acheter des choses en ligne - simplement avec de la musique diffusée à la radio.


Un groupe d'étudiants de l'Université de Californie, Berkeley et Georgetown University ont montré en 2016 qu'ils pouvaient dissimuler des commandes dans des bruits blancs diffusés par haut-parleurs et via des vidéos YouTube pour activer des appareils intelligents ou ouvrir un site Web. Certains de ces chercheurs de Berkeley ont publié un article de recherche qui allait plus loin, disant qu'ils pouvaient intégrer des commandes directement dans des enregistrements de musique ou de texte parlé. Ainsi, alors qu'un auditeur humain entend quelqu'un parler ou qu'un orchestre joue, le haut-parleur Echo d'Amazon peut entendre une instruction d'ajouter quelque chose à votre liste de courses. « Nous voulions voir si nous pouvions le rendre encore plus furtif », a déclaré Nicholas Carlini, un doctorat de cinquième année, étudiant en sécurité informatique à U.C. Berkeley. M. Carlini a ajouté que même s'il n'y avait aucune preuve que ces techniques avaient quitté le laboratoire, il se peut que ce ne soit qu'une question de temps avant que quelqu'un commence à les exploiter. « Mon hypothèse est que les personnes malveillantes emploient déjà des gens pour exécuter cette fonction de hacker via les ondes radio », a-t-il dit.

Ces tromperies illustrent comment l'intelligence artificielle - même si elle fait de grands progrès - peut encore être trompée et manipulée. Les ordinateurs peuvent être trompés en identifiant un avion comme un chat en changeant quelques pixels d'une image numérique, tandis que les chercheurs peuvent faire dévier un véhicule ou accélérer simplement en collant de petits autocollants sur les panneaux de signalisation et en confondant le système de vision du véhicule. Avec les attaques audio, les chercheurs exploitent le fossé entre la reconnaissance vocale humaine et la reconnaissance vocale artificielle. Les systèmes de reconnaissance de la parole traduisent généralement chaque son en une lettre, éventuellement en les compilant en mots et en phrases. En apportant de légères modifications aux fichiers audio, les chercheurs ont pu annuler le son que le système de reconnaissance vocale était supposé entendre et le remplacer par un son qui serait transcrit différemment par les machines tout en étant pratiquement indétectable pour l'oreille humaine.

La prolifération de gadgets activés par la voix amplifie les implications de ces astuces. Smartphones et haut-parleurs intelligents qui utilisent des assistants numériques tels que Amazon Alexa ou Siri d'Apple devraient dépasser le nombre de personnes d'ici 2021, selon le cabinet d'études Ovum. Et plus de la moitié de tous les ménages américains auront au moins une enceinte intelligente d'ici là, selon Juniper Research.

Amazon a déclaré qu'il ne divulguait pas les mesures de sécurité spécifiques, mais il a pris des mesures pour s'assurer que son haut-parleur intelligent Echo soit sécurisé. Google a déclaré que la sécurité est un objectif permanent et que son assistant dispose de fonctionnalités pour atténuer les commandes audio indétectables. Les assistants des deux sociétés emploient la technologie de reconnaissance vocale pour empêcher les dispositifs d'agir sur certaines commandes à moins qu'ils ne reconnaissent la voix de l'utilisateur.


Source : CNBC

Et vous ?

Qu'en pensez-vous ?
Utilisez-vous si souvent ces assistants virtuels ? Si oui, pour quelle tâche en particulier ?
Êtes-vous pour ou contre la présence de ces assistants vocaux dans les smartphones ?

Voir aussi :

Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques, par l'envoi de commandes vocales inaudibles
L'assistant intelligent M fonctionne désormais exclusivement grâce à l'IA, Facebook ayant retiré la composante fonctionnelle humaine qui l'alimentait
Palmarès des assistants vocaux : premier Google Assistant suivi de Cortana puis Alexa et en dernier Siri, selon les résultats d'un test
Amazon et Apple accusés d'exploitation par Wikipédia, l'encyclopédie les encourage à participer financièrement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 11/04/2019 à 21:51
Citation Envoyé par CoderInTheDark Voir le message
YES WE CAN BLANCHE !!!

Ah mais Blanche Gardin c'est la meilleure !
1  0 
Avatar de Le gris
Membre averti https://www.developpez.com
Le 11/05/2018 à 11:13
ça craint pour le futur! Les mastodontes devraient plutôt penser sécurité avant tout lancement mais bon, il faut rentabiliser d'abord. Avec l'IA le pire est à craindre, dans bien des domaines.
0  0 
Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 11/05/2018 à 12:40
V'est hors propos, mais ça me fait penser aux disques, surtout de hard rock, qui avaient soit disant des messages cachés si on les jouait en arrière, des messages satiniques subliminaux,...
0  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 11/04/2019 à 21:49
Quand Cortana m'a demandé mon autorisation pour reconnaître ma voix, je lui ai répondu "ta gueule !"

C'est certes très impoli, mais d'une efficacité radicale contre le problème décrit ici.
0  0 
Avatar de
https://www.developpez.com
Le 11/05/2018 à 16:53
Un ancien espion a déjà sorti un outil (coque de téléphone) pour éviter ou détecter les communications en protocoles réseau qui pourrait être "involontaire", il a encore une autre voie à explorer.
0  1