C’est ce qui est arrivé à Danielle et à son époux. « Mon mari et moi avions l’habitude de blaguer en disant je parie que ces appareils écoutent nos conversations », rapporte la chaîne de télévision des propos de la dame. Il y a deux semaines, la famille est passée de la blague à la crue réalité avec un coup de fil qui, dit-elle, a mis un terme à son amour pour Alexa. « Débranchez immédiatement vos dispositifs Alexa. Vous êtes victimes d’un piratage », disait l’appelant – un collègue du mari. « Nous avons débranché les appareils et il a poursuivi en disant qu’il a reçu des enregistrements audio de notre intérieur », rapporte Kiro des propos de Danielle.
La chaîne de télévision rapporte que la famille a reçu copie des contenus audio et a pu confirmer que le collègue était bien sérieux. « Je me suis sentie envahie. Une intrusion totale dans notre vie privée. Je ne vais plus jamais me servir de ces dispositifs puisqu’on ne peut leur faire confiance », a-t-elle lancé. Contactée par la dame, l’entreprise a confirmé que les fichiers de journalisation reflètent bien le transfert. « Nos ingénieurs ont passé vos logs en revue et affirment avoir vu ce dont vous vous plaignez », a répondu Amazon. « Il s’est excusé une quinzaine de fois sur les 30 minutes que notre conversation a duré et m’a remercié d’avoir porté cette situation à leur attention », a-t-elle ajouté.
Kiro-TV rapporte qu’Amazon n’a pas donné de détails sur le transfert du contenu audio sans permission alors que l’appareil est programmé pour le faire. D’après les explications sommaires de l’entreprise, tout partirait d’un dysfonctionnement du moteur de traitement du langage naturel (un cas de figure très rare d’après Amazon). « Il nous a dit que l’appareil a juste imaginé ce que nous étions en train de dire », rapporte la chaîne de télévision des propos de la dame.
L’explication la plus plausible serait que l’IA s’est mise en marche après avoir détecté le mot « Alexa ». Puis, la suite de la conversation a été interprétée comme une requête de transfert de l’échange. Dans ces conditions en principe le dispositif émet des alertes sonores pour demander des détails sur l’identité du contact à qui le contenu doit être transféré. Fait curieux, les membres de la famille signent mordicus qu’ils n’ont pas eu de signalement.
Amazon a offert de désactiver les communications d’Alexa sur les dispositifs de la famille afin que cette dernière fasse uniquement usage des fonctionnalités dédiées aux domiciles intelligents. Mais, la décision de cette dernière est prise et elle souhaite plutôt obtenir un remboursement, ce à quoi Amazon se refuse.
Quelles alternatives ?
Envie d’intégrer un assistant vocal à votre projet de domotique sans avoir à faire transiter vos informations sur le cloud où elles pourraient se retrouver entre les mains de tiers ? Alors, il faudrait peut-être jeter un œil du côté de Snips, une jeune pousse parisienne spécialisée en traitement automatique du langage.
La start-up propose un assistant vocal qu’on peut intégrer à des dispositifs aux antipodes des ordinateurs actuels en termes de ressources. « Avec un Raspberry Pi 3, un microphone et une heure de votre temps, vous pouvez commencer à contrôler votre maison par le biais de votre voix, ce, en gardant le contrôle sur vos données », écrivent les concepteurs du système. Les particuliers peuvent faire usage de l’assistant vocal dans un cadre non commercial. Le tutoriel « concevoir son propre assistant vocal pour la météo avec Snips et un Raspberry Pi en une heure » est un excellent point d’ancrage pour les hobbyistes désireux d’effectuer une prise en main initiale de la plateforme. En quelques étapes simples à suivre, l’assistant vocal peut être installé sur l’ordinateur monocarte qui devient alors capable de : détecter qu’on s’adresse à lui ; transformer l’entrée sonore en texte ; analyser le texte pour en sortir une intention ; agir en accord avec l’intention (provoquer l’extinction ou l’allumage d’une lampe, etc.).
Snips a publié le moteur de traitement du langage naturel (la section de l’assistant vocal qui analyse le texte pour en sortir une intention) sous licence Apache 2.0 au début du mois de mars. La manœuvre, comme l’expliquent ses concepteurs, est destinée à vulgariser « l’intelligence artificielle respectueuse de la vie privée ». Il est disponible sous la forme d’une bibliothèque développée en Python et en Rust et dédiée à l’entraînement des modèles qui serviront à effectuer des prédictions sur de nouvelles requêtes. En substance, il s’agit de créer un modèle et de l’entraîner à l’aide de données tirées d’un dictionnaire Json que la start-up fournit (que le développeur pourra également monter lui-même) ; après quoi le modèle sera capable de généraliser à l’analyse de requêtes qui ne font pas partie de son dictionnaire.
Sources : Kiro, Annonce Snips, GitHub
Et vous ?
Ce qui est arrivé à cette famille est-il surprenant quand on sait que :
- ces dispositifs sont connectés à Internet ?
- qu’ils sont capables de contacter d’autres hôtes/services ?
- qu’ils sont dotés d’une simple interface conversationnelle basée sur des technologies de détection de commandes vocales qui ne sont pas parfaites ?
Que pensez-vous de l’alternative Snips ?
Quelle autre alternative avez-vous personnellement testé ? Qu’est-ce qui vous a plu avec cette dernière ?
Voir aussi :
L'internet des objets pourrait rapidement devenir l'internet des menaces prévient le fondateur et PDG Kaspersky
Vint Cerf : « quelquefois je suis terrifié par l'internet des objets », le père de l'internet partage les préoccupations suscitées autour de l'IdO
Internet des Objets et respect de la vie privée peuvent-ils aller de pair ? Eve Maler livre son analyse de la question