Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des cybercriminels ont réussi à escroquer 222 000 € en utilisant un logiciel boosté à l'IA
Pour reproduire la voix d'un PDG

Le , par Stéphane le calme

150PARTAGES

12  0 
Le Wall Street Journal a rapporté une escroquerie qui a eu lieu en mars 2019 et a vu des criminels réussir à escroquer la somme de 201 000 £ (222 000 €). Les cybercriminels ont eu recours à l'intelligence artificielle pour imiter la voix du directeur de la société mère allemande d'une entreprise énergétique britannique non identifiée. Le résultat était si crédible que le chef de la direction basé au Royaume-Uni a été amené à effectuer un important transfert d'argent au chef de la direction, via un fournisseur hongrois.

Le directeur de l'énergie a reçu un appel du directeur général de la société mère en Allemagne, lui demandant d'effectuer un important transfert d'argent prétendument urgent. Le directeur a fait le transfert demandé à un fournisseur hongrois et il a reçu un autre appel du directeur général lui assurant que le transfert serait remboursé immédiatement. Jusque là, cela lui semblait crédible.

Toutefois, lorsque les fonds de remboursement ne figuraient toujours pas dans les comptes et qu'un troisième appel avait été lancé depuis l'Autriche, l'appelant ayant à nouveau prétendu être le PDG de la société mère demandant un autre transfert urgent, le directeur est devenu suspicieux. Malgré la reconnaissance de ce qui semblait être la voix de son patron, le PDG a refusé de faire le transfert, réalisant que quelque chose n'allait pas.

Bien que le directeur ait reconnu l’accent et les intonations familiers du chef de la direction, il s’avère que ce dernier n’avait pas fait l’appel. D'ailleurs, les fonds que le directeur a transférés en Hongrie ont ensuite été transférés au Mexique et à d'autres endroits et les autorités n'ont pas encore identifié de suspects.

Rüdiger Kirsch, expert en fraude chez l’assureur Euler Hermes, qui couvrait la réclamation de la société victime, a déclaré au Wall Street Journal que la société d’assurance n’avait jamais traité de réclamations découlant de pertes suite à des crimes liés à l’IA. L'enquête policière sur cette affaire est terminée et elle indique que des cybercriminels ont utilisé un logiciel commercial générant la voix pour mener l'attaque, notant qu'il avait par la suite testé un tel produit et avait trouvé que la version reproduite de sa voix lui semblait réelle.


Jake Moore, spécialiste de la cybersécurité chez ESET, a estimé que nous assisterons à une augmentation considérable des cybercrimes s'appuyant sur le machine-learning (une branche de l'intelligence artificielle) dans un proche avenir. Et de continuer en disant :

« Nous avons déjà vu les deepfake imiter des célébrités et des personnalités publiques au format vidéo, mais il a fallu environ 17 heures de séquences pour un résultat convaincant. Être capable de simuler des voix nécessite moins d’enregistrements à produire. À mesure que la puissance de calcul augmente, nous commençons à voir que celles-ci deviennent encore plus faciles à créer, ce qui donne une image effrayante de l'avenir ».

Pour vous assurer de ne pas être victime d’une telle attaque, Moore suggère d’inclure des techniques de vérification avant de transférer de l’argent, même s’il s’agit de personnes que vous connaissez. Il a ajouté : « lorsqu’on vous appelle pour un transfert d’argent, en particulier des sommes importantes, vérifiez le numéro et demandez à le rappeler. Utilisez un numéro dans votre carnet d'adresses plutôt que d'appuyer sur l'option "Rappel" de votre historique des appels ».

L'année dernière, Pindrop, une entreprise qui crée des logiciels et des protocoles de sécurité pour les centres d'appels, a enregistré une augmentation de 350% de la fraude vocale entre 2013 et 2017, principalement auprès des caisses populaires, des banques, des assureurs, des courtiers et des émetteurs de cartes.

En prétendant être quelqu'un d'autre au téléphone, un cybercriminel peut accéder à des informations privées qui ne seraient pas autrement disponibles et qui pourraient être utilisées à des fins néfastes. La capacité de simuler l’identité d’un autre utilisateur avec la voix est plus facile que jamais avec de nouveaux outils audio et une confiance accrue dans les centres d’appel offrant des services (au lieu de s’adresser à la banque et de parler à un caissier, par exemple). À mesure que les outils permettant de créer des faux s'améliorent, il ne serait pas étrange de voir les criminels utiliser de plus en plus des technologies vocales basées sur l'IA pour imiter nos voix et les utiliser contre nous.

Source : WSJ , Pindrop

Et vous ?

Si les deepfake montrent que nous pourrons ne plus faire aveuglément confiance à ce que nous voyons, peut-on considérer que c'est la même chose pour ce que nous entendons ?
La situation vous semble-t-elle surprenante ? Pourquoi ?
Quelles recommandations pouvez-vous donner pour se prémunir de ce genre d'arnaque ?

Voir aussi :

« On peut voir l'humanité comme une sorte de chargeur d'amorçage biologique pour l'intelligence artificielle », d'après Elon Musk
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Gartner : la montée en puissance de l'IA créera 2,9 mille milliards USD de valeur commerciale en 2021 en valorisant l'intelligence augmentée

Une erreur dans cette actualité ? Signalez-le nous !