IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deepfake : 29 % des entreprises ont été victimes de fraudes vidéos et 37 % ont été touchées par des fraudes vocales
Tandis que 46 % ont subi une fraude sur l'identité synthétique, selon Regula

Le , par Anthony

1PARTAGES

6  0 
Selon une enquête menée par Regula, spécialiste de la vérification d'identité, les fraudes de type "deepfake" sont en augmentation : 37 % des entreprises sont victimes de fraudes vocales et 29 % sont victimes de fausses vidéos.

Les faux artefacts biométriques tels que les fausses voix ou vidéos sont perçus comme des menaces réelles par 80 % des entreprises, les entreprises américaines étant les plus préoccupées, 91 % d'entre elles estimant qu'il s'agit d'une menace croissante.


"Les fausses identités générées par l'IA peuvent être difficiles à détecter pour les humains, à moins qu'ils ne soient spécialement formés à cet effet. Si les réseaux neuronaux peuvent être utiles pour détecter les deepfakes, ils doivent être utilisés en conjonction avec d'autres mesures antifraude axées sur des paramètres physiques et dynamiques, telles que les contrôles de la vivacité des visages, les contrôles de la vivacité des documents via des éléments de sécurité optiquement variables, etc. À l'heure actuelle, il est difficile, voire impossible, de créer des "deepfakes" qui affichent un comportement dynamique attendu, de sorte que la vérification de la vivacité d'un objet peut vous donner un avantage sur les fraudeurs. En outre, la validation croisée des informations de l'utilisateur avec des contrôles biométriques et des contrôles de transactions récentes peut contribuer à garantir un processus de vérification complet", déclare Ihar Kliashchou, directeur de la technologie chez Regula.


Les "deepfakes" ne sont pas le seul problème : l'enquête montre que 46 % des organisations dans le monde ont été confrontées à une fraude à l'identité synthétique au cours de l'année écoulée. Également connue sous le nom d'identité "Frankenstein", il s'agit d'un type d'escroquerie où les criminels combinent de vraies et de fausses informations d'identification pour créer des identités totalement nouvelles et artificielles, qu'ils utilisent ensuite pour ouvrir des comptes bancaires ou effectuer des achats frauduleux. 92 % des entreprises du secteur bancaire considèrent la fraude synthétique comme une menace réelle, et près de la moitié d'entre elles (49 %) ont récemment été confrontées à cette escroquerie.

Source : Rapport de Regula

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous que les conclusions de ce rapport de Regula sont pertinentes, voir utiles ?

Selon vous, quelles mesures peuvent-être mises en place pour limiter ces pratiques frauduleuses ?

D'après vous, quelles sont les implications de ces types de menaces pour l'avenir de la vérification d'identité ?

Voir aussi

Les humains trouvent les visages générés par l'IA plus dignes de confiance que les vrais visages, ils peinent à distinguer les images de visages créés par des machines de celles de véritables humains

Arnaque à l'IA : un couple canadien perd 21 000 dollars à cause d'une voix générée par IA qui avait imité à la perfection celle de leur fils, prétendant que l'interessé avait des ennuis judiciaires

L'acteur Bruce Willis manque de devenir la première célébrité à « vendre son visage » à une firme spécialisée en deepfake, mais ravive les débats autour de la synthèse d'images basée sur l'IA

Keanu Reeves affirme que les deepfakes sont "terrifiants" et ajoute que ses contrats de film interdisent les modifications numériques de son jeu d'acteur, l'acteur de Matrix dénonce leur utilisation

Une erreur dans cette actualité ? Signalez-nous-la !