IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Adobe a développé un nouvel algorithme qui se sert de l'IA pour détecter les images retouchées
Sur Photoshop avec un taux de réussite de 99 %

Le , par Christian Olivier

319PARTAGES

5  0 
La diffusion de fausses vidéos, d’images falsifiées et de fake news est un phénomène récurrent et l’entreprise Adobe, fournisseur plébiscité de solutions ciblant la retouche de contenus multimédia, semble préoccupée par cette situation. Même si Adobe se félicite des améliorations apportées à ses logiciels et des nombreuses fonctionnalités ayant enrichi leurs capacités au fil du temps, elle déplore également le fait que ses outils contribuent, malgré elle, à la prolifération des contenus falsifiés.

À ce propos, Adobe a déclaré : « ;Bien que nous soyons fiers de l’impact que Photoshop et les autres outils créatifs d’Adobe ont eu sur le monde, nous reconnaissons également les implications éthiques de notre technologie ;», précisant que « ;les contenus falsifiés constituent un problème sérieux et de plus en plus urgent ;».


Peut-on créer un outil qui identifie les visages modifiés mieux qu’un humain ;? Est-ce que cet outil peut détecter les changements avec précision ;? Est-ce que cet outil peut effacer les changements sur l’image pour revenir à l’image originale ;? Ces questions semblent avoir guidé le géant technologique américain dans sa quête d’une solution magique qui pourrait rétablir la confiance des institutions et du public dans les médias numériques et, pourquoi pas, démocratiser la criminalistique de l’image.

Une équipe composée de chercheurs d’Adobe et de l’université de Berkeley a mis au point un nouvel algorithme qui se sert de l’intelligence artificielle (IA) pour détecter les images qui ont été retouchées avec l’application Adobe Photoshop. Cette initiative s’inscrirait dans le cadre plus large des nombreux efforts déployés par l’entreprise qui visent à développer des techniques fiables facilitant la détection des manipulations effectuées sur des images, des vidéos, des documents ou des fichiers audio.

Adobe assure que son nouvel algorithme peut détecter dans 99 % des cas les modifications réalisées avec l’outil Liquify couramment utilisé pour ajuster la forme des visages et modifier les expressions faciales sur Photoshop, ce qui est de très loin supérieur au score de 53 % obtenu lorsqu’on fait appel à des observateurs humains pour la détection. Cet outil serait même capable de suggérer comment restaurer une photo à son apparence originale, avant son édition, bien que les résultats ne soient pas probants pour l’instant. Adobe précise qu’il n’a pas l’intention de commercialiser ce nouvel outil dans l’immédiat.


« ;L’idée d’un bouton magique universel permettant d’annuler les retouches d’images est encore loin de la réalité ;», a confié Richard Zhang, chercheur chez Adobe, qui a contribué à la réalisation de ce travail. Cependant, « ;nous vivons dans un monde où il est de plus en plus difficile de faire confiance à l’information numérique que nous consommons et j’ai hâte d’explorer davantage ce domaine de recherche ;», a-t-il ajouté.

L’équipe de recherches a déclaré que ce travail constitue une « ;étape importante ;» vers la création d’outils permettant d’identifier précisément les changements complexes apportés au corps et au visage. Toutefois, bien que la recherche soit prometteuse, le développement d’outils comme celui-ci ne garantit pas systématiquement la fin de la prolifération des contenus falsifiés. Savoir que quelque chose est faux n’est que la moitié de la bataille, mais au moins c’est un début.

Source : Adobe

Et vous ?

Que pensez-vous de cette initiative ?
Pourrait-elle contribuer à lutter efficacement contre la prolifération des fake news ?

Voir aussi

Adobe annonce le rachat de la société Allegorithmic, un éditeur de logiciels 3D auvergnat, pour se repositionner sur le marché de la 3D
À partir de la fin de l'année 2020, Adobe mettra fin au support de son plug-in à succès Flash, comment envisagez-vous le web sans Flash ?
Adobe annonce qu'il achète Marketo pour 4,75 milliards de dollars et élargit son leadership dans les domaines B2C et B2B
Adobe dépasse les attentes au second trimestre de son année fiscale, porté par les ventes de son service Creative Cloud

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 16/06/2019 à 16:02
Citation Envoyé par Christian Olivier Voir le message
Cette initiative s’inscrirait dans le cadre plus large des nombreux efforts déployés par l’entreprise qui visent à développer des techniques fiables facilitant la détection des manipulations effectuées sur des images, des vidéos, des documents ou des fichiers audio.
Pour l'heure, on n'en est qu'au balbutiement. On parle de détecter certaines opérations seulement. Il faudra voir sur le moyen terme si ce genre de détection peut se généraliser suffisamment pour avoir des outils efficaces.

Mais l'idée part d'une bonne intention, et à l'heure du deepfake il faut des outils de ce genre. En l'occurrence :

Citation Envoyé par Christian Olivier Voir le message
Peut-on créer un outil qui identifie les visages modifiés mieux qu’un humain ;?
Ça c'est pas difficile, car certaines opérations permettent de faire ressortir les artefacts des retouches. Un simple exemple : enlever des boutons sur une photo de visage peut se faire facilement et proprement sous Gimp avec l'outil correcteur, mais je peux rabattre légèrement mon écran de portable pour voir les artefacts qui en résultent. L'exemple Liquify qui aurait 99% de précision ne m'étonne donc guère. Il faudrait creuser ce que "99% de précision" veut dire ici, mais dans tous les cas je ne doute pas qu'un calcul sur l'image soit plus efficace que l’œil humain, fait pour toute autre chose.

Citation Envoyé par Christian Olivier Voir le message
Est-ce que cet outil peut détecter les changements avec précision ;?
Avec l'exemple Gimp, c'est effectivement très simple. Si on peut comme celui-là identifier des filtres pour faire ressortir les artefacts de l'image, ça n'a rien de difficile. La question est plus de savoir si on est toujours capable de trouver de tels filtres, et ça j'en suis moins sûr. Une fois qu'on est conscient de l'exemple Gimp ci-dessus, on peut rabattre l'écran pour voir ces artefacts et poursuivre la correction dessus. L’œil humain ne détecte pas ces changements, mais ça permet de faire disparaître ces artefacts, rabattre l'écran n'est donc plus suffisant pour détecter la transformation.

Je crains donc qu'on soit non pas sur la recherche d'une solution au problème, mais sur une course technologique comme pour la cryptographie, où chaque solution apportée apportera aux hackers une nouvelle info sur ce qu'il faut faire pour rendre l'opération moins détectable. La course s'arrêtera temporairement quand les artefacts de retouche ne seront plus discernables du bruit naturel. S'ensuivra alors une course à la sécurité dans les appareils photos, introduisant des artefacts spécifiques pour faciliter l'identification de retouches (comme on a déjà sur les imprimantes), ce qui relancera la course pour, cette fois, détecter auparavant les artefacts pré-existants pour tenter de les reproduire après retouche.

Une course sans fin se profile, donc. Course qui passera probablement par la case "il faut enregistrer toutes vos photos sur nos serveurs pour qu'on puisse détecter les potentiels fakes", et une course marketing à qui saura faire signer le plus d'abonnement au service Cloud des mastodontes du secteur photographiques. Bref, une histoire sans fin avec des gros sous au milieu et des problèmes de vie privée bien de notre époque.

Citation Envoyé par Christian Olivier Voir le message
Est-ce que cet outil peut effacer les changements sur l’image pour revenir à l’image originale ;?
Si détecter les artefacts permet dans certains cas d'identifier le type de retouche effectué, cela ne veut pas dire que toutes soient inversibles. Dans le cas d'une déformation, comme pour l'exemple Liquify de l'article, ça l'est sûrement dans une certaine mesure (s'il n'y a pas de recouvrement ni trop d'écrasement). Mais pour le remplacement, on perd l'information d'origine. Au mieux on pourra identifier les zones qui correspondent aux différentes images composées, et ensuite faire éventuellement une recherche d'image sur le Web pour tenter de retrouver les images originales (d'où la nécessité d'enregistrer toutes vos photos dans notre Cloud hypersécurisé !), mais probablement pas d'outil générique pour la reconstruction de toute image retouchée.

Donc quand je lis :
Citation Envoyé par Christian Olivier Voir le message
« ;L’idée d’un bouton magique universel permettant d’annuler les retouches d’images est encore loin de la réalité ;»
Je pense que ça le restera probablement longtemps.

Et je terminerai sur une mise en garde :
Citation Envoyé par Christian Olivier Voir le message
« ;nous vivons dans un monde où il est de plus en plus difficile de faire confiance à l’information numérique que nous consommons et j’ai hâte d’explorer davantage ce domaine de recherche ;»
Il faudra quand même faire attention : leur business model est certainement de vendre des solutions d'IA pour tirer les conclusions. Or il faudra s'assurer que ces solutions donnent leurs raisons, autrement dit les procédures qui permettent de tirer ces conclusions, pas de les croire aveuglément. Dans ce cas-ci, c'est majoritairement possible, car on parle de données soit identifiables à l’œil nu au travers de filtres pré-définis, soit de données statistiques calculables sur l'image. Autrement dit des opérations reproductibles sur des outils indépendants, voire à la main pour les plus motivés. Pas question de faire confiance à une boîte noire, car je ne doute pas qu'on retrouvera rapidement ce genre d'outil dans des procès, car les deepfakes remettent en cause les preuve photos et vidéos.
4  0 
Avatar de lsbkf
Membre actif https://www.developpez.com
Le 16/06/2019 à 13:27
En vrai c'est juste pour traquer les gens qui n'ont pas payé leur licence ou utilisent des anciennes versions de Photoshop, non ?
On trouve une image retouchée -> on cherche la liste des clients (bon, peut-être un peu difficile si c'est un particulier), il n'y est pas -> procès.

Et le jour où l'outil est publié, il suffira de retoucher de sorte que ça détecte un faux négatif. On pourrait même faire une supercherie où ça détecte un faux positif, et l'opération inverse ( ) produit une fausse image judicieusement trafiquée. Pas très intéressant du coup.
2  1 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 16/06/2019 à 16:51
Les 99 % sont calculés comment, exactement ? Comme ça, le chiffre peut tout vouloir dire… (C'est une précision, une exactitude ? Un score de vrais/faux positifs/négatifs ? Les données de test étaient-elles relativement équilibrées ou avait-on seulement quelques pour cent d'images originales/retouchées ?)
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 16/06/2019 à 20:01
Citation Envoyé par dourouc05 Voir le message
Les 99 % sont calculés comment, exactement ?
En lisant la source, j'ai été déçu :
“We started by showing image pairs (an original and an alteration) to people who knew that one of the faces was altered,” Oliver says. “For this approach to be useful, it should be able to perform significantly better than the human eye at identifying edited faces.”

Those human eyes were able to judge the altered face 53% of the time, a little better than chance. But in a series of experiments, the neural network tool achieved results as high as 99%.
Il s'agit donc non pas de dire si la photo a été retouchée, mais de savoir identifier la photo retouchée parmi 2. La performance de 99% dans ce cas est très bien (ça veut bien dire que 99% des réponses sont corrects, positifs comme négatifs), mais l'intérêt est minime, car ça ne te permet pas de dire si une image quelconque est retouchée. On a les même limitations que pour l'étude homo/hétéro. En dehors de cas expérimentaux, tu ne verras probablement jamais ce genre de cas en pratique.

Du coup, j'étais déjà pas super excité à première lecture, mais là y'a vraiment encore rien de fait.
1  0 
Avatar de
https://www.developpez.com
Le 16/06/2019 à 19:10
Si ce principe peut s'appliquer aux vidéos, cela pourrait déterminer de manière convaincante si une vidéo est réelle ou "deepfake". Intéressant.

A condition bien sûr qu'il n'y ait pas une IA spécifiquement dédiée à la recherche de portes dérobées testant les vidéos pour faire foirer le test... En tout cas ça promet
0  0