Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle de Facebook censure une publicité pour des graines d'oignon
Au motif de ce qu'elle l'a jugée "ouvertement sexuelle"

Le , par Nancy Rey

193PARTAGES

20  0 
Facebook a bloqué par erreur une publicité pour des graines d'oignon parce qu'elle était jugée "ouvertement sexuelle". La Seed Company, basée à St John's, Terre-Neuve-et-Labrador au Canada, a publié le mois dernier une photo de six oignons Walla Walla dans et autour d'un panier en osier. Cependant, le 25 septembre, la plateforme de médias sociaux a soudainement retiré l'annonce, au motif qu'elle est sexuellement suggestive.

On peut lire dans le post, qui annonçait des graines d'oignon à 1,99 $ CAD : « Un oignon extrêmement sucré, doux et gros qui est facile à cultiver à partir de graines. Sa grande taille et son excellente saveur en font un oignon idéal pour le tranchage, les salades, la friture, la cuisson au four, les rondelles d'oignon et les sauces ».

Jackson McLean, directeur de The Seed Company, a déclaré à la Presse canadienne qu'il était en train de mettre en place les publicités sur Facebook lorsqu'il a reçu un message d'erreur. « Quelques-uns d'entre eux sont revenus avec des erreurs, et j'ai regardé plus loin pour voir quelle était l'erreur, et pour la photo d'oignon, il a dit qu'elle était ouvertement sexuelle. Je suppose que quelque chose dans les deux formes rondes pourrait être interprété comme des seins ou quelque chose comme ça, nus d'une certaine manière. J'ai juste trouvé ça drôle. Il faut avoir une imagination très active pour regarder ça et en tirer quelque chose de sexuel », a-t-il déclaré.


Il savait que ses clients trouveraient le rejet de l'annonce amusant et a publié la photo, ainsi que le message automatique de Facebook avertissant que "les annonces ne doivent pas positionner les produits ou services d'une manière sexuellement suggestive", sur la page de l'entreprise. McLean a déclaré que certains clients ont posté des images de carottes et de citrouilles potentiellement suggestives en réponse.


Samedi, McLean s'est rendu sur le compte Facebook de l'entreprise pour parler de cette situation cocasse. Je viens d'être informé par Facebook que la photo utilisée pour notre graine d'oignon Walla Walla est "ouvertement sexuelle"... Pouvez-vous la voir ? a-t-il écrit, accompagné d'un émoji rieur. McLean a demandé à la plateforme de médias sociaux de revoir l'interdiction, mais il n'a reçu aucune réponse. Cependant, après qu'il se soit adressé aux médias nationaux canadiens avec l'histoire, Facebook a annulé la décision.

Meg Sinclair, responsable de la communication de Facebook Canada, a déclaré à la Presse canadienne que l'erreur était due à une confusion d'algorithme. « Nous utilisons une technologie automatisée pour éviter la nudité dans nos applications, mais il arrive qu'elle ne distingue pas un oignon Walla Walla d'un, eh bien, vous savez. Nous avons restauré l'annonce et nous sommes désolés pour les problèmes commerciaux causés à l’entreprise », a-t-elle déclaré".

L'entreprise Seed Company est en train de numériser tout son stock pour rendre les achats en ligne plus accessibles dans le contexte de la pandémie de coronavirus, a expliqué McLean et cela inclut le renforcement de certaines publicités, comme celle de l'oignon, sur Facebook. Les oignons Walla Walla, "une variété d'oignon plus ancienne", ont récemment été remis en stock à la demande des clients, et se vendent maintenant rapidement grâce à leur nouvelle notoriété, a-t-il rajouté :

« Nous avons vendu plus d'oignons ces trois derniers jours qu'au cours des cinq dernières années », a déclaré McLean, ajoutant que désormais les oignons Walla Walla « sont maintenant répertoriés sous la rubrique oignons sexy" sur le site web de l'entreprise ».

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

Reconnaissance faciale : le chef de la police de Detroit admet un taux d'erreur de 96 %. La police de Detroit croule sous les critiques pour une arrestation par erreur en usant de cette technologie

Reconnaissance faciale : un algorithme accuse à tort un Afro-américain qui écope d'une garde à vue pour plus de 24 heures. Et de poursuites auxquelles l'ACLU demande à la justice de mettre un terme

Des élèves découvrent que leurs évaluations sont notées par une « IA » qui se base sur la présence de certains mots-clés dans leurs réponses, et s'en servent pour obtenir de meilleures notes

Une tête imprimée en 3D a pu tromper le système de reconnaissance faciale de plusieurs smartphones Android populaires lors d'un test

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de LeDruide87
Membre du Club https://www.developpez.com
Le 16/10/2020 à 10:05
Je partage l'avis de tmcuh : "il suffit de lire le livre "l'Intelligence Artificielle n'existe pas" de Luc Julia pour se rendre compte qu'il a raison, il n'y a rien d'intelligent dans ce que font les machines."

Cependant, je n’appellerais pas ces techniques "intelligence augmentée". En effet, ces machines dépassent effectivement la vitesse de calcul du cerveau humain, mais c'est une question de dynamique augmentée -comme par exemple la pelleteuse augmente considérablement l'efficacité du creusement. Toutefois, cela ne s'opère que sur des entités logiques, j'entends par là des opérations que nous savons coder par une écriture comme celle de Boole ou la logique des propositions, voire des prédicats, mais ce n'est là qu'une partie de l'activité cérébrale consacrée à l'exercice des facultés humaines. J'en veux pour exemple la "reconnaissance faciale" : si le logiciel est capable de distinguer la configuration d'un visage de celle d'un buste, il ne se comporte que comme un sujet humain prosopagnosique, il ignore qui est la personne visée, il faut lui apprendre un nom à associer, et alors on retombe dans l'usage simple des bases de données relationnelles.

En fait, nous ne disposons pas d'une connaissance réelle de l'intelligence, on la réduit généralement à la seule capacité de logique, cet "esprit de géométrie" que Pascal (excellent mathématicien !) opposait à "l'esprit de finesse", mais elle englobe en fait la logique, la technique (= ars fabricandi, l'outillage), l'ethnique (= la capacité à constituer de la société et du lien social), l'éthique (= la régulation des désirs), autant de facultés qui interagissent dans le moment humain. C'est du moins ainsi que je la conçois. Par ailleurs, je doute que l'intelligence elle-même, ainsi conçue ou seulement réduite à la seule logique, puisse aller au-delà des possibilités que lui confère notre cerveau, car c'est toujours un cerveau humain qui conçoit. En bref, à moins d'une mutation positive du cortex, l'intelligence ne saurait s'excéder elle-même, par exemple la logique dans une métalogique. C'est pourquoi, au lieu "d'intelligence augmentée", je parlerais "d'inférence automatique", sans plus, sans mystification ni adoration. On trouvera une bonne illustration de ceci dans les "systèmes-experts" à qui l'on donne des règles d'inférence, ou encore dans les logiciels de "deep-learning" lorsqu'il s'agit bêtement de minimiser l'erreur.

Jugée dans cette optique, l' "IA" de Facebook ne fait rien d'autre que de croiser les mots et les images d'un document avec des listes de mots et d'images (ou de parties d'images) jugés arbitrairement politiquement incorrects non par la machine mais par le donneur d'ordres rédigeant le cahier des charges. C'est un procédé très grossier, qui n'a d'ailleurs rien d'une inférence automatique mais qui délègue à l'automate une décision d'ordre éthique ou politique : cela libère peut-être la conscience du censeur, mais en réalité ce n'est qu'un alibi hypocrite : "ce n'est pas moi, c'est l'IA !"
6  0 
Avatar de tmcuh
Membre habitué https://www.developpez.com
Le 11/10/2020 à 9:59
il suffit de lire le livre "l'Intelligence Artificielle n'existe pas" de Luc Julia pour se rendre compte qu'il a raison, il n'y a rien d'intelligent dans ce que font les machines.
Comme il le nomme on doit parler d'Intelligence Augmentée, juste une palle copie de ce qu'il connait.
Comme toujours les sociétés vous dirons : c'est bon c'est corrigée , tout ça ne fait que renforcer la machine.
Et ça prouve encore une fois de plus qu'il faudra encore des années avant d'avoir une intelligence réellement artificielle
5  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 16/10/2020 à 10:56
Citation Envoyé par edrobal Voir le message
Vous n'avez rien compris ! IA = imbécilité artificielle.
C'est plus compliqué que cela. Pour certaines tâches particulièrement précises, à l'objectif très clair, l'IA fonctionne déjà mieux que l'humain. Sources directement issues de nos clients : l'IA pour trouver un cancer du poumon sur une radio, c'est 2% d'erreur. Leurs meilleurs spécialistes? 30 & 40% d'erreur.

Mais en effet, c'est limité à des tâches extrêmement étroites. Dès qu'on essaye d'élargir un peu (comme l'exemple de ce fil, sur la censure morale), ta description s'applique parfaitement. Confondre un oignon avec un nibard, c'est très, très, très imbécile. C'est juste un peu trop large pour une IA.
3  0 
Avatar de Pierre Fauconnier
Responsable Office & Excel https://www.developpez.com
Le 16/10/2020 à 16:58
Citation Envoyé par Nancy Rey Voir le message
[...]
Meg Sinclair, responsable de la communication de Facebook Canada, a déclaré à la Presse canadienne que l'erreur était due à une confusion d'algorithme. « Nous utilisons une technologie automatisée pour éviter la nudité dans nos applications, mais il arrive qu'elle ne distingue pas un oignon Walla Walla d'un, eh bien, vous savez. Nous avons restauré l'annonce et nous sommes désolés pour les problèmes commerciaux causés à l’entreprise », a-t-elle déclaré".[...]
Tellement coinçée qu'elle n'ose même pas prononcer le mot "Sein". Ca en dit long sur la pudibonderie outre-atlantique. Et c'est affligeant. Si les algorithmes de "IA" sont créés sur base de cette pudibonderie, on risque d'être censurés bien plus souvent qu'à notre tour.

Sur le fond, j'ai lu dans un bouquin que l'IA, pour reconnaitre un chat, devait confronter l'image à anlyser à plusieurs millions de photos de chats dans toutes les positions, tous les décors, tous les éclairages, ... pour pouvoir déterminer que l'image analysée était celle d'un chat. Un bambin à qui l'on montre un chat quelque fois sait reconnaitre un chat dans pratiquement n'importe quelle situation. On est encore très loin d'imiter le cerveau humain, dont "l'intelligence" n'est pas que logique, loin de là.

La solution serait de quitter Facebook, de casser ce monopole et de se tourner vers d'autres réseaux alternatifs. Zuckerberg n'est riche que parce que nous utilisons FB.
3  0 
Avatar de tanaka59
Membre expert https://www.developpez.com
Le 11/10/2020 à 12:44
Bonjour,

Qu’en pensez-vous ?
La problématique de cette entreprise illustre parfaitement la sur censure et le nombre de faux positif qui explose avec l'IA soit disant au "top"... Bien évidement cela dégénère en grand n'importe quoi ...

Plusieurs exemple constaté cette été :

> un commerçant US qui produit des stickers custom pour avion/hélico RC a reçu la visite du FBI après un visuel produit détecté sur sa page Facebook avec les termes "making" et "bomb" ...
> un restaurateur Lilloise a vu sa carte de restaurant bloquée sur FB car son logo est une colombe et le menu contenait "volaille"
> exemple personnel : je travaille pour une entreprise qui fabrique des produits ménagers , je suis aussi consommateur de cette marque . Dans des conversations publiques Facebook (groupes dédiés au brico et activités manuelles), après la publication de 2 visuels , j'ai reçu des alertes de publications non conforme + un blocage de compte . Les visuels produit contiennent des chiens / chats . En discutant avec le service marketing de l'anecdote ils se sont aussi fait avoir sur la page officiel FB du magasin .

Le même problème a lieu pour les particuliers ... Et la je ne compte même plus le nombre de cas . Plus d'une centaines rien que sur 3/4 groupes de discussions Facebook .

A la longue c'est usant et fatiguant de toujours devoirs remettre les images / liens dans des conversations sommes toutes banales ...

----

A chaque fois Facebook base ces critères sur :

sexualité
braconnage
vente d'animaux prohibé
terrorisme

A longue si ils pouvaient arrêter d'emmerder le péquin ou le quidam moyen ...

Le vrai problème avec ce genre de pratique Facebook va "autodétruire" sa propre société ... Puis nos dirigeants ne pourront s'en prendre qu'a eux même à ne pas pouvoir taxer les "GAFAM".
2  0 
Avatar de bathrax
Membre régulier https://www.developpez.com
Le 16/10/2020 à 1:17
Facebook a une fois de plus trouvé le moyen de se ridiculiser...
2  0 
Avatar de domi65
Membre confirmé https://www.developpez.com
Le 18/10/2020 à 12:02
« Nous utilisons une technologie automatisée pour éviter la nudité dans nos applications, mais il arrive qu'elle ne distingue pas un oignon Walla Walla d'un, eh bien, vous savez »
Non, je ne sais pas. Je n'ignore pas qu'en français, oignon peut désigner notre partie charnue, mais la photos ne ressemble en rien à un ou des culs. D'où mon interrogation.
2  0 
Avatar de pierre86
Nouveau membre du Club https://www.developpez.com
Le 15/10/2020 à 20:53
Et les bananes, ça passe ?
1  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 19/10/2020 à 9:58
Citation Envoyé par tanaka59 Voir le message
Pour automatiser des taches rébarbatives, répétitives et chronophage sources d'erreurs pour l'humain en terme de vigilance ... Cela peut être une aide mais jamais "la solution". L'humain a toujours un avis qui peut ne pas être un choix "logique" pour la machine ou alors un choix qui relève d'un gout/envie et la machine est totalement off course dans ce cas précis.
C'est là le piège : il est très facile de se laisser impressionner, et de croire que le tout-machine est la solution. Exemple classique issu du monde du renseignement : quand les pakistanais on réussi leur premier essai nucléaire, si il y avait eu juste un agent de la CIA pour lire la presse et faire un rapport, Bill Clinton aurait été informé au bout d'une douzaine d'heures, peut-être moins. Mais à l'époque déjà, c'était du tout NSA, et le temps de déchiffrer les communications secrètes des pakistanais, et de faire le tri, et l'information a mis 48 heures de plus pour arriver sur le bureau du président des USA.

Et ce n'est pas comme si une nouvelle puissance nucléaire, c'était une information anodine.

On a des algos superpuissants, y compris ce que les spécialistes appellent l'IA (dans le médical, ça marche de mieux en mieux, mais toujours sur des sujets super ciblés, genre la recherche de cataracte dans les yeux). Mais le meilleur outil du monde ne vaut que ce que les humains en sa possession en font.

Citation Envoyé par tanaka59 Voir le message
Tous les sujets qui nécessitent des jugements sur des informations qui ne peuvent être traduites en "logique" ou de manière "chiffrable" (éthique, morale, sentiment, jugement ...) ne sont pas compatibles avec une "IA".
Et cette histoire de nichoignons est de celles-ci. Le coup des oignons est quand même révélateur. Mon fils, depuis ses 27 mois, ne se trompe plus jamais entre "monsieur" et "madame". Y compris pour des personnes pour lesquelles le premier coup d’œil est, euh, peu sur. L'âge des gens est plus vache, mais on le fait assez bien. Je n'ai hélas pas de lien pour vérifier cette information, mais j'ai oui avec insistance une rumeur comme quoi une IA avec auto-apprentissage qui essayait de déterminer l'âge des gens, avait pour seul et unique référentiel la longueur des lobes d'oreilles. C'est un peu limité (il faut que je trouve des sources pour vérifier, hein, mais ça illustre le souci : avec une forme assez ronde et une petite pointe au milieu, on voit tout de suite sur quels critères l'IA s'est basée pour détecter une poitrine féminine; et des choses évidentes qui disent tout autre choses sont ignorées).
1  0 
Avatar de tanaka59
Membre expert https://www.developpez.com
Le 12/10/2020 à 15:52
Bonjour,

Citation Envoyé par micka132 Voir le message
Ce sont des gens qui font pressions sur Facebook et autres réseaux sociaux pour qu'ils censurent à tout va.
Sur le fond j’adhère à l'idée de lutter contre les dérives sur FB. Pas sur la forme quand cela s'en prend au quidam moyen qui ne fait de mal . A part avoir la mal chance d'être un faux positif.

Citation Envoyé par micka132 Voir le message
Ça coute juste une blinde en R&D de devoir gérer tout ça!
C'est clair , cela coute une blinde en agent pour codifier les scénarios d'analyses !

Citation Envoyé par micka132 Voir le message
Bon c'est pas forcement inutile, ça développe pas mal les technologies.
Pour des cas d'utilisations c'est vrai c'est pas inutile. Il y a du potentiel.

Citation Envoyé par micka132 Voir le message
D'ailleurs dans l'ensemble c'est assez impressionnant les données qu'ils gèrent, et ce genre de "problème" sont franchement ultra minoritaires en rapport du volume traité.
Je serai curieux de connaître le ration faux positif VS vrai alerte. Au delà de 10/15% c'est problématique est nuisible.
0  0