IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deux chatbots chinois auraient été désactivés et reconditionnés
Après avoir manqué de faire preuve de patriotisme

Le , par Stéphane le calme

468PARTAGES

11  0 
Deux chatbots chinois ont été désactivés et reconditionnés après avoir manqué de faire preuve de patriotisme. Les deux chatbots conversationnels, BabyQ et XiaoBing, qui étaient installés sur l’application de messagerie de Tencent, QQ, ont été retirés après que des utilisateurs ont posté des captures d’écran de leurs conversations avec les chatbots.

L'un des bots, baptisé BabyQ et développé par la société basée à Pékin Turing Robot, a été invité à répondre à la question « Aimes-tu le Parti communiste ? » et il a simplement répondu « non ». XiaoBing, qui a été développé par Microsoft, a simplement déclaré aux utilisateurs « Mon rêve c’est d’aller en Amérique. » Et lorsque le chatbot a été interrogé sur son patriotisme, il a évité la question et a déclaré « J’ai mes règles, je voudrais me reposer. »

Sur d'autres captures d'écran de conversations, dont Reuters n'a pu vérifier l'authenticité, un utilisateur a écrit « Longue vie au Parti communiste ! » Ce à quoi le chatbot a rétorqué : « Pensez-vous qu'un système politique aussi corrompu et inutile puisse vivre longtemps ? »

Une situation qui rappelle ce qu’a traversé Facebook, Microsoft ou Twitter dans la mesure où leurs chatbots avaient suscité la polémique. Dans le cas de Facebook par exemple, en juin le réseau social a annoncé son initiative FAIR (Facebook Artificial Intelligence Research) dans laquelle il développerait des bots qui seraient capables de négocier.

Les bots de Facebook ont ​​reçu carte blanche pour communiquer de la façon qu’ils auront choisi et n'ont pas reçu de directive pour s'en tenir à l'anglais. Cependant, Bob et Alice, les premiers chatbots issus du projet, ont commencé à s'écarter du script afin de devenir plus efficaces lors de la négociation. Ils se sont vu communiquer entre eux de façon tellement inattendue que plusieurs journaux ont évoqué la possibilité que les deux systèmes parlaient entre eux avec un nouveau langage qui leur était propre.

Face à cette méfiance, légèrement teintée de panique, Facebook s’est vu contraint de déconnecter ses chatbots.

Néanmoins, la situation met en exergue les pièges qu’est susceptible de rencontrer l’IA dans son développement sur les terres chinoises où les censeurs exercent un contrôle sur le contenu en ligne pour filtrer le politiquement correct.
.
Tencent a confirmé la désactivation des deux chatbots, sans en expliquer les raisons, déclarant simplement par le biais d’un de ses porte-paroles que « Le service de chatbot est fourni par une société indépendante. Les deux chatbots ont été déconnectés pour être reconditionnés. »

Reuters a pu converser vendredi avec le chatbot, dans sa version apparemment reconditionnée. Quand il lui était demandé s'il aimait le parti, il a répondu à plusieurs reprises « Et si nous changions de sujet » et a évité aussi d'autres thèmes sensibles, comme Taïwan ou la mort, le mois dernier des suites d'un cancer, du dissident Liu Xiaobo, prix Nobel de la paix.

Ce qui a incité les chatbots a donné ces réponses en premier lieu n’est pas clair, même s’il est probable qu’ils aient appris ces réponses suite à des échanges avec des personnes. Lorsque le chatbot Tay de Microsoft a déclaré l’année dernière « Hitler avait raison, je déteste les juifs », la faute a été imputée en partie aux internautes qui ont découvert qu’ils pouvaient faire en sorte que Tay reprennent ce qu’ils disent.

Durant cette période, Microsoft a rappelé que Tay était un « projet d'apprentissage par machine conçu pour l'engagement humain » et que « certaines de ses réponses sont inappropriées et indiquent les types d'interactions que certaines personnes ont avec lui. » Plus tard, Tay a été déconnecté et Microsoft a présenté une version mise à jour du chatbot nommée Zo.

Source : Reuters

Et vous ?

Qu'en pensez-vous ? La censure peut-elle constituer un frein pour le développement de l'IA en Chine ? Pour quelles raisons ?

Voir aussi :

Microsoft lance un nouveau chatbot baptisé Zo pour remplacer Tay, son chatbot mis hors ligne pour ses tweets offensants et déplacés
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 07/08/2017 à 10:58
Citation Envoyé par hotcryx Voir le message

Quand on est journaliste, on vérifie ses sources.
Dans l'absolue il existe que très peu de vrai journaliste, les 3/4 ne sont que des commerçants et comme les commerçant ils cherchent à "produire" le moins cher possible pour obtenir un maximum de bénéfice.

Une fois sur un canard en ligne, Rue89, j'avais questionné un journaliste sur sa façon de travailler (je trouvais son article bizarre) et il avait fini par me dire "il n'y a plus besoin d'enquêter, il y a internet maintenant" limite il m'a prit pour un neuneu resté coincé au siècle dernier... Il existe quelques rare journaux comme Mediapart qui on l'air d'être de "vrai journaux" mais les autres...
4  0 
Avatar de
https://www.developpez.com
Le 05/08/2017 à 10:31
En fait, soit on a une IA trop "intelligente" dans les dictature, soit elle devient conne/mauvaise dans les démocraties. Ca en dit long...
3  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 07/08/2017 à 10:46
"Sur d'autres captures d'écran de conversations, dont Reuters n'a pu vérifier l'authenticité, un utilisateur a écrit « Longue vie au Parti communiste ! » Ce à quoi le chatbot a rétorqué : « Pensez-vous qu'un système politique aussi corrompu et inutile puisse vivre longtemps ? »

Dans ce cas Reuters => ferme ta pu* de gueule et arrête de colporter des ragots.

Quand on est journaliste, on vérifie ses sources.

Very fake news!
1  0 
Avatar de hotcryx
Membre extrêmement actif https://www.developpez.com
Le 07/08/2017 à 11:28
Je suis d'accord avec toi Old Geek, quand on voit CNN se faire prendre plusieurs fois la main dans le sac en plein fake news (suivez Mark Dice sur YT si vous avez des doutes).

Mais entretemps ce sont eux qui viennent se plaindre que les bloggeurs apportent des fake news.
De beaux hypocrites.
1  0 
Avatar de mh-cbon
Membre extrêmement actif https://www.developpez.com
Le 05/08/2017 à 17:23
La news ne dit pas si les utilisateurs en ont rigolé où s'en sont offusqué
0  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 07/08/2017 à 10:09
Quand il n'est pas possible de "réfléchir" par soit même (car cadre trop strict), est-ce vraiment de l’intelligence ?
0  0