IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Wikipedia se tourne vers l'intelligence artificielle
Pour améliorer le contrôle de la qualité des éditions et des articles

Le , par Stéphane le calme

67PARTAGES

9  0 
Chaque jour, des milliers d’articles sont édités sur l’encyclopédie en ligne Wikipedia, près de 500 000 fois par jour selon les estimations de la fondation Wikimedia, qui emploie à peine deux cents personnes (dont neuf en France en 2014) et gère Wikipedia. Afin de maintenir une certaine qualité de production, le site a opté pour des règles strictes de contribution et des modérateurs prompts à la censure, ce qui a contribué à une baisse significative du taux de participation ; depuis 2007, les contributions se sont vues diminuer de près de 40 %. Aussi, pour voir la situation évoluer dans le bon sens, la fondation a pensé à un outil qui serait capable d’analyser les modifications introduites par des internautes pour y repérer d’éventuelles erreurs : ORES (Objective Revision Evaluation Service).

« Aujourd’hui, nous annonçons la disponibilité d’un nouveau service d’intelligence artificielle conçu pour améliorer la façon dont les éditeurs maintiennent la qualité de Wikipedia. Ce service va aider les éditeurs Wikipedia à découvrir des modifications dommageables et peut être utilisé pour « noter » immédiatement la qualité d’un article Wikipedia. Nous avons rendu disponible cette intelligence artificielle comme un service web ouvert à tous et que quiconque peut utiliser », ont expliqué Aaron Halfaker, Senior Research Scientist, et Dario Taraborelli, Directeur de la Recherche, de la fondation Wikimedia.

ORES est capable d’identifier et de mettre en exergue les modifications potentiellement dommageables pour les éditeurs, ce qui leur permet de faire le tri dans la montagne de nouvelles modifications et des articles qui leurs sont soumis pour vérification avec un contrôle accru. « En combinant les données ouvertes aux algorithmes de machine d’apprentissage open source, notre but est de faire un contrôle qualité plus transparent, vérifiable et facile à expérimenter sur Wikipedia », a précisé la fondation. Elle espère d’ailleurs qu’ORES permette des avancées considérables dans la façon dont sont effectués les contrôles qualité. « Nous avons testé ce service pendant quelques mois et plus d’une douzaine d’outils d’édition et services en font déjà usage », confie la fondation.

Comment ORES fonctionne ? Le système apporte une classification automatisée de la qualité d’un article ou d’une modification via un ensemble d’API. ORES apprend en comparant des modèles à la qualité des évaluations d’articles ou de modifications faites par les wikipédiens (contributeurs sur la plateforme Wikipedia) et génère automatiquement une note pour chaque article et chaque modification.


Examens sur la version anglaise de Wikipedia avec la vue des éditeurs (à gauche) et les notes faites par le modèle de prédiction des « dommages » (à droite)


En clair, lorsqu’ORES détecte une erreur apparente, un éditeur humain est averti du problème et peut le corriger si nécessaire, ORES classant les erreurs suivant qu’elles s’apparentent à du « vandalisme » ou à de la « bonne foi ». De même, les éditeurs qui ont commis ces erreurs seront informés. Un outil qui vise donc à encourager les éditeurs à se montrer moins durs avec les contributeurs dont ils suppriment le contenu.
« Je soupçonne que le comportement rude des wikipédiens qui contrôlent la qualité des articles vient du fait qu’ils doivent arbitrer très rapidement, et qu’ils ne sont pas encouragés à avoir une interaction humaine avec la personne », a estimé Aaron Halfaker. « Cet outil permet de dire "si vous vous apprêtez à supprimer ceci, peut-être devriez-vous faire attention et envoyer un message à la personne qui a fait cette modification" ».

Pour l’instant, ORES a été déployé dans les versions anglaise, perse, portugaise et turque de Wikipedia.

Il faut préciser qu’ORES n’est pas la première intelligence artificielle qui a été conçue pour aider les wikipédiens à avoir un meilleur contrôle qualité de leur travail. La version anglaise de Wikipedia disposait déjà d’outils automatisés à l’instar d’Huggle et STiki et des bots comme ClueBot NG qui avaient été pensés pour réduire la charge de travail dans le contrôle qualité. Bien que les effets positifs aient été indéniables, les difficultés rencontrées par les nouveaux venus ont été exacerbées (par inadvertance) lorsqu’ils devaient apprendre comment contribuer sur la plateforme.

Source : blog Wikimedia, MIT Review Technology

Et vous ?

Que pensez-vous de cette initiative ?

Voir aussi :

Intelligence artificielle : un robot montre des signes de conscience de soi à l'issue d'un test effectué par des chercheurs

L'avenir de l'intelligence artificielle a quelque chose d'inhumain. Comment faire un ordinateur qui pense par lui-même ? Est-ce possible ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 04/12/2015 à 7:05
Je me demande si le terme 'Intelligence Artificielle' n'est pas utilisé à tort. Ils utilisent un 'simple' programme informatique - il n'y a pas d'auto-apprentissage, ni d'autonomie - de ce que j'ai lu. Bon, littéralement ça se tiens, mais si on commence à l'utiliser partout.

La maintenance d'un site gigantesque comme Wikipedia, qui malgré l'ouverture à un monde de troll et de hacker, reste d'une haute qualité, est un mystère pour moi. Tant mieux s'ils utilisent des algos désormais.
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 04/12/2015 à 14:45
Citation Envoyé par sympasteve Voir le message
Je me demande si le terme 'Intelligence Artificielle' n'est pas utilisé à tort. Ils utilisent un 'simple' programme informatique - il n'y a pas d'auto-apprentissage, ni d'autonomie - de ce que j'ai lu. Bon, littéralement ça se tiens, mais si on commence à l'utiliser partout.
Hélas non, on ne commence pas, ça fait déjà un bail qu'on met tout et n'importe quoi derrière l'IA dès lors que ça fait quelque chose automatiquement. Un simple script écrit en pur et dur pour un personnage non joueur de jeu vidéo est une IA... donc y'a rien d'étonnant à appeler un programme informatique une IA, dès lors que ça fait un travail qu'on assigne généralement à l'humain.

Moi aussi je le déplore, mais comme y'a plus de débats que d'accords sur comment définir le terme intelligence...
1  0 
Avatar de TiranusKBX
Expert confirmé https://www.developpez.com
Le 04/12/2015 à 7:44
En fait c'est leur deuxième système de vérification automatique des contribution ^^
0  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 04/12/2015 à 15:12
Citation Envoyé par Matthieu Vergne Voir le message
Hélas non, on ne commence pas, ça fait déjà un bail qu'on met tout et n'importe quoi derrière l'IA dès lors que ça fait quelque chose automatiquement.
en l'occurrence il s'agit de réaliser le traitement automatisé de corpus du langage naturel, ça s'assimile donc bien à une branche de l'IA à priori
0  0 
Avatar de Aurelien Plazzotta
Membre extrêmement actif https://www.developpez.com
Le 03/12/2015 à 22:26
La censure est désormais automatisée; plus besoin de faire appel aux bénévoles.
0  6