Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.Définitions
Avant d’aller dans le vif du sujet, ils ont commencé par donner quelques définitions, notamment :
Intelligence artificielle ou IA:
L’intelligence artificielle (IA) fait référence à des systèmes conçus par des humains qui, face à un objectif complexe, agissent dans le monde physique ou numérique en percevant leur environnement, en interprétant les données collectées, données structurées ou non structurées, raisonnant sur les connaissances tirées de ces données et décidant de la (des) meilleure (s) mesure (s) à prendre (selon des paramètres prédéfinis) pour atteindre l’objectif. Les systèmes d'intelligence artificielle peuvent également être conçus pour apprendre à adapter leur comportement en analysant la manière dont l'environnement est affecté par leurs actions précédentes.
En tant que discipline scientifique, l'intelligence artificielle comprend plusieurs approches et techniques, telles que l'apprentissage automatique (dont l'apprentissage en profondeur et l'apprentissage par renforcement sont des exemples spécifiques), le raisonnement automatique (planification, ordonnancement, représentation et raisonnement des connaissances, recherche et optimisation), et la robotique (qui comprend le contrôle, la perception, les capteurs et les actionneurs, ainsi que l'intégration de toutes les autres techniques dans des systèmes cyberphysiques).
Partialité (bias):
Une partialité est un préjudice pour ou contre quelque chose ou quelqu'un qui peut entraîner des décisions injustes. On sait que les humains sont biaisés dans leur prise de décision. Comme les systèmes d'IA sont conçus par des humains, il est possible que les humains leur injectent leurs préjugés, même de manière non intentionnelle. De nombreux systèmes d'IA actuels reposent sur des techniques d'apprentissage automatique. Par conséquent, un moyen prédominant d’injecter de la partialité peut être la collecte et la sélection de données d’entraînement. Si les données de formation ne sont pas assez complètes et équilibrées, le système pourrait apprendre à prendre des décisions injustes. En même temps, l'IA peut aider les humains à identifier leurs partialités et les aider à prendre des décisions moins biaisées.
But éthique:
Dans ce document, le but éthique est utilisé pour indiquer le développement, le déploiement et l'utilisation de l'intelligence artificielle garantissant le respect des droits fondamentaux et de la réglementation applicable, ainsi que le respect des principes et valeurs fondamentaux. C’est l’un des deux éléments essentiels pour parvenir à une IA digne de confiance.
IA centrée sur l'homme:
L’approche centrée sur l’être humain vis-à-vis de l’IA s’efforce de faire en sorte que les valeurs humaines soient toujours au premier rang des préoccupations et nous oblige à garder à l’esprit que le développement et l’utilisation de l’IA ne doivent pas...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.