IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une IA expérimentale de reconnaissance de cible pensait avoir un taux de réussite de 90%,
C'était plutôt 25 %

Le , par Bruno

48PARTAGES

6  0 
Alors que l'intelligence artificielle a récemment été présentée comme très performante dans un certain nombre de domaines, la réalité que ces systèmes ne sont peut-être pas aussi performants qu'on l'avait imaginé. Le site d'information militaire américain, Defense One, partage une mise en garde du général de Daniel Simpson, major de l'armée de l'air américaine (chef d'état-major adjoint pour le renseignement, la surveillance et la reconnaissance).

Simpson décrit leur expérience avec un programme expérimental de reconnaissance de cible basé sur l'intelligence artificielle qui semblait bien fonctionner : initialement, l'intelligence artificielle a reçu des données d'un capteur qui cherchait un seul missile surface-surface à un angle oblique, a dit Simpson.


Le programme piloté par IA a reçu des données provenant d'un capteur qui recherchait un seul missile surface-surface à un angle oblique, a déclaré Simpson. Puis elle a reçu les données d'un autre capteur qui recherchait plusieurs missiles à un angle quasi vertical. Ensuite, on lui a fourni les données d'un autre capteur qui recherchait plusieurs missiles à un angle presque vertical.

« L’algorithme n'a pas donné de bons résultats. En fait, il n'était précis qu'environ 25 % du temps, a-t-il déclaré. Il s'agit d'un exemple de ce que l'on appelle parfois "l'IA fragile", qui se produit lorsqu'un algorithme ne peut pas généraliser ou s'adapter à des conditions autres qu'un ensemble étroit d'hypothèses », selon un rapport publié en 2020 par la chercheuse et ancienne aviatrice de la marine Missy Cummings.

Alors que l'IA peut être utilisée dans de nombreuses applications quotidiennes, du shopping à la gestion de la domotique, c'est la question de la sécurité qui se pose et c'est l'application de l'IA dans les systèmes critiques pour la sécurité, comme les transports et la médecine, qui est la plus préoccupante car une mauvaise utilisation de l'IA peut avoir des conséquences mortelles.

Il y a fragilité lorsqu'un algorithme ne peut pas généraliser ou s'adapter à des conditions autres qu'un ensemble étroit d'hypothèses. Par exemple, de nombreux algorithmes de traitement du langage naturel sont fragiles lorsqu'ils peuvent comprendre une personne de la ville de Paris, mais ne parviennent pas à comprendre la même phrase de quelqu'un des Appalaches ou qui parle français avec un accent étranger. Bien que cette fragilité peut être frustrante pour une personne qui tente de s'orienter dans un arbre téléphonique, mais elle peut être mortelle dans un système de sécurité critique qui s'appuie sur toute sorte d'apprentissage automatique pour la perception ou le raisonnement critique.

Les problèmes de vision par ordinateur dans l'automobile ont été cités comme des facteurs contributifs dans de nombreux accidents mortels de Tesla et la mort d'un piéton dans un accident de voiture Uber autonome. Malgré les promesses faites depuis des années, de nombreuses entreprises sont revenues sur leurs promesses pour tenter de recalibrer les attentes du public et des bailleurs de fonds.

De concert avec les réactions négatives du public à l'égard de l'IA et de la protection de la vie privée, ainsi qu'avec les préoccupations relatives à l'IA intégrée aux réseaux sociaux qui pourraient manipuler les gens, le sentiment négatif augmente à l'égard des applications de l'IA.

De nombreux experts craignent que cette réaction négative ne conduise à un autre hiver de l'IA qui pourrait entraîner une méfiance importante envers les avancées légitimes de l'IA et un refroidissement du soutien financier. Compte tenu de ce résultat potentiel, il est important de prendre du recul et d'analyser les raisons pour lesquelles l'IA a du mal à s'imposer dans les systèmes critiques de sécurité et la façon dont le secteur de l'IA peut contribuer à la sécurité.

Dans les environnements critiques pour la sécurité, comme les transports et les soins de santé, la vision par ordinateur est une application courante de l'intelligence artificielle, ce qui signifie généralement que les algorithmes tirent parti de l'apprentissage automatique, parfois appelé apprentissage profond, pour « percevoir » le monde afin de prendre des décisions.

Par exemple, les algorithmes d'apprentissage profond dans les voitures sans conducteur déterminent si une voiture "voit" un piéton ou, dans le domaine de la santé, s'il existe une tumeur dans une image granuleuse d'un poumon. Bien que d'importantes avancées aient été réalisées au cours des dix dernières années dans le domaine de la vision par ordinateur et des algorithmes d'apprentissage profond qui sous-tendent ces systèmes, de telles approches du développement de modèles perceptifs du monde réel sont confrontées à des problèmes de fragilité.

"L'IA fragile" pourrait trouver sa source de cette fragilité dans les algorithmes d'apprentissage machine n'apprennent pas réellement à percevoir le monde d'une manière qui permette de généraliser face à l'incertitude. Pour qu'un algorithme d'apprentissage automatique « apprenne » à voir un panneau stop, par exemple, il doit « voir » des dizaines de milliers d'images similaires afin de comprendre les schémas d'un panneau stop. Ce que l'algorithme a « appris », c'est qu'un ensemble particulier de relations mathématiques se rejoignent pour désigner un objet particulier.

La fragilité d'un algorithme se produit lorsque l'environnement change de telle manière que l'algorithme de vision par ordinateur ne peut plus reconnaître l'objet en raison d'une petite perturbation. L'algorithme de vision par ordinateur ne peut plus reconnaître l'objet en raison d'une petite perturbation.

Face à cette fragilité, les informaticiens réagissent souvent en rassemblant davantage de données afin de combler ce qui est considéré comme une zone de fragilité. Par exemple, pour résoudre le problème de l'obscurcissement d'un signe par la végétation, de nombreux ingénieurs diront : « Nous avons juste besoin de plus d'exemples pour entraîner l'algorithme à reconnaître correctement cette condition ». Bien qu'il s'agisse d'une réponse, on peut se demander dans quelle mesure cette ingénierie du doigt dans l'engrenage est pratique ou même possible. La charge de travail pour faire cela est extrêmement élevée. Une raison qui pourrait justifier le manque de talents dans l'IA.

Vision par ordinateur basée sur l'apprentissage profond

La vision par ordinateur basée sur l'apprentissage profond étant encore un domaine de recherche relativement nouveau, de nouveaux problèmes sont mis en lumière dans les laboratoires universitaires. Ce n'est que récemment que les chercheurs ont découvert que les réseaux neuronaux ne capturaient pas les informations de profondeur exactes dans les images, ce qui peut avoir des implications importantes en matière de sécurité. Un domaine d'étude relativement nouveau, appelé apprentissage automatique contradictoire, est apparu ces dernières années. Il examine comment les systèmes qui utilisent des versions d'algorithmes d'apprentissage profond peuvent être trompés.

Les progrès réalisés dans le domaine de l'apprentissage automatique contradictoire ont été révélateurs. Un ensemble de chercheurs a démontré que l'apposition de quatre autocollants inoffensifs en noir et blanc sur un panneau d'arrêt pouvait tromper un algorithme de vision informatique. Un autre groupe de chercheurs a ensuite montré qu'il suffisait de modifier un seul pixel pour qu'un tel algorithme se trompe d'étiquette pour un objet.

L'intelligence artificielle, sous la forme de l'apprentissage automatique, a le potentiel de transformer des éléments de nombreuses applications critiques en matière de sécurité et d'offrir de nouvelles formes de collaboration entre l'homme et l'ordinateur. Par exemple, une initiative a récemment démontré qu'un bras robotique doté de l'IA pouvait aider le pilote d'un avion dans des tâches banales non essentielles. Ce point est d'autant plus important qu'il existe actuellement une pénurie mondiale de pilotes. Ceci pourrait libérer les copilotes pour qu'ils prennent le rôle de capitaine et doubler efficacement la main-d'œuvre.

Même si l'IA a des limites, en particulier dans les systèmes critiques pour la sécurité avec des cas limites potentiellement mortels, exiger la perfection pourrait limiter les avantages du développement de cette technologie. Comme dans le cas du bras du pilote robotisé ou dans le cas des navettes sans conducteur à vitesse lente qui opèrent dans des environnements protégés, il peut y avoir des utilisations très avantageuses des systèmes basés sur l'IA, même si la technologie n'est pas parfaite. D'où la nécessité d'élaborer des critères clairs et des protocoles d'essai afin que les entreprises et les gouvernements qui achètent ou approuvent des systèmes basés sur l'IA puissent être sûrs que les systèmes proposés sont capables de fonctionner dans les domaines prévus.

Source : Defense One

Et vous ?

Votre visage est, ou sera, votre carte d'embarquement, les changements technologiques arrivent dans les aéroports, notamment les progrès de la biométrie qui permettent de vérifier l'identité

Microsoft a mis au point une intelligence artificielle capable de trouver des bogues dans le code, afin d'aider les développeurs à déboguer leurs applications avec plus de précision et d'efficacité

Des chercheurs chinois auraient mis au point le pistolet à bobine le plus petit et le plus puissant au monde grâce à l'IA, le prototype d'arme est doté d'un canon de 12 cm et trois bobines

DeepMind, le laboratoire d'IA d'Alphabet, teste les limites des grands systèmes linguistiques de l'IA, avec un modèle à 280 milliards de paramètres

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 17/12/2021 à 21:46
Citation Envoyé par Bruno Voir le message
De nombreux experts craignent que cette réaction négative ne conduise à un autre hiver de l'IA qui pourrait entraîner une méfiance importante envers les avancées légitimes de l'IA et un refroidissement du soutien financier.
Vous l'avez cherché les gars : à force de vendre des solutions limitées en faisant miroiter monts et merveilles, faut pas s'étonner que le pigeon finisse par donner des coups de becs.

Citation Envoyé par Bruno Voir le message
Face à cette fragilité, les informaticiens réagissent souvent en rassemblant davantage de données afin de combler ce qui est considéré comme une zone de fragilité. Par exemple, pour résoudre le problème de l'obscurcissement d'un signe par la végétation, de nombreux ingénieurs diront : « Nous avons juste besoin de plus d'exemples pour entraîner l'algorithme à reconnaître correctement cette condition ».
Une stratégie classique de déni de la réalité : si ça ne marche pas, c'est parce qu'on n'en fait pas assez, si on en faisait juste un peu plus ça marcherait beaucoup mieux. Sauf qu'on sortira la même excuse après en avoir fait beaucoup plus pour voir que ça n'a pas apporté grand chose.

Les systèmes d'apprentissage basés sur les réseaux de neurones sont très performant pour simuler des comportements. Mais cela reste une copie "instinctive", bourrée d'approximations pour le rendre facile à calculer (pour un ordi). Si on souhaite se contenter de garanties statistiques (sur une population), ça peut suffire, mais ça veut dire qu'on n'attend aucune garantie systématique (pour chaque individu). Quand on a besoin de garanties systématiques, il faut des preuves formelles. Un aspect totalement absent des systèmes de neurones. Ces preuves formelles sont la base des systèmes experts qui les ont précédés, mais ces systèmes ont un coût différent : il faut avoir accès à des experts pour décrire et formaliser les règles à implémenter.

Non, les systèmes de neurones ne sont pas LA solution à tous les problèmes.

Citation Envoyé par Bruno Voir le message
Même si l'IA a des limites, en particulier dans les systèmes critiques pour la sécurité avec des cas limites potentiellement mortels, exiger la perfection pourrait limiter les avantages du développement de cette technologie. Comme dans le cas du bras du pilote robotisé ou dans le cas des navettes sans conducteur à vitesse lente qui opèrent dans des environnements protégés, il peut y avoir des utilisations très avantageuses des systèmes basés sur l'IA, même si la technologie n'est pas parfaite. D'où la nécessité d'élaborer des critères clairs et des protocoles d'essai afin que les entreprises et les gouvernements qui achètent ou approuvent des systèmes basés sur l'IA puissent être sûrs que les systèmes proposés sont capables de fonctionner dans les domaines prévus.
Il s'agit surtout de bien comprendre que ces systèmes sont, par construction, limités à des interprétations approximatifs.

Tous les programmes sont des systèmes formels, mais là où un système expert formalise une règle d'inférence humaine, un réseau de neurone formalise des relations statistiques entre de nombreux objets qui n'ont rien à voir avec l'interprétation humaine (pixels, groupes de pixels, etc.). C'est nous qui interprétons ensuite ses résultats, à tort, comme s'appuyant sur une interprétation humaine. Quand on aura compris que ça ne peut donner que des approximations basées sur du calcul abstrait, on aura compris qu'au mieux, pour les tâches nécessitant une interprétation humaine, on ne peut les utiliser que comme des *aides* à la décision.
4  0