IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic
Induisant un médecin en erreur ?

Le , par Christian Olivier

117PARTAGES

5  0 
Qui est responsable si une IA fait un mauvais diagnostic induisant un médecin en erreur ?
Le médecin, car l'IA n'est qu'un assistant
60 %
Autre (à préciser)
20 %
Personne, il faut prévoit une assurance pour couvrir ce genre d'incident
13 %
Les développeurs de l'IA
7 %
Le centre de santé qui a eu confiance en l'IA
0 %
Pas d'avis
0 %
Voter 15 votants
L’établissement d’un diagnostic médical repose sur la collecte et le traitement hiérarchisés de diverses informations plus ou moins fidèles, précises et exploitables. Cette tâche étant parfois complexe, il arrive que les médecins puissent commettre des erreurs de diagnostic. Les conséquences : prescrire un mauvais traitement, ce qui pourrait aggraver l’état de santé des patients. Aux États-Unis, l’erreur médicale est la troisième cause de décès et au Royaume-Uni, jusqu’à un patient sur six dans le système de la santé publique reçoit un mauvais diagnostic. C’est donc un problème auquel certaines organisations s’intéressent, et l’intelligence artificielle a été trouvée comme une piste de solution.

En tant qu’outil d’assistance, l’IA peut aider à réduire les erreurs de diagnostic médical et même découvrir très tôt certaines pathologies qui échappent aux médecins. Ce fut le cas par exemple pour IBM Watson qui en août dernier a découvert chez une patiente une leucémie rare, qui n'avait pas pu être détectée par les médecins. Google, pour sa part, utilise l'intelligence artificielle pour détecter la rétinopathie diabétique, une maladie qui expose près de 415 millions de diabétiques à la cécité.

L’IA renferme donc le potentiel nécessaire pour révolutionner la pratique médicale telle qu’on la connait aujourd’hui. Pour de nombreux spécialistes, elle représente l’avenir du métier. À ce propos, Andrew McAfee, chercheur du MIT et coauteur du livre The Second Machine Age, a déclaré dans une interview accordée au journal Smart Planet : « si ce n’est pas encore le meilleur spécialiste du diagnostic au monde, ça (NDLR l’IA) le sera bientôt. »


Cela dit, l’IA peut donc être très utile dans la médecine, mais cela ne l'épargne pas complètement de commettre des erreurs. Si un médecin fait un mauvais diagnostic avec des conséquences graves, on peut qualifier cela de faute professionnelle et le tenir pour responsable, mais qu’en est-il de l’intelligence artificielle ? Si un problème affecte le patient à cause d’une erreur de diagnostic de l’IA, qui doit en endosser la responsabilité ?

On pourrait se dire ici que c’est le médecin qui reste le fautif, si l’IA n’est qu’un assistant au diagnostic médical. Dans l’usage courant, on s’attend en effet à ce que l’IA fasse des suggestions pour orienter les choix du clinicien. Ainsi, ce dernier peut rester l’unique maître à bord et l’unique responsable des évènements qui découlent de ses choix. Mais pourquoi pas l’IA elle-même si c’est elle qui a orienté le clinicien vers un mauvais diagnostic, ou encore l’entreprise qui l'a conçue ?

Source : Quartz

Et vous ?

Qu'en pensez-vous ?

Voir Aussi

Google utilise l'intelligence artificielle pour détecter la rétinopathie diabétique qui expose près de 415 millions de diabétiques à la cécité

Watson, l'Intelligence artificielle d'IBM découvre chez une patiente une leucémie rare qui n'avait pas pu être détectée par les médecins

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vanquish
Membre chevronné https://www.developpez.com
Le 27/05/2017 à 17:19
Travaillant dans la sécurité médicale, je peux vous assurer que c'est la responsabilité du médecin.
De la même façon qu'un automobiliste ne peux se réfugier derrière ce que lui a dicté son GPS quand il prend un sens interdit.

La sécurité médicale, tient en grande part à la "vérification" et à la façon de le faire - et donc à vérifier si ce qu' a sorti l'IA est réellement pertinent.

Ce qui peut être de la responsabilité du système informatique, c'est de restituer correctement la donnée qui lui a été fourni.
En gros, si on a entré que le patient et AB négatif, il ne faut pas que le logiciel ressorte un autre chose quand on lui redemande l'info.
Et même dans ce cas, le médecin aura du mal à totalement se dégager. C'est dire ....

L'autre responsabilité tient à l'exploitation (sauvegarde, disponibilité).

Dans les faits, je n'ai jamais entendu parlé d'un directeur informatique ou d'un éditeur mis réellement en cause (cad condamné).

La sécurité médicale c'est parfois des choses aussi bête que de demander au patient que l'on va opérer "Comment vous appelez-vous ?" et bien comprendre que cette question est très différente de "Etes vous bien M. Untel ?". Dans le stress ou à moitié dans le coltar, le patient risque de répondre OUI à la seconde, même si ce n'est pas son nom qui a été prononcé, alors que s'il énonce lui même son nom, il ne donnera pas celui de quelqu'un d'autre. On est loin d'IA défaillantes ....

Citation Envoyé par NSKis Voir le message
il n'y a pratiquement jamais aucun tribunal pour condamner un médecin qui s'est trompé!!! Les experts, eux-mêmes médecins, trouvent toujours leur collègue innocent!!!
On se demande pourquoi les assurances de certaines spécialités sont si chères, s'ils ne sont jamais condamnés.
Bien sur que des médecins sont condamnés chaque année.
Un médecin peut même l'être alors qu'il est à la retraite depuis de nombreuses années et donc plus couvert par aucune assurance.
On en arrive même a des aberrations à cause de cela. Je vous invite à googleliser "france trop de césairienne".
La réponse est oui et à cause des risques de procès et de condamnations.
Mais on comprend que pour les familles touchées il est difficile d'accepter que, parfois "les choses tournent mal" et que quand le médecin est innocenté ils ont l'impression que les médecins se sert les coudes.
6  0 
Avatar de Dogueson
Membre régulier https://www.developpez.com
Le 26/05/2017 à 13:36
En l'espèce, cela me parait assez simple. Le médecin est responsable envers son patient et c'est à lui d'assumer l'éventuelle erreur. A lui ensuite de se retourner vers le constructeur pour démontrer le degré d'implication de l'IA
5  0 
Avatar de emutramp
Membre actif https://www.developpez.com
Le 26/05/2017 à 19:04
Si une erreur se produit, ca sera surement de la faute des russes
</troll>

Plus serieusement, je pense que le medecin devrait verifier a chaque fois les diagnotics d'une intelligence artificielle / aglo... Car les erreurs/bugs existeront toujours.
3  0 
Avatar de
https://www.developpez.com
Le 26/05/2017 à 12:39
Je dirais qu'à partir du moment où l'entreprise refuse de communiquer le code source pour examen, elle accepte d'en prendre l'entière responsabilité.
Après, je suppose que ça dépend des procédures mises en place en collaboration entre l'entreprise qui a fourni l'IA et l'organisme médical, notamment quant à la place de l'IA et du médecin dans le processus de diagnostic.
2  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 26/05/2017 à 15:21
C'est marrant, parce que nous on collabore avec des boites qui font ça. Résultats d'une expérimentation qui a déjà deux ans d'âge : sur certains cancers, le spécialiste à 60% de chance de le détecter avec la radio. l'IA plus de 98%. Ces médecins ne sont pas embêtes, la plupart du temps, malgré leur fort taux d'erreur. Pourquoi l'IA devrait-elle l'être?

NB : il s'agit de certaines pathologies bien spécifiques, avec des IA dédiées. Dans bien des cas, l'IA est actuellement sans solutions. D'ou l'utilité de garder des médecins pour tout le reste, 60%, c'est beaucoup mieux que 0%.
2  0 
Avatar de
https://www.developpez.com
Le 26/05/2017 à 15:26
Citation Envoyé par el_slapper Voir le message
C'est marrant, parce que nous on collabore avec des boites qui font ça. Résultats d'une expérimentation qui a déjà deux ans d'âge : sur certains cancers, le spécialiste à 60% de chance de le détecter avec la radio. l'IA plus de 98%. Ces médecins ne sont pas embêtes, la plupart du temps, malgré leur fort taux d'erreur. Pourquoi l'IA devrait-elle l'être?
Tout dépend si l'erreur est "normale" ou due à une négligence. À la fois dans le cas du médecin et de l'IA, il est normal qu'ils ne soient pas embêtés pour des erreurs qui sont commises en toute logique. Dans le cas d'une négligence, il faut bien attribuer les responsabilités (pas forcément les punition hein :p) pour y remédier.
1  0 
Avatar de NSKis
En attente de confirmation mail https://www.developpez.com
Le 26/05/2017 à 17:41
"Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic induisant un médecin en erreur ?"

Question inutile et idiote parce qu'il se passera exactement ce qui se passe aujourd'hui: Les erreurs médicales sont de loin pas rares et pourtant il n'y a pratiquement jamais aucun tribunal pour condamner un médecin qui s'est trompé!!! Les experts, eux-mêmes médecins, trouvent toujours leur collègue innocent!!!

Il en ira de même dans le cas de l'IA...
1  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 26/05/2017 à 17:51
De mon point de vue, l'IA n'a jamais été le garant d'un diagnostic parfait de toute façon et rien ne l'empêchera de demander un second avis en cas de doute. Je suppose que ça va être testé dans un premier temps sous contrôle d'un medecin pour pouvoir chiffrer la marge d'erreur des machines. De cette marge le constructeur devra garantir un nombre minimum de diagnostic correcte pour des cas précis car les assureurs vont le demander. Quand à l’hôpital il sera soumit à des obligations de maintenances régulière, de mise à jour et mise en conformité sans quoi l'entreprise pourra dégager toute responsabilité. Donc dans l'ordre je dirais d'abord l'entreprise qui va ensuite vérifier que l’hôpital est en ordre avant de raquer qui va lui même vérifier que le patient à bien suivit ce qui était demandé pour l'examen. Après l'entreprise peut toujours imposer une maintenance de malade presque impossible qui ferra que l’hôpital l'aura dans l'os à chaque fois.
1  0 
Avatar de Vulcania
Membre éclairé https://www.developpez.com
Le 26/05/2017 à 15:00
Personnellement, si le médecin aurait pu éviter une erreur avec une vérification de sa part, alors il est responsable. Si le cas était trop complexe, et que l'IA s'est plantée, alors de toutes façon le médecin n'aurait pas pu faire mieux, niveau responsabilité, je dirais que c'est de la faute à "pas de chance".
0  0 
Avatar de steflinux
Membre actif https://www.developpez.com
Le 27/05/2017 à 9:18
Qui devra être tenu pour responsable
C'est une fausse bonne question dans le secteur médical, la réponse est toujours : la compagnie d'assurance.
Puis : personne (dans le cas où Windows 10 plante un hôpital, par exemple - pareil avec IA).
0  0