L’établissement d’un diagnostic médical repose sur la collecte et le traitement hiérarchisés de diverses informations plus ou moins fidèles, précises et exploitables. Cette tâche étant parfois complexe, il arrive que les médecins puissent commettre des erreurs de diagnostic. Les conséquences : prescrire un mauvais traitement, ce qui pourrait aggraver l’état de santé des patients. Aux États-Unis, l’erreur médicale est la troisième cause de décès et au Royaume-Uni, jusqu’à un patient sur six dans le système de la santé publique reçoit un mauvais diagnostic. C’est donc un problème auquel certaines organisations s’intéressent, et l’intelligence artificielle a été trouvée comme une piste de solution.
En tant qu’outil d’assistance, l’IA peut aider à réduire les erreurs de diagnostic médical et même découvrir très tôt certaines pathologies qui échappent aux médecins. Ce fut le cas par exemple pour IBM Watson qui en août dernier a découvert chez une patiente une leucémie rare, qui n'avait pas pu être détectée par les médecins. Google, pour sa part, utilise l'intelligence artificielle pour détecter la rétinopathie diabétique, une maladie qui expose près de 415 millions de diabétiques à la cécité.
L’IA renferme donc le potentiel nécessaire pour révolutionner la pratique médicale telle qu’on la connait aujourd’hui. Pour de nombreux spécialistes, elle représente l’avenir du métier. À ce propos, Andrew McAfee, chercheur du MIT et coauteur du livre The Second Machine Age, a déclaré dans une interview accordée au journal Smart Planet : « si ce n’est pas encore le meilleur spécialiste du diagnostic au monde, ça (NDLR l’IA) le sera bientôt. »
Cela dit, l’IA peut donc être très utile dans la médecine, mais cela ne l'épargne pas complètement de commettre des erreurs. Si un médecin fait un mauvais diagnostic avec des conséquences graves, on peut qualifier cela de faute professionnelle et le tenir pour responsable, mais qu’en est-il de l’intelligence artificielle ? Si un problème affecte le patient à cause d’une erreur de diagnostic de l’IA, qui doit en endosser la responsabilité ?
On pourrait se dire ici que c’est le médecin qui reste le fautif, si l’IA n’est qu’un assistant au diagnostic médical. Dans l’usage courant, on s’attend en effet à ce que l’IA fasse des suggestions pour orienter les choix du clinicien. Ainsi, ce dernier peut rester l’unique maître à bord et l’unique responsable des évènements qui découlent de ses choix. Mais pourquoi pas l’IA elle-même si c’est elle qui a orienté le clinicien vers un mauvais diagnostic, ou encore l’entreprise qui l'a conçue ?
Source : Quartz
Et vous ?
Qu'en pensez-vous ?
Voir Aussi
Google utilise l'intelligence artificielle pour détecter la rétinopathie diabétique qui expose près de 415 millions de diabétiques à la cécité
Watson, l'Intelligence artificielle d'IBM découvre chez une patiente une leucémie rare qui n'avait pas pu être détectée par les médecins
Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic
Induisant un médecin en erreur ?
Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic
Induisant un médecin en erreur ?
Le , par Christian Olivier
60 % | ||
20 % | ||
13 % | ||
7 % | ||
0 % | ||
0 % |
Une erreur dans cette actualité ? Signalez-nous-la !