Google, dans son billet, précise que les recherches ont commencé il y a quelques années de cela avec un groupe d'experts. Il s'agissait, pour ces derniers, d'étudier la possibilité d'utiliser l'apprentissage profond (deep learning) pour dépister la rétinopathie diabétique. Cette maladie est considérée comme la principale cause de cécité chez les diabétiques avec environ 415 millions de patients exposés dans le monde. Toutefois, le traitement est possible si le diagnostic est fait assez tôt, sinon la cécité est irréversible.
Pour détecter les maladies oculaires liées au diabète, la technique la plus utilisée par les spécialistes est l'examen des photos de l'arrière de l’œil. Cela permet d'identifier d'éventuels signes de la maladie, et de mesurer son degré de sévérité. Comme le montre la figure 1 ci-après, l'image située à gauche (A) représente une rétine saine, alors que celle de droite (B) présente un certain nombre de taches rouges ou hémorragies ; par conséquent la rétine située à droite présente les symptômes de la rétinopathie diabétique.
Figure 1
Google a publié dans le Journal of American Medical Association (JAMA) les conclusions des études menées par ses chercheurs. Dans ledit rapport, les chercheurs mentionnent que l'algorithme d'apprentissage profond qu'ils ont mis en place est capable de diagnostiquer la rétinopathie diabétique à partir des images de rétine. Cet exploit, selon eux, pourrait être très bénéfique pour les médecins, car cela leur permettra d'examiner le plus de patients possible, surtout ceux qui habitent dans des zones ne disposant pas d'assez de spécialistes.
La firme de Mountain View affirme que ses chercheurs ont travaillé en étroite collaboration avec des médecins venus de l'Inde et des États-Unis. Ensemble, ils ont créé un réseau de neurones constitué de 128 000 images et sur lequel ils ont effectué leurs tests de dépistage. Les résultats des tests effectués via l'algorithme d'apprentissage profond ont ensuite été comparés avec ceux d'une autre série d'images examinées par un panel d'ophtalmologistes certifiés. Il ressort de cette comparaison que les diagnostics de l'algorithme avoisinent ceux des spécialistes. La figure 2 ci-dessous est obtenue à partir d'un échantillon de 9 963 images et représente les résultats des tests obtenus avec l'algorithme d'apprentissage profond de Google et ceux effectués par les ophtalmologistes spécialisés. Les résultats sont matérialisés par des points noirs pour l'algorithme de Google et par des points en couleur pour les médecins-conseils.
Figure 2
Google se félicite de la qualité des résultats obtenus, mais précise qu'il reste beaucoup de travail à faire. En effet, en collaboration avec des spécialistes de la rétine, il cherche à définir des normes de référence encore plus robustes qui pourront être utilisées pour mieux apprécier la performance de leur algorithme. Il précise que l'interprétation d'une photographie rétinienne 2D qui a été décrite dans leur rapport ne constitue qu'une partie d'un processus constitué de plusieurs étapes. Dans certaines situations, les spécialistes ont recours à une technologie d'imagerie 3D dénommée Tomographie par Cohérence Optique (OCT) pour examiner en profondeur les différentes couches de la rétine. Google précise que l'application de l'apprentissage profond à cette dernière méthode est en cours et le projet est géré par leurs collègues de DeepMind.
Rappelons que l'apprentissage profond (en anglais deep learning) est un ensemble de méthodes d'apprentissage automatique permettant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires.
Source : blog Google - Google Research Blog - Rapport Google JAMA
Et vous ?
Que pensez-vous de cette nouvelle découverte de Google ?
Voir aussi
Watson, l'Intelligence artificielle d'IBM découvre chez une patiente une leucémie rare, qui n'avait pas pu être détectée par les médecins