Nous sommes en 1992, Peter Meijer ingénieur allemand développe vOICe, un algorithme qui convertit des images (en nuances de gris) en signaux sonores (les majuscules OIC signifient “Oh, I See!”).
Mais pourquoi donc avoir développé vOICe ? L'idée est simple, Meijer veut substituer le sens de la vision chez les personnes non voyantes de naissance par le sens de l'audition, cela grâce à une caméra embarquée sur des lunettes et un ordinateur, la caméra se charge de capturer une image puis l'ordinateur entre en scène pour convertir l'image en signaux sonores et le miracle survient, les personnes qui se sont prêtées à cette expérimentation étaient en mesure de reconstituer des images au sein de leur cerveau, après s'être moyennement entraînées.
En 2007, le neurobiologiste Amir Amendi de l'université hébraïque de Jérusalem en Israël commence à étudier le sujet et reprend les travaux de Peter Meijer, son programme inclut des séances d’entraînement de 70 heures ce qui permet une reconnaissance et une restitution allant des plus simples images (des lignes et des points) aux plus complexes telles que les visages.
En outre, le programme d'Amendi inclut un entraînement spécial de 10h pour apprendre à reconnaître les silhouettes et les postures humaines, cet exercice s'est conclu par un résultat satisfaisant, les participants étaient en mesure de reproduire certaines postures, ce qui a poussé le neurobiologiste à aller plus loin dans cette étude, son équipe s'est alors appuyée sur vOICe pour développer l'application iPhone EyeMusic, cette dernière se base sur un nouvel algorithme capable de traiter des images en couleurs.
Source : ScienceMag
Et vous ?
Qu’en pensez-vous ?
Un programme informatique pour permettre aux non-voyants de voir ?
Le cerveau n'a pas fini de révéler tous ses mystères
Un programme informatique pour permettre aux non-voyants de voir ?
Le cerveau n'a pas fini de révéler tous ses mystères
Le , par Arsene Newman
Une erreur dans cette actualité ? Signalez-nous-la !