Nous suivre Industrie Techno

Vidéo

Plus besoin de lunettes ! Le MIT a créé un écran qui corrige la vue

Julien Bergounhoux

Sujets relatifs :

, ,
Soyez le premier à réagir

Soyez le premier à réagir

Plus besoin de lunettes ! Le MIT a créé un écran qui corrige la vue

© Christine Daniloff - MIT

Un groupe de chercheurs américains a mis au point une technologie dérivée de l'auto-stéréoscopie qui permet à un écran de corriger les défauts de la vue de celui qui le regarde (myopie, astigmatie, etc.) et ainsi de dispenser son utilisateur de porter des verres correcteurs.

Alors que l'être humain passe de plus en plus de temps les yeux rivés sur un écran, des chercheurs du Camera Culture Group du MIT Media Lab et de l'university de Californie à Berkeley ont voulu déplacer l'appareil correctif de l'utilisateur à l'objet de son attention lui-même. Ils ont développé une nouvelle technologie d'affichage qui corrige automatiquement les défauts de la vue, sans que l'utilisateur ait besoin de porter de lunettes ou de lentilles de contact. Cette technologie s'adapte aussi bien aux myopes qu'aux hypermétropes, aux astigmates ou aux presbytes.

L'écran utilise une variante de la technologie auto-stéréoscopique que l'on trouve en général dans les appareils affichant de la 3D sans lunettes. Mais au lieu de projeter deux images différentes dans chaque oeil de l'utilisateur, ce nouvel écran envoie différentes images dans différentes zones de la pupille. Les défauts de la vue sont en général causés par une différence entre la distance focale de l'oeil et la distance réelle de l'objet qu'il regarde. L'écran fonctionne en simulant une distance équivalente à celle, erronée, à laquelle l'oeil fait la mise au point (l'utilisateur devant au préalable indiquer ses dioptries).

Une technologie dérivée de l'auto-stéréoscopie

Le principal problème de cette méthode est que la simulation d'un pixel dans l'image virtuelle visible par l'utilisateur requiert plusieurs pixels sur l'écran physique de l'appareil. L'angle auquel la lumière provenant des pixels de l'image virtuelle est perçue par l'utilisateur est en effet plus aigu que celui de la lumière réellement produite par les pixels de l'écran physique. Il faut donc décaler les pixels qui envoient de la lumière à droite de la pupille vers la gauche, et vice versa pour ceux envoyant des pixels à gauche.

Malheureusement, produire un écran de ce type (avec plusieurs pixels physiques représentant un seul pixel "final") dégraderait fortement la résolution de l'image. Toutefois, comme il existe une forte redondance entre les images requises pour simuler les différents angles, l'algorithme créant l'image virtuelle peut exploiter de nombreux pixels physiques pour plusieurs angles en même temps. Cela permet de n'avoir qu'une légère baisse de résolution.

Autre problème : certains pixels doivent être masqués à certaines parties de l'oeil auxquelles ils ne sont pas destinés. Cela implique de superposer un filtre équipé de miniscules trous à l'écran, ce qui bloque plus de la moitié de la lumière qu'il émet. Pour laisser passer suffisament de lumière tout en gardant un bon contraste, la solution a été d'utiliser deux écrans LCD en parallèle. Une méthode qui n'est pas sans rappeler celle récemment mise au point par NVidia pour améliorer la résolution des écrans LCD à bas coût.

Vers des produits garantis "sans lunette"

A terme, cette technologie pourrait être développée de manière à afficher à la fois du contenu en 3D et à corriger les problèmes de vue, le tout sans lunette. Elle pourrait même être adaptée pour reproduire un autre projet du groupe de recherche, qui permet de diagnostiquer les problèmes de vue. Le même écran pourrait alors automatiquement déterminer le défaut de la vue de l'utilisateur et le corriger dans la foulée. L'écran sera présenté en août à la conférence Siggraph.

Les applications commerciales potentielles sont notamment la création de liseuses, smartphones, tablettes garantis "sans lunettes", ou encore d'écrans de navigateurs GPS pour automobilistes presbytes, qui n'ont pas de mal à voir au loin et à conduire, mais qui ne peuvent pas lire de près.

Ci-dessous, une vidéo de présentation du concept. Additionnellement, l'intégralité des recherches est disponible sur le site web du projet.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

La commande gestuelle s’intègre dans les technologies de réalité virtuelle et augmentée Qualcomm

La commande gestuelle s’intègre dans les technologies de réalité virtuelle et augmentée Qualcomm

La brique logicielle Clay AIR offrant la reconnaissance gestuelle à n’importe quelle caméra embarquée est[…]

 Un transformateur plus compact pour les smart grids

 Un transformateur plus compact pour les smart grids

Ce robot performe dans le jeu d’adresse Jenga

Ce robot performe dans le jeu d’adresse Jenga

Avec Pando, l'Isae-Supaero muscle sa puissance de calcul

Avec Pando, l'Isae-Supaero muscle sa puissance de calcul

Plus d'articles