D’après un brevet déposé aux États-Unis, Apple travaille sur une technologie permettant de reconnaître la profondeur via un capteur photo. Elle utiliserait un balayage lumineux de la scène pour en faire une cartographie en trois dimensions.

Avec l’avènement de la réalité augmentée et la popularité des modes portrait (entre autres), la gestion des profondeurs par les systèmes informatiques devient de plus en plus importante pour améliorer l’expérience de l’utilisateur ou encore le traitement de la photographie en trois dimensions.

Après Face ID, premier système de reconnaissance faciale 3D embarqué dans un smartphone, l’iPhone X, Apple semble continuer sur sa lancée. On en apprend en effet un peu plus sur un projet de reconnaissance des profondeurs grâce au dépôt d’un brevet par la marque à la pomme.

Apple bosse sur la reconnaissance de profondeur

Grâce à une série de dessins illustrant la technologie, on comprend que le système isole chaque élément du plan et l’analyse pour en déduire sa distance avec l’objectif. Ainsi, la machine est théoriquement capable de cartographier la scène en trois dimensions.

                       Schéma de l’un des prototypes de capteur

Pour ce faire, le système balaye la scène à l’aide d’un laser lumineux, à l’instar d’un scanner, afin d’en déterminer la profondeur.

Brevetée sous le nom « Moteur d’analyse de la profondeur » (« scanning depth engine »), cette technologie n’est en aucun cas assurée de figurer dans la liste des fonctionnalités d’un produit Apple à l’avenir puisque de nombreux brevets ne débouchent sur aucun produit fini. Néanmoins, on peut facilement imaginer ce genre de système être implémenté dans un prochain iPhone, dans la continuité de ce qu’Apple a déjà proposé avec le Face ID par exemple.

À lire sur FrAndroid : L’iPhone SE 2 arborerait lui aussi une encoche, potentiellement pour le Face ID