Des chercheurs du MIT et de Google viennent de développer un algorithme permettant de supprimer les reflets et autres objets indésirables et occultants sur les photos, de manière automatique. La méthode est compatible avec les smartphones et l’utilisateur a seulement besoin de bouger l’appareil lors des prises de vue.

Capture d’écran 2015-08-05 à 12.16.36

Il vous arrive souvent de prendre des photos par une vitre et d’être fortement déçu par le rendu final à cause des reflets dans la vitre ? Des chercheurs du MIT et de Google pourraient bien avoir la solution, avec un algorithme capable de supprimer les reflets d’une photo ou des objets qui cachent une partie de la scène, comme par exemple un grillage ou des gouttes d’eau sur une vitre. L’idée est assez simple et a déjà été traitée par des chercheurs ces dernières années, mais la solution qui sera présentée lors de la conférence SIGGRAPH 2015 de Los Angeles a de quoi séduire. En effet, le résultat est bluffant et la mise en place assez simple. Sur l’image de une, on peut voir la photo originale à gauche, la photo finale au milieu et à droite le reflet.

En fait, il suffit pour l’utilisateur de prendre une série de 5 à 7 photos de la scène, en bougeant légèrement l’appareil entre chaque photo, comme lors de la réalisation d’un panorama. L’algorithme compare ensuite les différentes photos et parvient à analyser la scène pour distinguer les reflets ou les objets occultant l’arrière-plan. L’algorithme propose ensuite à l’utilisateur deux photos : une qui contient uniquement les reflets ou l’objet à supprimer et une autre sur laquelle on peut distinguer clairement l’arrière-plan de manière nette, sans aucun reflet. Il est même possible de réaliser un panorama avec la même méthode.

Capture d’écran 2015-08-05 à 12.19.42

 

Un algorithme encore trop gourmand pour les mobiles

Toutefois, cet algorithme magique n’est pas encore prêt à arriver sur nos smartphones. En effet, lors des tests réalisés par les chercheurs, il a fallu 2 minutes pour traiter une séquence d’images en faible définition (480 x 270 pixels) sur une application Windows Phone. Un ordinateur doté de 8 cœurs et de 64 Go de RAM a mis quant à lui 20 minutes pour traiter des images en « haute définition » de 1152 x 648 pixels. À leur décharge, les chercheurs utilisaient un code source non optimisé. Mais le traitement de photos en pleine définition de 13 à 16 mégapixels sur un smartphone semble encore loin. Dommage. Pour les plus curieux, un PDF de 11 pages permet de tout savoir sur cet algorithme.

Lien Youtube
Chaine Youtube FrAndroid