Le Google Pixel 3 (et le Pixel 3 XL) possède trois capteurs photo. Deux en façade pour les selfies, et un principal à l’arrière. Mais alors que le machine learning permet à Google de réaliser d’excellents clichés avec un capteur, pourquoi le doubler en façade ?

Google commercialise sa 3e génération de smartphones, les Pixel 3 et Pixel 3 XL. Ceux-ci se démarquent particulièrement par la qualité de leur appareil photo. « Il repousse encore une fois les limites de la photographie assistée par ordinateur », indiquions-nous, stupéfaits, lors de notre test du petit modèle.

Le traitement logiciel avant tout

Alors que bon nombre de constructeurs multiplient les chiffres avec plus de mégapixels, plus de capteurs, plus d’ouvertures différentes, Google mise sur la simplicité et utilise le machine learning pour améliorer ses photos.

Besoin de plus de lumière de nuit ? L’intelligence artificielle s’en occupe ! Besoin de zoomer ? Le traitement logiciel s’en occupe ! Un peu de flou d’arrière-plan pour mettre en valeur un sujet ? Gérer de fortes dynamiques ? Suivre un sujet mouvant ? Tout cela, les Pixel 3 le font superbement, toujours grâce à des algorithmes très évolués.

Le mode Night Sight dans le noir quasi total

Il faut dire que c’est là le principal levier disponible pour les constructeurs de smartphones. Les technologies s’améliorent, que ce soit au niveau du capteur ou des optiques, mais les dimensions des composants ne permettent pas des avancées spectaculaires. On l’a vu par exemple avec l’ouverture variable du Galaxy S9, pas aussi éblouissante en vrai qu’il n’y parait sur le papier.

Un capteur ou deux

Google a donc décidé de rester sur une partie hardware éprouvée pour travailler sur la partie software. C’est pour cela que les Pixel ne disposent que d’un seul capteur à l’arrière, capable d’offrir la même polyvalence ou presque que certains appareils pourtant bien mieux pourvus. Parfois même mieux.

À l’avant en revanche, la grosse encoche du Pixel 3 XL, comme la bordure conséquente du Pixel 3, servent à héberger deux belles optiques qui gardent toujours un œil sur l’utilisateur pour lui capturer ses plus beaux selfies. Ne vous êtes-vous jamais demandé pourquoi une telle contradiction ? Pourquoi ne pas utiliser un seul capteur en façade et faire appel au machine learning pour assurer la polyvalence nécessaire ?

Pour le savoir, nous avons posé la question à l’un des ingénieurs de Google chargé de la conception logicielle de l’appareil photo des Pixel.

Une question d’usage

Si cette question vous a déjà traversé l’esprit, ou si elle vient de le faire en lisant ces lignes, sachez que la réponse est très simple : c’est une question d’usage.

Quand on prend une photo, il arrive que l’on souhaite zoomer, auquel cas, dans certaines conditions, on active le Super Zoom logiciellement pour se « rapprocher » virtuellement d’un sujet.

À l’inverse, l’objectif principal en façade propose déjà un angle de vision (FOV, pour Field of View) de 75°. « Personne ne veut prendre une photo en gros-plan de son nez, n’est-ce pas ? », s’amuse le développeur. Aussi, pour profiter des selfies de groupe, Google a préféré rajouter un grand-angle (97° de FOV) plutôt que de passer par une pirouette logicielle.

Ainsi, dans un cas comme dans l’autre, il existe toujours deux usages, plus ou moins zoomés, mais le principal est toujours celui qui sera disponible en premier pour l’utilisateur, et celui qui proposera la meilleure qualité.

À terme, Google arrivera peut-être à proposer les mêmes fonctionnalités logicielles en réduisant le nombre de modules photo utilisés en façade. En attendant, il faudra donc se contenter de cette grosse encoche disgracieuse si l’on veut profiter du meilleur selfie-phone.