Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Nous avons testé le mode nuit du Google Pixel 3 et 3 XL : meilleur que l'œil humain

Quelques jours avant son déploiement sur les appareils Pixel 3 et Pixel 3 XL, nous avons eu l'opportunité de tester une version préliminaire du mode Night Sight de Google. Ce mode permet de réaliser des clichés impressionnants quand la lumière vient à manquer.

L'une des fonctionnalités les plus époustouflantes de Google lors de son événement de lancement des Pixel 3 était « Night Sight » ou Mode nuit en français. La caméra Pixel 3 offrait de grandes promesses pour l'amélioration de la photographie dans des conditions de faible luminosité, mais ce mode n'était pas prêt. Nous avons pu tester cette fonction avant son déploiement, voici donc le résultat de nos tests.

Comment ça marche ?

Faire une photographie en faible luminosité pour « voir mieux que l'œil humain », c'est déjà possible avec la plupart des appareils photo. Vous prenez un reflex, un hybride et même un smartphone : il suffit d'ouvrir plus longtemps l'obturateur pour récupérer davantage de lumière, les modes pro des smartphones permettent déjà ce type de réglages. Par contre, cela nécessite de rester immobile et de gérer quelques paramètres pour éviter d'avoir des photos ratées. Ce n'est pas simple, sauf si vous avez un appareil photo onéreux, monotâche et encombrant, avec un très bon capteur et un objectif avec une très grande ouverture. Sur smartphone, le capteur et l'objectif sont complètement miniaturisés.

Sur le mode Night Sight des Pixel 3, c'est donc un mélange entre du logiciel et des réglages précis de l'appareil photo. Ce mode nécessite de ne pas bouger pendant 2 à 4 secondes en fonction de l'environnement, les algorithmes de fusion de Google se chargent ensuite d’éliminer le flou, mais aussi d’éviter les effets d’images fantômes sur les sujets en mouvement. Dans ce mode, le smartphone profite des petits tremblements de la main pour récupérer les informations qui lui seront nécessaires pour traiter les photos de la meilleure façon possible.

Pour la balance des blancs, Google utilise également ses algorithmes avancés puisqu’il n’y a plus assez de lumière pour un mode automatique traditionnel. Le Pixel 3 tente d'estimer la meilleure balance des blancs pour obtenir un rendu aussi réaliste que possible… passons à la pratique.

Qu'est-ce que ça donne ?

Première chose, l'application de l'appareil photo vous indique quand le mode nuit est nécessaire via un petit message. L'appareil a ainsi détecté que les conditions lumineuses étaient insuffisantes pour le mode automatique classique. Vous pouvez passer en mode nuit dans les options "Plus" à droite du menu de modes.

Nous utilisons des galeries pour la comparaison de photographies, n'hésitez donc pas à slider entre les photos sur la version mobile de FrAndroid. La première photo est sans le mode, la seconde avec le mode activé.

Les photographies ont été prises entre Shenzhen (Chine) et Macau, toujours après le coucher du soleil. 

Premier constat, même sans le mode nuit, le Pixel 3 s'en sort tout de même déjà très bien. Comme on peut le voir, la scène est correctement exposée, les photographies ne sont pas trop lissées malgré la présence de bruit électronique. Avec le mode nuit, certains environnements fonctionnent beaucoup mieux que d'autres. Le mode nuit n'est donc pas forcément toujours utile.

Globalement, ce mode fonctionne bien. On récupère de la lumière, les photographies ont une plus grande plage dynamique et une bien meilleure balance de blancs.

Certaines fois le mode Night Sight utilise une sensibilité supérieure (jusqu'à un ISO de 3598) que le mode automatique classique, mais sur la plupart des photographies la sensibilité est plus basse ce qui permet de diminuer la présence de bruit électronique dans les zones très sombres.

Etant donné que ce mode nécessite de ne pas bouger beaucoup 2 à 4 secondes, certains éléments sont flous comme les voitures sur nos exemples. Théoriquement, les algorithmes de Google devraient être suffisamment intelligents pour prendre en compte les objets en mouvement et les maintenir raisonnablement en place (voitures, personnages). Mais comme vous pouvez le voir, ce n'est pas toujours le cas.

Les bâtiments d'arrière-plan sont beaucoup plus définis et on remarque une meilleure saturation et on gagne en netteté. Le rendu final n’est pas toujours naturel, dans le sens où la photo sera plus lumineuse que ce que l’œil humain peut voir, mais cela reste très impressionnant. 

Notez que ce mode fonctionne différemment de celui du P20 Pro et du Mate 20 Pro. Sur les smartphones Huawei, la récupération de lumière est obtenue grâce à la capacité du capteur à effectuer une fusion de pixels et à combiner ainsi quatre pixels physiques en un seul. En théorie, cela améliore de 4 fois la sensibilité à la lumière du capteur et équivaut à un capteur avec des photosites de 2 µm.

« Moi aussi je veux tester »

Pour faire fonctionner ce mode, il existe un APK modifié (sur XDA-Developers et dans le module d'app ci-dessousqui fonctionne sur les trois générations de Pixel. La mise à jour officielle est prévue pour mi-novembre, elle devrait arriver via une mise à jour simple de l'application Caméra.