Il s’agissait d’une des annonces les plus intrigantes de la dernière Keynote d’Apple. Pensée pour les iPhone 11, 11 Pro et 11 Pro Max, la technologie Deep Fusion doit notamment améliorer la qualité des photos prises en intérieur, en faisant appel au machine learning. On apprend aujourd’hui qu’elle arrivera au travers de la bêta d’iOS 13.2.

Crédit : Apple / YouTube

Compatible uniquement avec le triptyque d’iPhone annoncé début septembre, Deep Fusion veut améliorer nos clichés en intérieur (mais pas seulement), à grand renfort de machine learning et de réseaux neuronaux.

Le principe de fonctionnement de cette nouvelle technologie est à la fois simple et sophistiqué : votre iPhone 11 prendra quatre clichés avant même le déclenchement de l’obturateur, puis quatre photos supplémentaires une fois l’obturateur actionné. Un ultime cliché avec pose longue vient enfin conclure ce cheminement pour capturer un maximum de détails.

Quand les 8 cores neuronaux de l’A13 Bionic œuvrent en silence…

Dès la prise des quatre premiers clichés, l’A13 Bionic et les huit cores de son moteur neuronal entrent en action pour sélectionner les meilleures images et composer une photo HDR de haute qualité. Si l’on s’en tient aux promesses d’Apple, le fruit de ce processus n’est autre qu’un cliché final plus détaillé, plus net et surtout plus naturel.

Crédit : Apple

Apple compte aussi beaucoup sur les capacités de son nouveau SoC en matière de machine learning. L’IA de la puce sera chargée d’analyser les images capturées pour procéder différemment en fonction de la scène photographiée, et ce afin d’optimiser le rendu de certains éléments spécifiques (le ciel, les feuillages, ou encore la couleur de peau de sujets photographiés). La structure des clichés et le calibrage des couleurs sont en revanche pris en charge par les réseaux neuronaux, note GSMArena.

Reste la grande question de l’arrivée de cette technologie Deep Fusion sur les nouveaux iPhone. Prévue pour un lancement en décalé, cette dernière doit débarquer sur la bêta d’iOS 13.2, accessible aux développeurs dans un premier temps et en bêta public par la suite. Initialement TechCrunch avait annoncé sa disponibilité hier avant de se raviser un peu plus tard.

Au travers de Deep Fusion, Apple — qui a déjà réalisé une belle avancée sur la photo avec ses derniers iPhone — tient peut-être la fonctionnalité qui fera la différence. Réponse sous peu…