
Rater une photo, ça tient souvent à une fraction de seconde. Un autofocus qui hésite, et l’instant est manqué. Que ce soit une action rapide lors d’un match, l’expression fugace d’un portrait pris sur le vif ou votre animal de compagnie en pleine course, la frustration est toujours la même. Vous levez votre appareil, visez, déclenchez… et l’image est floue. L’instant est passé, à jamais gâché par une mise au point capricieuse.
Si la composition et la lumière sont le cœur de la photographie, l’autofocus en est le système nerveux. C’est lui qui transforme une vision en une image nette et percutante.
En abandonnant le miroir des appareils reflex et leur petit module de mise au point, les appareils hybrides n’ont pas fait que s’affiner. Ils ont opéré une mutation décisive : le capteur d’image, autrefois simple récepteur passif, est devenu le centre névralgique de l’autofocus, en fusionnant la capture de l’image et son analyse pour la mise au point.

Dans ce dossier, nous allons plonger au cœur de cette technologie. Des principes de base aux algorithmes d’intelligence artificielle, en passant par les réglages à maîtriser et même le retour en grâce de la mise au point manuelle, vous saurez tout ce qu’il faut savoir pour que le flou ne soit plus jamais une fatalité, mais un choix créatif.
Les deux grandes technologies d’autofocus
Imaginez deux manières de trouver le point de netteté dans l’image. La première consisterait à tâtonner : avancer, reculer, jusqu’à trouver le point où la vision est la plus claire. C’est l’approche de la détection de contraste. La seconde consisterait à regarder la scène et à savoir instantanément, par calcul, à quelle distance se trouve le sujet pour ajuster sa vue d’un seul coup. C’est l’approche de la détection de phase. Ces deux méthodes ont des avantages et inconvénients bien distincts, et sont souvent combinées dans les appareils modernes.
La détection de contraste (CDAF) : la méthode précise mais lente
- Fonctionnement : L’appareil analyse les pixels sur le capteur et cherche le point où le contraste entre eux est le plus élevé possible, synonyme de netteté maximale. Pour cela, le moteur de l’objectif doit faire des allers-retours pour « balayer » la zone et trouver ce pic de contraste.
- Avantages : C’est une méthode d’une très grande précision, car elle mesure la netteté directement sur l’image finale.
- Inconvénients : Ce balayage la rend lente et provoque cet effet de « pompage » (l’image devient nette, puis floue, puis nette) très visible, surtout en vidéo. Elle est aussi mise en difficulté en basse lumière (faible contraste) ou sur des surfaces uniformes (un mur blanc, un ciel bleu, là encore faible contraste).

La détection de phase (PDAF) : la méthode rapide et prédictive
C’est ici que la révolution des hybrides commence. La détection de phase ne cherche pas à tâtons, elle « sait » où aller.
- Son fonctionnement : Des pixels spéciaux, dits « à détection de phase », sont intégrés directement sur le capteur principal. Chaque pixel de ce type est en réalité composé de deux sous-pixels (l’un masqué sur sa moitié gauche, l’autre sur sa moitié droite). En comparant le signal lumineux reçu par chaque moitié, l’appareil détecte un décalage, une « différence de phase ». Cette différence lui permet de calculer, comme le ferait un télémètre, la distance exacte qui le sépare du point de netteté, et surtout, la direction dans laquelle il faut déplacer les lentilles. C’est un calcul quasi instantané.
- Avantages : C’est extrêmement rapide et réactif. Pas de pompage, l’appareil va directement au but. C’est la technologie reine pour suivre des sujets en mouvement.
- Inconvénients : Historiquement, elle pouvait être un cheveu moins précise que la détection de contraste pour la mise au point finale, mais cet écart a été quasiment comblé, tout du moins sur les meilleurs appareils.

L’autofocus hybride : le meilleur des deux mondes
Vous l’aurez compris, la solution idéale est de combiner les deux. C’est ce que font la quasi-totalité des appareils hybrides modernes. Leur autofocus est dit « hybride ».
Le processus est d’une efficacité redoutable :
- La détection de phase fait 99% du travail en une fraction de seconde pour amener la mise au point au bon endroit, de manière prédictive et sans hésitation.
- La détection de contraste prend le relais sur la toute fin pour un micro-ajustement invisible à l’œil nu, s’assurant que la netteté est absolument parfaite au niveau du pixel.
C’est cette alliance qui donne aux appareils modernes leur vitesse et leur précision chirurgicale.
Le cas particulier : la technologie DFD de Panasonic
Panasonic (Lumix) a longtemps utilisé une version améliorée de la détection de contraste appelée DFD (Depth from Defocus). En connaissant parfaitement le profil de flou (bokeh) de ses propres objectifs à différentes distances, l’appareil peut analyser une image floue, la comparer à sa base de données, et savoir instantanément dans quelle direction et de combien faire la mise au point. C’est une approche logicielle brillante qui a permis de rendre la détection de contraste beaucoup plus rapide. Les modèles les plus récents de la marque ont cependant adopté un système hybride avec détection de phase pour une réactivité encore accrue.

On fait le point marque par marque
Voici un petit récapitulatif des technologies d’AF utilisées chez les principaux constructeurs :
- Canon (EOS R/RF): Dual Pixel/Quad Pixel CMOS AF = PDAF plein capteur, souvent complété par CDAF pour la finition.
- Sony (A1/A9/A7, ZV, etc.): PDAF sur capteur + CDAF pour raffinement; très bon suivi sujet/œil.
- Nikon (Série Z): PDAF + CDAF; suivi performant avec détection de sujet.
- Fujifilm (X-Gén récents, GFX récents): PDAF sur capteur + CDAF; gros progrès sur les dernières générations.
- OM System/Olympus: Les modèles récents (ex. OM‑1/OM‑1 Mark II) utilisent PDAF croisé + CDAF. Certains anciens modèles d’entrée de gamme étaient surtout CDAF.
- Panasonic: Historiquement sans PDAF (système DFD basé contraste) → depuis les S5 II/IIX en plein format et G9 II/GH7 en M4/3, ils intègrent enfin un vrai PDAF hybride.
L’IA et le deep learning
Si l’autofocus hybride a posé les fondations, l’intelligence artificielle (IA) et le Deep Learning (apprentissage profond) ont révolutionné l’autofocus. Aujourd’hui, on ne demande plus à l’appareil de faire le point sur « une zone », mais de comprendre ce qu’il voit.
La détection de sujets : au-delà du simple visage
C’est ici que se situe le plus grand bouleversement de la décennie. L’autofocus est passé d’un système qui analyse de la géométrie (où sont les zones de contraste ?) à un système qui interprète de la sémantique (quel est le sujet et quelle est sa partie la plus importante ?). Ce saut conceptuel a été rendu possible par l’arrivée de processeurs surpuissants comme les Bionz XR (Sony), DIGIC X (Canon) ou EXPEED 7 (Nikon), de véritables cerveaux gavés d’algorithmes de deep learning et entraînés sur des millions d’images.
Cette capacité de reconnaissance de sujet se manifeste de plusieurs manières spectaculaires :
La plus emblématique est sans doute l’Eye AF. L’appareil ne se contente plus de détecter un visage ; il va chercher l’œil, le point de connexion émotionnelle d’un portrait, et s’y agrippe avec une ténacité redoutable. C’est la garantie quasi absolue (pour les meilleurs appareils) d’un regard net. Initialement conçue pour les humains, cette technologie s’est logiquement étendue aux animaux, où elle sait distinguer un chien d’un oiseau pour aller trouver l’œil de ce dernier, même en plein vol (ça marche aussi pour le chien).

Les boîtiers les plus récents appliquent ce suivi intelligent à des formes complexes et des sujets techniques. Vous n’avez plus besoin de suivre manuellement une voiture de course, une moto, un avion ou un train. L’appareil les identifie de lui-même et, plus fort encore, il comprend leurs points d’intérêt : il saura par exemple que sur une Formule 1, le point crucial est le casque du pilote, et maintiendra la mise au point sur cette zone précise, même à très grande vitesse. La machine n’assiste plus seulement le photographe, elle anticipe son intention.
Comment ça marche ?
Le Deep Learning fonctionne un peu comme un cerveau humain. En faisant analyser des millions d’images par les processeurs, les ingénieurs leur ont appris à identifier les schémas récurrents d’un œil, d’une silhouette humaine, d’un casque de moto. En situation réelle, le processeur analyse la scène des centaines de fois par seconde, y détecte les sujets qu’il a appris à reconnaître et dirige l’autofocus dessus.
Plus fort encore, il devient prédictif. En analysant la position, la vitesse et l’accélération d’un sujet sur les dernières millisecondes, l’algorithme est capable d’extrapoler sa position future et de commander à l’objectif de s’y trouver au moment exact où vous déclencherez. C’est ce qui permet de garder un footballeur ou une voiture de F1 parfaitement nets en pleine rafale.
Maîtriser les modes et les zones AF
Avoir le meilleur boîtier ne suffit pas: l’autofocus n’obéit qu’à des consignes claires. Deux choix structurent chaque mise au point: le mode (comment l’AF travaille dans le temps) et la zone (où il cherche le sujet dans le cadre). Maîtriser ce duo, c’est sécuriser vos images, du portrait posé à l’action rapide. Commençons par le mode.

Les modes de mise au point : AF-S vs AF-C
C’est le réglage le plus fondamental. Il dit à l’appareil comment il doit faire la mise au point.
- AF-S (Single / AF Ponctuel) : Pour les sujets immobiles. Quand vous appuyez à mi-course sur le déclencheur, l’appareil fait la mise au point une seule fois et la verrouille. C’est le mode idéal pour le paysage, l’architecture ou un portrait posé.
- AF-C (Continuous / AF Continu) : Le mode roi pour tout ce qui bouge. Tant que vous maintenez le doigt à mi-course, l’appareil ajuste la mise au point en continu pour suivre le sujet. C’est le mode à utiliser pour le sport, les enfants qui courent, les animaux, les véhicules…
Voilà pour les principaux modes, mais il y en a d’autres… L’AF-A (Automatique) laisse l’appareil choisir entre S et C (souvent moins fiable), et DMF (Direct Manual Focus) vous permet de retoucher manuellement la mise au point faite par l’autofocus.
Les zones de mise au point : où l’appareil doit-il chercher ?
L’intelligence artificielle est une alliée formidable, mais elle ne peut pas lire dans vos pensées. Dans une scène complexe avec plusieurs personnes, un avant-plan chargé ou un sujet que vous souhaitez isoler, c’est à vous de reprendre le contrôle. Le choix de la zone de mise au point est votre instruction la plus directe : c’est le moment où vous cessez de laisser l’appareil deviner, pour lui imposer précisément où il doit concentrer toute sa puissance de calcul.
- Large / Suivi global : L’appareil analyse toute la scène et décide lui-même sur quoi faire la mise au point. Avec la détection de sujet (visages, yeux), c’est devenu très efficace.
- Zone / Spot flexible : Vous définissez une zone, plus ou moins grande (un large rectangle ou un tout petit point), et l’appareil ne cherchera un sujet qu’à l’intérieur de cette zone. C’est le mode qui offre le plus de contrôle pour isoler un élément précis.
- Le suivi (Tracking) : Vous placez un collimateur sur un sujet, vous appuyez, et l’appareil va « verrouiller » ce sujet et le suivre où qu’il aille dans le cadre, en adaptant la zone AF dynamiquement.
Type de Photo | Mode AF Recommandé | Zone AF Recommandée | Pourquoi ? |
Portrait posé | AF-S | Spot / Eye AF | Pour une précision absolue sur l’œil et verrouiller la mise au point. |
Portrait en mouvement | AF-C | Eye AF / Suivi | L’appareil suit l’œil en continu, même si le sujet bouge. |
Sport / Action | AF-C | Suivi du sujet / Zone | L’appareil suit le sportif ou se concentre sur une zone où l’action va se passer. |
Paysage | AF-S | Spot flexible | Pour décider avec précision où sera le plan de netteté (premier plan, infini…). |
Photo de rue | AF-C | Zone | Permet de réagir vite tout en contrôlant la zone de mise au point. |
Animalier | AF-C | Eye AF Animal / Suivi | Indispensable pour suivre les animaux imprévisibles et assurer la netteté sur l’œil. |
L’impact du matériel sur l’autofocus
En matière d’autofocus, le logiciel propose, mais le matériel dispose. Aussi brillants que soient les algorithmes, leur vitesse est inutile si le capteur et la mécanique de l’objectif ne peuvent exécuter leurs ordres instantanément. Ce sont ces deux composants matériels qui transforment une décision de l’IA en une photo nette.
Le capteur : le premier maillon de la performance
L’impact du capteur sur l’autofocus se joue sur deux tableaux. Le premier est sa taille. Si la technologie AF n’est pas directement liée au format (Plein Format, APS-C, M4/3), un grand capteur génère une profondeur de champ plus faible à ouverture et cadrage équivalents. La zone de netteté est donc plus fine et ne pardonne aucune erreur, ce qui rend la précision et la fiabilité du système autofocus d’autant plus critiques.

Mais le véritable bond en avant vient de la technologie même du capteur. C’est là qu’interviennent les modèles dits « stacked » (ou empilés), qui équipent les boîtiers très haut de gamme (Sony A1/A9, Nikon Z8/Z9, Canon R3). Leur architecture, où la mémoire est intégrée directement sous les pixels, permet une vitesse de lecture des données phénoménale. Pour l’AF, le bénéfice est double : des calculs de suivi beaucoup plus rapides et la suppression du « blackout » (cet écran noir entre deux photos en rafale), ce qui permet de suivre un sujet sans jamais le perdre de vue. Cette vitesse réduit aussi drastiquement la distorsion de l’obturateur électronique (rolling shutter), un avantage majeur pour la photo d’action et la vidéo.
L’objectif : le bras armé de l’autofocus
Si le boîtier est le cerveau qui donne les ordres, l’objectif est le bras armé qui les exécute. Un processeur peut prendre une décision en une milliseconde, mais si la mécanique de l’objectif ne suit pas, cette vitesse n’est qu’un chiffre sur une fiche technique. La performance finale de l’autofocus dépend de manière critique de la synergie entre ces deux éléments. On peut décomposer le rôle de l’objectif en deux grands domaines : sa mécanique interne, qui est le moteur de la vitesse, et sa conception optique, qui est l’œil qui permet de viser juste.
Au cœur de chaque objectif se trouve un moteur dont la mission est de déplacer des groupes de lentilles en verre – parfois très lourds – avec une précision micrométrique et en une fraction de seconde. Tous les moteurs ne sont pas égaux.
- Les moteurs « classiques » (STM et USM) : Longtemps majoritaires, les moteurs pas-à-pas (STM) sont reconnus pour leur silence et leur précision, ce qui les rend efficaces pour la vidéo, mais ils peuvent manquer de couple pour déplacer rapidement les lentilles les plus lourdes. Les moteurs ultrasoniques (USM, SSM…) ont été les rois de la photographie sportive à l’ère du reflex : très rapides et puissants, mais souvent moins discrets et parfois moins fluides pour des transitions vidéo progressives.
- La révolution des moteurs linéaires : Les rois actuels sont bien les moteurs linéaires (LM, XD, VCM…). Leur principe est une avancée majeure : ils déplacent les lentilles par lévitation magnétique, sans contact ni engrenage. Le résultat est un cumul de superlatifs : une vitesse et une accélération extrêmes, un silence quasi total et une précision redoutable. C’est cette technologie qui permet à un Sony 70-200mm f/2.8 GM II de suivre un sujet sans jamais décrocher, ou à un Nikon Z 400mm f/2.8 d’être aussi réactif. C’est la mécanique indispensable à la performance des boîtiers modernes.

Voir clair pour viser juste
Au-delà du moteur, la conception même des lentilles et du fût optique joue un rôle déterminant. Un objectif dit « lumineux » (avec une grande ouverture comme f/1.8 ou f/2.8) ne sert pas qu’à obtenir un joli flou d’arrière-plan. En laissant entrer massivement la lumière, il inonde les pixels à détection de phase du capteur. Le signal reçu par le processeur est alors plus fort, plus clair et moins bruité. L’autofocus peut ainsi travailler plus vite et avec une bien meilleure fiabilité, la différence étant flagrante en basse lumière où les systèmes ont le plus tendance à « patiner ».
Attention au focus breathing
Au-delà de la luminosité, la conception optique moderne elle-même est optimisée pour la polyvalence photo/vidéo, ce qui bénéficie directement à l’autofocus. C’est particulièrement visible dans la lutte contre le focus breathing. Ce phénomène, qui provoque un léger changement de cadrage lorsque la mise au point varie, est très gênant en vidéo, où le recadrage en temps réel saute aux yeux. Pour le corriger, les ingénieurs conçoivent des objectifs avec des groupes de mise au point internes, plus légers et plus compacts. Le gain pour l’autofocus est double : le moteur a moins de masse à déplacer et peut donc être plus rapide, et la stabilité du cadrage rend le suivi vidéo bien plus propre.
La mise au point manuelle, le retour en grâce
Loin de l’avoir rendue obsolète, la performance des hybrides a offert une spectaculaire seconde jeunesse à la mise au point manuelle. En la rendant plus facile et précise que jamais, elle n’est plus une contrainte, mais un puissant outil au service de l’intention du photographe.
Son utilité est multiple. Elle devient un atout pour obtenir une précision absolue en macro ou en paysage, mais aussi une nécessité pour déjouer les pièges des scènes complexes qui tromperaient l’automatisme. Pour les vidéastes, elle est la garantie d’un contrôle créatif total sur les transitions de point. Elle représente aussi le plaisir de ralentir, de se reconnecter à la mécanique et de redonner vie à des objectifs vintage.
Les appareils hybrides offrent pour cela des outils d’assistance redoutables :
- Le focus Peaking (surbrillance de mise au point) : L’appareil met en surbrillance, avec une couleur vive (rouge, jaune, bleu…), les zones de l’image qui présentent le plus fort contraste, c’est-à-dire les zones nettes. Il suffit de tourner la bague de mise au point jusqu’à ce que la surbrillance recouvre la zone souhaitée. C’est simple et intuitif.

- La loupe de mise au point : D’une simple pression sur un bouton, vous pouvez zoomer numériquement (x5, x10…) dans une partie de l’image, directement dans le viseur ou sur l’écran. Cela permet de vérifier la netteté avec précision, chose impossible à faire dans le viseur optique d’un reflex.
Ces deux outils, utilisables directement dans le viseur électronique, transforment la mise au point manuelle en une expérience assez ludique. Enfin, de nombreux appareils poussent même la logique jusqu’au bout en proposant un mode DMF (Direct Manual Focus), qui permet de corriger à la main le résultat de l’autofocus. C’est la preuve que sur un hybride, mise au point automatique et manuelle ne s’opposent plus : elles collaborent.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix