Vous êtes sur la page 1sur 14

L'autofocus

Publié le 12/01/16 à 14h11

À de rarissimes exceptions près, et sauf si vous en décidez


autrement, tous les appareils photo se chargent eux-mêmes de la
mise au point nécessaire à lʼobtention dʼune photo nette, cʼest-à-
dire quʼils sont autofocus.

Cette possibilité, présentée en 1976 sur le prototype reflex Leica Correfot


dont lʼélectronique occupait le volume dʼune brouette, fut réalisée
commercialement en 1977 avec le compact Konica C35AF, donc bien
avant la photo numérique. Le tout premier reflex à en bénéficier en 1985,
le Minolta 7000, dont le fabricant avait racheté les brevets du Correfot,
donnait déjà largement satisfaction. Il recourait déjà au dispositif très
complexe de corrélation de phase que nous vous expliquons ici. Bien sûr,
lʼautofocus a fait depuis de considérables progrès.

Plusieurs principes très différents ont été inventés, mais aujourdʼhui seuls
deux restent utilisés : lʼautofocus par détection de contraste et
l'autofocus par corrélation (ou différence) de phase.

Les appareils photo actuels sont dotés dʼun seul objectif pour permettre
la prise de vues, et comme nous l'avons vu dans notre article sur la visée,
cet objectif sert à la fois pour à la visée et pour la photo, sauf dans des
cas désormais plus que rares. Lʼautofocus, quʼil soit à détection de
contraste ou par corrélation de phase, se fait par cet unique objectif, ce
qui évite tout problème en photo rapprochée.

Lʼautofocus par détection de contraste


Ce principe consiste pour lʼappareil à tenter de trouver le contraste
maximum de lʼimage, obtenu lorsque le sujet est au point. Explication.

Prenons dʼabord le cas dʼun éclairage ponctuel. Ce peut-être une toute


petite lampe, ou, pourquoi pas, un chat de l'espace (à yeux lumineux),
plongé dans lʼobscurité et qui cligne de lʼœil. Si la mise au point de
lʼobjectif est faite correctement, cela va donner un point lumineux dans le
plan du capteur.

Lʼobjectif dʼun appareil, lorsquʼil est mis au point, donne dʼun éclairage ponctuel une image ponctuelle dans le
plan du capteur. © Édouard Elcet.

En revanche, plus la mise au point est décalée, plus lʼimage de la prunelle


lumineuse de notre chat sera floue. Elle sera aussi plus étalée. Si nous
cherchons à lʼinterpréter en termes de contraste, au lieu dʼavoir une
courbe des densités bien pointue ou carrée, on aura une courbe plus
douce et plus aplatie.

Dans le cas dʼune source lumineuse ponctuelle parfaitement mise au point, le signal recueilli par le capteur
présente un pic élevé et une faible dispersion. Dans le cas dʼune mise au point décalée vers lʼavant ou lʼarrière,
la tache de la source est floue et le signal prend un aspect de courbe élargie. © Édouard Elcet.

Cette recherche dʼun contraste maximal est effectuée directement dans


le capteur. Il en faut donc un… Voilà pourquoi, historiquement, elle est
apparue après la technique de corrélation de phase qui, elle, est
compatible avec les appareils argentiques.

Malheureusement, avec la détection de contraste, la nature du flou de


lʼimage ne permet pas à lʼappareil de décider si la mise au point du sujet
est trop proche ou trop éloignée – à l'exception des boîtiers Micro 4/3 et
1" Panasonic équipés de la technologie DFD.

Il faut donc procéder par tâtonnements, et cʼest pour cela que lʼAF par
détection de contraste, surtout sur les appareils un peu anciens
(compacts ou reflex en fonction LiveView, cʼest-à-dire avec visée par
lʼécran arrière) est plus poussive que celle par corrélation de phase. En
revanche, elle fonctionne un peu mieux en basse lumière, et cʼest surtout
la seule viable avec des objectifs peu lumineux. Lorsque lʼon active le
déclencheur, lʼappareil effectue un léger décalage de mise au point. Si
son processeur, cʼest-à-dire son "cerveau", détecte une amélioration de
la netteté, cʼest quʼil doit continuer dans ce sens jusquʼà lʼobtention dʼun
contraste maximal. Dès quʼil va vers une nouvelle chute du contraste,
cʼest quʼil faut revenir en sens inverse, et ainsi de suite, jusquʼà ce quʼune
netteté parfaite ait été atteinte.

Ce principe sʼest largement affiné ces dernières années, car son


inévitable adoption par les reflex dotés du LiveView et de la vidéo lʼa
rendu incontournable. Les fabricants ont amélioré la précision de la
détection et la rapidité de la mise au point des objectifs en y intégrant
des moteurs de type différent, beaucoup plus efficaces et plus puissants,
ainsi que des microprocesseurs plus "intelligents", sans toutefois
atteindre la rapidité de la corrélation de phase, comme lʼexpliquait Jeff
Meyer dans un article sur lʼétat des lieux du LiveView en 2013. De plus,
comme la mise au point se fait sur toute lʼimage ou presque, le
processeur peut tenter dʼanalyser le genre de photo que fait lʼusager et
sʼefforcer, par exemple, dʼy reconnaître des visages humains.
Lʼautofocus par corrélation de phase
Lʼautofocus par corrélation de phase est autrement plus compliqué. Cela
consiste en une sorte de mesure de distance par triangulation, qui nʼest
pas sans évoquer la manière dont nous, humains, pouvons, lorsque nous
avons nos deux yeux, évaluer les distances. En effet, lʼœil gauche et lʼœil
droit ne voient pas exactement la même chose. Indépendamment de la
connaissance que nous avons de notre environnement (qui nous fait dire
quʼun chien est plus grand quʼune souris), cʼest la différence de points de
vue entre nos deux yeux qui nous permet dʼévaluer les distances.
Rappelons que lʼécart entre nos pupilles est en moyenne de 57 à 65 mm.
Nous reprendrons ici le fil de lʼexposé (en français !) de lʼexcellent
photographe animalier quʼest Pierre Toscani, illustré de magnifiques
schémas interactifs, et dont nous vous conseillons vivement la lecture.

Si lʼon place un filtre bicolore (ici bleu et orange) devant lʼobjectif, mais que la source lumineuse ponctuelle est
parfaitement au point, le point lumineux présente une couleur homogène. © Édouard Elcet.

Afin de vous faire comprendre comment fonctionne la corrélation de


phase, reprenons notre chat de l'espace dont nous nʼavons ici figuré que
lʼœil (clin dʼœil à celui dʼAlice au pays des merveilles). Plaçons devant
lʼobjectif un filtre bicolore (ici moitié bleu, moitié orange) et observons sur
le capteur la tache lumineuse formée par la prunelle du chat. Celle-ci a
une teinte homogène, qui est lʼaddition des deux couleurs du filtre, car
tous les rayons issus de la source lumineuse, après avoir été teintés par
le filtre, convergent, grâce à lʼobjectif, en un point du capteur. La prunelle
du chat fait une petite tache tout de même, pas un point.
Si la mise au point est réglée pour une distance trop éloignée, la source ponctuelle génère une tache floue
bicolore, de telle sorte que les couleurs sont du même côté que celles du filtre. © Édouard Elcet.

Maintenant, tout en conservant le filtre, décalons la mise au point de


lʼobjectif sur une distance trop courte pour la position réelle de la source
lumineuse. On observe que, si le filtre est bleu dans sa moitié supérieure,
le haut de la tache est bleu, et le bas de la tache orange.

Mais il faut ajouter que cette différenciation est dʼautant meilleure que la
luminosité de lʼobjectif est élevée. Il faut au moins f/5,6 pour que ce type
dʼautofocus fonctionne ; Fujifilm, avec un principe de corrélation de
phase que nous verrons plus loin, est arrivé à f/8, mais depuis peu de
temps. Donc, pas question de mettre un doubleur derrière un zoom (sauf
un "tromblon" ouvrant à f/2,8 constant) : cela ne fonctionne pas. Dans ce
cas, il faut recourir à une mise au point manuelle.

Malheureusement, les reflex actuels ont perdu les aides de visée


(microprismes et stigmomètre, alias télémètre de Dodin) de leurs
prédécesseurs, ce qui rend la mise au point fort difficile et approximative
(reconnaissons que lesdites aides de visée sʼassombrissaient en pareil
cas). On pourrait alors penser à passer en LiveView, mais cadrer avec
précision en LiveView avec un long télé nʼest pas des plus simples.

Si la mise au point est réglée pour une distance trop proche, la source ponctuelle génère une tache floue
bicolore, de telle sorte que les couleurs sont du côté opposé à celles du filtre. © Édouard Elcet.

Que se passe-t-il si lʼobjectif est réglé pour une distance trop courte pour
la position du sujet ? Lʼimage va se former en avant du capteur. On aura
aussi une tache floue, mais dont les couleurs seront inversées par
rapport à la position du filtre : en haut lʼorange, en bas le bleu. Cette
inversion se constate aussi bien si la limite séparatrice des couleurs du
filtre est verticale que si elle est horizontale.
Si, en arrière du plan du capteur, on place un objectif dans une position telle que le plan du capteur soit à son
foyer, les rayons issus de cet objectif seront parallèles. © Édouard Elcet.

Maintenant, supprimons le capteur afin de laisser les rayons diverger en


arrière du plan où celui-ci se trouvait. Plaçons en arrière une lentille ou un
groupe optique dont le foyer se trouve dans le plan du capteur. On peut
appeler ce petit objectif collecteur, condenseur, objectif-relais... Lorsque
le sujet est parfaitement au point, il sortira de ce collecteur des rayons
parallèles. Cʼest un principe de physique quʼon apprend au lycée ; nous
faisons ici juste une petite révision pour comprendre. Remarquez que les
rayons du haut de lʼobjectif traversent la moitié inférieure du collecteur.
Notez aussi que le collecteur est précédé dʼun cache (ou masque), qui
est une fine lamelle noire opaque. Ce cache ne laisse passer la lumière
quʼà travers une fente qui, dans le cas de notre schéma, est verticale.

Lorsque le sujet se trouve trop proche, cela décale le plan de lʼimage en arrière et de ce fait, les rayons sortant
du collecteur sont divergents. © Édouard Elcet.

Si le chat (ou plutôt son œil) se trouve trop près de lʼobjectif pour la
distance sur laquelle celui-ci a été réglé, lʼimage se trouve rejetée en
arrière du plan normal du capteur, et de ce fait les rayons issus du
collecteur divergent.

Lorsque le sujet est trop éloigné, le plan de lʼimage se trouve avancé, et les rayons sortant du collecteur
convergent. © Édouard Elcet.

À lʼinverse, si notre chat sʼéloigne, le plan de lʼimage de sa pupille


sʼavance, et en sortie de collecteur les rayons convergent.

Le dispositif autofocus à détection de phase comporte fondamentalement, outre le collecteur et son premier
cache, un jeu de lentilles miniatures précédées dʼun autre cache et deux petits capteurs. Cet ensemble se
nomme collimateur. Le ou les collimateurs sont chargés de détecter la netteté, ou non, du point. © Édouard
Elcet.

En fait, le filtre bicolore ne nous a servi que pour expliciter les différences
qui existent entre les images générées par les parties haute et basse, ou
droite et gauche, de lʼimage ; il n'intervient pas dans la réalité.

Intéressons-nous à ce qui se passe à lʼarrière du collecteur, que nous


vous montrons désormais agrandi. En arrière de celui-ci, on place deux
lentilles de la taille dʼun grain de riz, chacune servant à focaliser les
rayons sur un capteur DTC (en franglais CCD) de forme très étroite,
comme on le verra plus loin. Les lentilles sont précédées dʼun cache doté
de deux trous ronds. Ce cache ne sert qu'à empêcher lʼentrée de lumière
parasite.

Généralement, les micro-lentilles sont moulées dans une même plaque


transparente. Lorsque le sujet est au point, les barrettes de DTC sont
placées de telle sorte que celles-ci reçoivent une image parfaitement
nette. Si le sujet, comme lʼœil lumineux de notre chat, est ponctuel, le
signal sera très peu étendu et aura un maximum de contraste. Mais aussi,
il sera centré, car la micro-lentille reçoit des rayons parallèles et dans son
axe optique…
Si le sujet est trop éloigné, les pinceaux lumineux issus du couple de lentilles de refocalisation divergent lʼun de
lʼautre. Lʼimage se forme davantage en arrière. Le signal est moins contrasté et décalé du milieu de chacun des
capteurs. Cʼest lʼinverse si le sujet est trop proche. © Édouard Elcet.

Mais il en va autrement lorsque lʼobjectif nʼest pas au point sur le sujet


(toujours lʼœil brillant et ponctuel du chat). Vous constatez alors ce qui se
passe dans les figures ci-dessus. Remarquez quʼau niveau des capteurs,
les signaux ne sont pas identiques selon que la mise au point est trop
proche ou trop éloignée. Non seulement en fonction du décalage la
courbe sera plus douce, mais aussi, en passant de lʼune à lʼautre
situation, les courbes sʼinversent. Donc, avec lʼautofocus par détection
de phase, le microprocesseur de lʼappareil va instantanément savoir dans
quel sens agir sur la mise au point pour avoir lʼimage la plus nette.

Dans le cas dʼun sujet ponctuel, le signal est simple. En superposant les
deux courbes de réponse établies par les capteurs, le processeur de
lʼimage peut immédiatement évaluer le sens et lʼamplitude de décalage
du point, et ainsi imposer à lʼobjectif le mouvement nécessaire.

Cependant, les sujets réels sont toujours plus complexes. Lorsque leur
contraste est satisfaisant, en comparant les signaux du couple de
capteurs, le processeur peut identifier les pics homologues, donc trouver
le sens dans lequel il faut actionner lʼobjectif et mesurer le décalage quʼil
faut lui appliquer.
Cependant, si le sujet est insuffisamment contrasté, la mise au point peut
sʼavérer impossible. Le photographe doit alors rechercher un élément
suffisamment contrasté pour permettre la mesure et bloquer celle-ci
(AF-Lock, cʼest-à-dire mémorisation de distance) ou effectuer le point
manuellement.

Voici une représentation schématique en volume du dispositif AF le plus simple possible. Nous avons rendu les
caches transparents pour montrer les micro-lentilles de refocalisation. © Édouard Elcet.

La figure ci-dessus montre la réalisation de principe de lʼautofocus par


détection de phase. En pratique, comme nous le verrons, on nʼa pas
affaire à un trajet lumineux linéaire. En effet, lorsquʼon fait appel à des
capteurs spécifiques pour lʼautofocus, il faut pouvoir alternativement
permettre lʼautofocus (et la visée reflex) et la prise de vues. Il y a donc
forcément mémorisation de distance entre les deux. Et avec des sujets
mobiles, il faut même anticiper le mouvement propre du sujet !
Les capteurs en croix, plus efficaces que les capteurs linéaires, présentent un cache avant en croix et
4 lentilles précédées dʼun cache arrière à 4 trous circulaires, chacun correspondant aux lentilles de
refocalisation. © Édouard Elcet.

Très vite, les fabricants se sont aperçus que pour gagner en efficacité, il
fallait recourir à des capteurs en croix et pas seulement à des capteurs
linéaires. On peut ainsi analyser le décalage de mise au point à la fois
verticalement et horizontalement. Malheureusement, ceux-ci requièrent
une ouverture dʼobjectif encore plus élevée : f/2,8 ou 4, au lieu de f/5,6.

Typiquement, sur un reflex, le module AF est placé sous la chambre reflex. Afin de raccourcir le trajet de la
lumière utilisée pour la mesure, un miroir fixe de renvoi est placé sous le collecteur. © Édouard Elcet.

Le schéma ci-dessus, qui correspond en plus "attractif" aux épures


utilisées par les constructeurs lors du dépôt de brevets, présente en
pratique le module AF. Selon les reflex, ce miroir peut être tourné à 45°
vers lʼarrière ou, comme ici, vers lʼavant. Sa mise en place lors du
montage de lʼappareil requiert une précision extrême. Vous retrouvez ici
les éléments énoncés à travers les schémas précédents, mais aussi
lʼillustration de notre article sur la visée.

Lorsque le reflex est en position de visée "normale" (cʼest-à-dire pas en


LiveView), le miroir principal est en position basse. Ce miroir est semi-
transparent en son centre : une partie du trajet lumineux le traverse pour
atteindre le petit miroir secondaire et, de là, descendre verticalement
vers le module AF.

Lorsque lʼon déclenche, cela fait remonter à lʼhorizontale le miroir


principal contre le verre de visée, le miroir secondaire venant se plaquer
contre le miroir principal. Cʼest bien pour cela que lʼAF par détection de
phase a longtemps été impossible sur les reflex en mode visée par
lʼécran : nous allons y revenir.

Le Canon EOS-1DX ne comporte pas moins de 61 collimateurs, assurant un autofocus efficace même pour
suivre des sujets en mouvement rapide. Document Canon.

Autre point, les collimateurs se sont multipliés : on est passé de 1 à 9,


puis à une trentaine, et à plus de 60 parfois, comme lʼexplique John Reilly
avec des schémas dynamiques. Leur nombre dépend aussi en partie du
niveau de gamme du boîtier.

La sélection des collimateurs, lorsquʼelle est laissée à la discrétion de


lʼappareil, est appuyée par lʼanalyse dʼimage fournie par la cellule
multizone qui sert à la mesure dʼexposition. Le processeur peut ainsi
tenter de comprendre quel type de sujet est photographié, et gérer de
manière experte les différents collimateurs qui se passent le relais en
fonction de ce que fait le sujet. Bien sûr, la mise au point de lʼobjectif doit
être vive comme lʼéclair : pas question de déplacer lʼénorme bloc optique
dʼun 2,8/400 : on ne déplace que quelques lentilles dans le fût, à lʼaide de
moteurs spéciaux (4 sur un télézoom Fujifilm). On peut ainsi
photographier des sujets en mouvements aussi bien linéaires (oiseaux,
cyclisme, sports motorisés) que très difficilement prévisible (un match de
rugby, par exemple), avec une rapidité de mise au point qui nʼa plus rien à
voir avec ce que le photographe le plus avancé pouvait faire auparavant.

Lʼintégration de la détection de phase aux


capteurs
Cependant, le lancement de compacts semi-pros voire professionnels,
des hybrides à objectifs interchangeables (sortes de reflex où dépoli et
miroir sont remplacés par une visée électronique à travers un oculaire),
lʼutilisation croissante du LiveView et de la vidéo ont obligé les fabricants
à tenter de sortir du dilemme autofocus reflex ou détection de contraste.

Les progrès en miniaturisation ont permis dʼintégrer directement lʼAF par


différence de phase au sein même des photosites des capteurs, déjà
dédiés à la détection de contraste. Fujifilm (qui a toujours recouru à ses
propres capteurs CMOS, les X-Trans) dès 2010 avec le F300EXR, et
Canon au moins depuis 2013 avec le 70D, ont proposé à ce sujet des
solutions remarquables. Mais dʼautres fabricants comme Nikon, Olympus,
Panasonic, Sony… en ont également. La technologie est même désormais
appliquée à des smartphones !

Schémas de fonctionnement de la détection de phase Fujifilm. À gauche, "L/R light interception filter" : filtre
dʼinterception gauche ou droit (cʼest-à-dire cache) ; "Phase detection sensor" : capteur dédié à la détection du
contraste avec un filtre pixel vert ; "Microlenses" : micro-lentilles ; "X-Trans color filter" : filtre coloré X-Trans ;
et enfin photodiode. À droite, 1 : cache ; 2 : rayons lumineux ; 3 : filtre coloré (rouge, vert ou bleu) ; 4 :
photodiode ; 5 : séparateur pour éliminer la lumière environnante des photosites. Document Fujifilm.

Le procédé Fujifilm permet une réponse de lʼAF en 0,06 s sur certains


modèles, 0,08 s sur dʼautres un peu plus anciens, et il est utilisable
jusquʼà f/8. En revanche, il requiert des photosites dédiés, ce qui impose
au fabricant une petite interpolation pour les "trous" dans la matrice dus
aux pixels dévolus à lʼautofocus, mais pas à générer lʼimage. Il va de soi
que cela ne se voit absolument pas et que le capteur donne bien la
résolution quʼil promet. Cʼest seulement une petite difficulté
supplémentaire, mais la courageuse équipe de conception Fujifilm nʼest
plus à cela près !

Schémas des "dual pixels" Canon. À chaque micro-lentille couvrant un photosite correspondent en fait deux
photodiodes jumelles. Les pinceaux lumineux quʼelles atteignent diffèrent légèrement, ce qui permet la mise au
point. Documents Canon.

Dans le cas de Canon, ce sont tous les photosites du capteur qui sont
utilisés à la fois dans la création de lʼimage et dans la mise au point. 80 %
de la surface de visée est ainsi utilisable en LiveView pour la mise au
point. Nous vous conseillons de visionner le petit film de cette page
Canon. Chaque photosite, cependant, comporte un couple de
photodiodes qui permet lʼanalyse de la netteté de lʼimage. Le procédé est
efficace avec lʼensemble de la gamme dʼobjectifs de la marque, et la mise
au point se fait bien plus vite et efficacement quʼavec la classique
détection de contraste, ce qui est très appréciable en LiveView et en
vidéo. Bien entendu, dans les cas généraux de photo avec les reflex
Canon, le classique AF par module situé dans le plancher de la chambre
reflex reste nécessaire.

Lire aussi (liens externes)


→ Article général de Wikipedia sur lʼautofocus (2013 ? – en anglais)
→ Article dʼEric Reichbaum (2014, en anglais) sur les deux méthodes AF
appliquées aux appareils hybrides ; simple et clair, mais un peu trop
partisan pour la comparaison entre hybrides et reflex.
→ Deux articles bien faits, avec schémas interactifs, de Marc Levoy
(Université de Stanford), lʼun sur la corrélation de phase et l'autre sur la
détection de contraste.
→ Sur le principe de la détection de contraste, un article de 2005 (en
anglais), dont les principes restent valables.
→ Sur la détection de phase, lire en priorité lʼarticle du photographe
animalier français P. Toscani, avec dʼéblouissants schémas interactifs
(2009, révisé en 2013).
→ Article de Wikipedia FR sur la détection de phase (en français, rédigé
manifestement par un physicien).
→ Article bien fait dʼEdgar Bonet sur la détection de phase (en français).
→ Ainsi que son intéressante dissection du module AF dʼun Minolta
Dynax 3xi (un des derniers reflex argentiques de la marque).
→ Étude du rédacteur technique photo Bernard Rome sur le meilleur
réglage AF dʼun Nikon D7000 ; en haut de page, lʼauteur propose le
même article pour dʼautres reflex Nikon, mais cette lecture conseillée à
tout le monde (en français).

Et sur votre site préféré

Test : Appareil Photo Numérique

Test du reflex Canon EOS 40D


il y a 11 ans