Académique Documents
Professionnel Documents
Culture Documents
Livret 1
MPSI 3 2022-2023
Sommaire – Livret 1
MPSI 2022-2023
La mesure de la distance Terre Lune a été effectuée à l’observatoire de la Côte d’Azur. Le principe est
la mesure de la durée d'aller-retour d'une impulsion laser émise du sol terrestre vers un réflecteur
lunaire (coin de cube). Pourquoi avoir choisi le laser, quel est l’intérêt du coin de cube ?
Comment la théorie géométrique de la lumière, essentiellement basée sur le concept de rayon lumineux,
permet-elle d’interpréter simplement la formation des images à l’aide de lentilles et/ou miroirs ?
L’image vue au travers d’une loupe est virtuelle: elle est du même côté que l’objet, et dans le cas où ce dernier est
situé entre le foyer et la loupe, apparaît agrandie et non inversée.
sommaire Optique 1
Chapitre 3 : Modèles de quelques dispositifs optiques
Dans un téléphone portable, l’objectif photographique est désormais constitué d’une lentille liquide, dont
la distance focale est contrôlée par une tension électrique appliquée aux électrodes qui l’entourent. La
tension électrique modifie la façon dont le liquide isolant (une huile) mouille les parois, ce qui modifie la
courbure de l’interface des deux liquides et, partant, ses propriétés optiques. … Les lentilles liquides
seront donc nécessairement petites, avec des rayons de courbure de quelques millimètres et, par
conséquent, de courtes distances focales. Ces contraintes conviennent bien à de petits dispositifs tels
que les objectifs de téléphones portables.
Mais, dans ce cas, comment effectuer la mise au point ? Dans un système de lentilles solides, un moteur
déplace celles-ci les unes par rapport aux autres afin de faire varier la focale du dispositif. Avec une
lentille liquide, on peut commander électriquement sa courbure, grâce à l’effet dit d’électromouillage. …
… Avec des liquides bien choisis, le résultat est un changement de la courbure de l’interface des deux
fluides, donc de la focale du dispositif : on obtient une lentille réglable.
sommaire Optique 2
INTRODUCTION – PARTIE A : FORMATION DES IMAGES
Chapitre 1 : Sources lumineuses et modèle de l’optique
géométrique
À l’aide du document fourni, répertoriez dans un tableau les similitudes et différences entre les ondes
sonores et les ondes lumineuses. On distinguera ce qui relève du caractère ondulatoire de la lumière
et ce qui relève de son caractère corpusculaire.
INTRODUCTION
Pourquoi parle-t-on couramment d'ondes sonores, d'ondes lumineuses et de rayons de lumière, mais
pas de "rayons sonores" ?
Est-ce parce que la notion de rayon n'a pas de sens avec le son ? Est-ce parce que la lumière peut être
vue comme constituée de photons se déplaçant suivant la direction donnée par les rayons et le son
de... finalement, ne constate-t-on pas l'absence de particule associée à l'onde sonore comme le photon
l'est à la lumière ? Cette introduction est-elle tout simplement fausse et utilisez-vous les rayons sonores
tous les jours ?
Je pense que l'on peut d'ores et déjà répondre à la dernière question : voici un bateau équipé d'un sonar
et cherchant à cartographier les fonds sous-marins :
Figure 1.
Cet exercice très simple de seconde est généralement résolu en traçant le trajet du son aller et retour,
des sortes de "rayons sonores", et personne ne trouve rien à y redire. On utilise donc bien des "rayons
sonores", au moins dans certaines occasions.
Ces "rayons sonores", cependant, sont-ils semblables dans leur nature aux rayons lumineux ? Et, si
oui, pourquoi n'utilise-t-on que rarement le mot de "rayons" pour le son ?
Un "rayon" correspond à la direction de propagation de l'énergie. Lorsque le milieu est homogène, cette
propagation se fait en ligne droite et le rayon est rectiligne. Le "rayon sonore" correspond donc à la
direction de propagation de l'énergie sonore tout comme un "rayon lumineux" correspond à la direction
de propagation de l'énergie lumineuse, définie par le vecteur de Poynting. Il n'est pas associé à un
mouvement de "particule" (comme dans le cas de la lumière et des photons) mais à un mouvement
d'énergie.
Il n'y a pas nécessairement contradiction entre une représentation en terme de "rayon" et une
représentation en terme d'"onde". En fait, au contraire, la représentation d'une onde en terme
de rayon lumineux ou sonore est intimement associée à sa représentation en terme d' onde .
Lorsqu'on représente les surfaces d'onde (qui sont aussi les surfaces équiphase) d'une onde sonore
ou lumineuse, on se place dans un point de vue "onde" plutôt que "rayon", mais les deux points de vue
sont équivalents puisque, pour une onde de pulsation ω donnée, le rayon lumineux ou sonore (défini
par la direction de déplacement de l'énergie), est perpendiculaire à la surface d'onde.
Figure 2.
Surfaces d'onde (en noir) et rayons (en rouge) dans le cas particulier d'une onde sphérique émise par une source
ponctuelle lumineuse ou sonore
Le rayon sonore réfléchi sur une interface plane entre deux milieux 1 (milieu du rayon incident) et 2
homogènes est le symétrique du rayon incident par rapport à la normale à l'interface.
Le coefficient de réflexion (en l'absence d'absorption) à l'interface entre ces deux milieux est :
On peut comparer ce coefficient avec celui que l'on a pour des ondes lumineuses :
Certains lieux ont toutefois été construits intentionnellement pour favoriser des effets acoustiques
particuliers, et, entre autres, d'"images sonores". L'exemple peut-être le plus proche de nous est celui
du métro de Paris.
Figure 3.
Le métro à Solferino
En effet, la perpendiculaire à la tangente en un point donné de l'ellipse est toujours (c'est une propriété
mathématique des ellipses) la bissectrice de l'angle FMF'. Tous les rayons sonores arrivant sur la voûte
du métro et partant de F arrivent donc en F' et réciproquement.
Des constructions de ce type (prévues pour obtenir un effet d'"image sonore") existent depuis
longtemps.
Ainsi, à la Chaise-Dieu, en Auvergne, un confessionnal pour lépreux (que l'on peut toujours visiter de
nos jours) était conçu de façon à ce que le malade, chuchotant dans un angle de la pièce, puisse
entendre parfaitement le prêtre situé dans l'angle opposé, sans que personne d'autre dans la salle ne
puisse les entendre...
Figure 5.
La Chaise-Dieu
Ainsi, il peut être possible d'écouter une conversation plus éloignée que d'ordinaire au-dessus de la
surface d'un lac plus froid que l'air extérieur (le matin lorsque le lac est encore froid et l'air extérieur
réchauffé par les premiers rayons du soleil, ou lorsque le lac est gelé, etc.)
Communication d'un bout à l'autre d'un lac lorsque l'air est Communication d'un bout à l'autre d'un lac gelé : les
de température homogène : seuls les rayons sonores en rayons sonores qui dans le cas précédent se
noir arrivent à la personne placée à l'autre bout du lac dirigeaient vers le haut sont infléchis vers le bas
Dans le cas du lac gelé, le son est en quelque sorte "guidé", sa dispersion dans toutes les directions
étant empêchée d'un côté par la surface presque totalement réfléchissante du lac, et limitée de l'autre
par les couches d'air supérieur plus chaudes.
Vous pouvez faire l'expérience de ce genre de "mirage sonore" très simplement, en comparant la
communication entre les deux rives d'un lac pas très grand, dans la journée (communication difficile) et
tôt le matin (communication facilitée).
Le son, pour sa part, n'a pas engendré autant de controverses. En fait, sa nature ondulatoire fut
envisagée dès les Grecs, et si sa nature ne fut véritablement démontrée que plus tard, cette
représentation ondulatoire du son s'est imposée presque comme "la seule" qui ait eu suffisamment de
succès historique.
Notre représentation actuelle du son, qui fait si peu appel, contrairement à la lumière, à la notion de
"rayon", est en partie tout simplement l'héritage de cette histoire.
Toutefois, d'autres arguments -physiques ou biologiques, cette fois- justifient peut-être la différence de
traitement du son et de la lumière. On utilise beaucoup la représentation en terme de rayons lumineux
de l'optique géométrique traditionnelle pour déterminer la position de l'image d'un objet. Or s'il existe en
Ainsi, lorsqu'on regarde un objet dans un miroir, ce dernier est généralement le seul élément de la pièce
à l'origine de réflexion spéculaire. En ce qui concerne les "reflets sonores" dans une maison, par contre,
dans une pièce quelconque, en général, tous les murs sont susceptibles de réfléchir plus ou moins le
son et les meubles aussi, dans une certaine mesure. En fin de compte la pièce est plus l'analogue d'un
ensemble de nombreux miroirs sonores différents que d'un miroir unique. On a donc en général une
multitude d'échos plutôt qu'une "image sonore" unique. Il n'est donc pas si simple de disposer d'un
"miroir sonore", et faire une expérience probante de réflexion et de réfraction des rayons sonores
requiert un peu de travail...
Le son et la lumière ont donc des natures analogues (des ondes pour lesquelles une représentation en
termes de rayons n'est pas dénuée de pertinence), mais les objets qui nous entourent se comportent
différemment vis-à-vis de ces deux types d'ondes. Seuls quelques objets de la vie courante (les miroirs)
sont le siège d'une réflexion spéculaire pour la lumière, alors que la plupart des objets qui nous
environnent reflètent partiellement les ondes sonores...
Les longueurs d'onde respectives du son et des ondes lumineuses contribuent aussi aux différences
entre ces deux types d'ondes : les effets de diffraction sont beaucoup plus importants pour des
longueurs d'onde relativement petites comme celle du son que pour la lumière.
Enfin, nos perceptions du son et de la lumière sont différentes : les organes de l'ouïe et de la vision et
le traitement des informations par le cerveau sont différents. En particulier, l'oeil comporte une "lentille",
le cristallin, qui lui permet de former une image sur la rétine, alors que l'oreille n'en comporte pas. De
plus, lorsque les informations provenant de notre vue et celle de notre ouïe sont en conflit, celles en
provenance de notre vue tendent à dominer, comme dans le cas du ventriloque qui arrive à illusionner
les spectateurs sur l'origine du son, rendant encore plus difficile de percevoir, les yeux ouverts, des
"images sonores" si celles-ci doivent contredire les "images visuelles" que l'on a sous les yeux..
Dans le cours d’optique géométrique, nous nous intéressons aux aspects géométriques de la
propagation de la lumière. Dans cette étude, applicable dans des conditions que l’on précisera,
on peut admettre que la lumière se propage le long de courbes appelées rayons lumineux.
Pour déterminer l’allure des rayons lumineux, il faut connaître en chaque point M l’indice de
réfraction 𝑛(𝑀).
Mais l’optique géométrique occulte la nature ondulatoire de la lumière. Elle ne permet pas
d’interpréter les phénomènes d’interférence et de diffraction par exemple.
Phénomènes Phénomènes interprétables par le modèle Phénomènes interprétables
interprétables par l’optique scalaire s(M,t) par la description par un
géométrique champ ( E , B)
-Construction - Diffraction : - Polarisation
géométrique d’images :
- Dispersion :
- Interférences :
Applications :
- lunettes 3D
- filtres polarisants (photo)
Applications :
Lunettes, loupes,
microscope etc
Miroirs de dentiste
Télescope
Arc-en-ciel
Objectifs du cours :
...........................................................COURS............................................................................
I. Sources lumineuses
I.1. Spectre de la lumière
Spectre de raies
Spectre de raies une raie
Spectre continu (doublet)
T=3100 K
Odg :
Air : 𝑛 = 1,0003 ≈ 1 La vitesse dans un milieu homogène
transparent étant toujours inférieure à
Eau : 𝑛 = 1,33 celle dans le vide, l'indice n est toujours
Verre : : 𝑛 = 1,5 supérieur à 1. (Crédit B. Mollier)
3. Loi de la réflexion : 𝒊𝟏 = −𝒓
En effet, l’œil reçoit des rayons lumineux provenant d’un même point, celui-ci joue le
rôle d’objet pour la lentille de l’œil et une image se forme sur la rétine.
On peut créer un point objet virtuel en faisant converger les prolongements de rayons incidents
au système optique. L’image de ce point objet virtuel pourra être un point image réel ou un
point image virtuel
L’essentiel du cours
Intérêt de l’étude : on étudie les sources et les récepteurs de lumière car notre connaissance
s’établit à l’aide de capteurs qui rendent compte du signal lumineux émis par les sources mais
de manière imparfaite (à cause des défauts intrinsèques du capteur comme le bruit)
Dans les lampes à filament, le filament est porté à haute température (2800 K) par effet Joule.
Elles émettent un spectre continu assez court en courtes longueurs d’onde mais riche en
infrarouges ce qui diminue le rendement énergétique de la lampe.
Lampe quartz iode : l’ampoule en quartz contient du gaz iode. Le principe est le même que
pour les lampes précédentes, mais l’ajout d’un gaz halogène à l’intérieur de l’ampoule
augmente son temps de vie, en limitant la vaporisation du tungstène. Cela permet donc de
porter le filament à une température plus élevée (3200 K), ce qui augmente l’intensité
lumineuse et décale le maximum d’émission du spectre vers le visible.
En TP, si on place du matériel fragile derrière ce type de lampe, on placera en aval un filtre
anti calorique (filtre les infrarouges)
Lorsque les transitions énergétiques ont lieu exclusivement de façon individuelle entre atomes
de la source et rayonnement émis, seules certaines valeurs de la fréquence sont possibles
pour le photon émis. On parle alors de sources spectrales. Ces sources n’émettent de la
lumières que pour des longueurs d’onde très précises avec seulement de faibles largeur de
raies dues par exemple à l’agitation thermique des atomes de la source et à l’effet Doppler
Fizeau qui l’accompagne. L’allure du spectre émis est présentée sur la figure 2.
Une lampe à décharge est une lampe électrique constituée d'un tube ou d'une ampoule en
verre remplie de gaz (hélium par exemple) ou de vapeur métallique (Hg, Na, Cd), sous haute
ou basse pression, au travers duquel on fait passer un courant électrique. Le flux d’électrons
entre en collision avec les atomes ce qui les porte dans un état excité (durée de vie de l’état
d’excitation : 10−9 s). Il s'ensuit une production de photons donc de lumière suite à la
b. Emission stimulée
FIGURE 4 : Représentation d'un train d'onde sinusoïdal d'extension finie dans le temps
c : durée d’excitation
Pour chaque train d’onde, la date d’émission, la phase à l’origine, et c sont aléatoires.
[durée de cohérence temporelle] d’une onde émise par une source : valeur moyenne de la
durée des trains d’onde. On la note c .
[longueur de cohérence temporelle] d’une onde émise par une source : Lc = c. c . Il s’agit
de la longueur parcourue par l’onde pendant c dans le vide.
Conséquence : largeur spectrale de la source : comme c ne tend pas vers l’infini, la source
est caractérisée par sa largeur spectrale (figure 5)
Conclusion :
Conséquences :
• La cohérence temporelle de l’onde augmente si la longueur de cohérence augmente
ou si v diminue ;
• Inversement, si la source a un spectre étendu, (lumière blanche par exemple), elle a
une faible cohérence temporelle.
• Explicitons c
c c v2 c
= cT = d = − dv v = = 2
v v 2
c
1 2
D'après le principe de Heisenberg : c =
v c
Application numérique : 600 nm et 0,1 − 0, 01 nm
Laser : c 10−8 s
Raie de lampe spectrale : c 10−12 s
Lumière blanche : c 10−15 s
Spectre de raies
Spectre de raies une raie
Spectre continu (doublet)
T=3100 K
Les détecteurs ne sont sensibles qu’à des grandeurs moyennées ou intégrées sur un temps
de réponse caractéristiques du photodétecteur ph avec 𝜏𝑝ℎ ≫ 𝜏.
Ainsi, aucun récepteur ne peut être sensible à l’amplitude car la moyenne temporelle d’une
fonction sinusoïdale est nulle.
III.1. L’œil
L’œil : il est constitué de deux types de cellules
sensibles à la lumière, les cônes et les bâtonnets.
Les bâtonnets sont plus sensibles mais ne
permettent pas de distinguer les couleurs,
contrairement aux cônes.
Le message nerveux envoyé par l’œil au cerveau
est rafraichi environ 10 fois par seconde, ce qui
explique les fréquences des "boîtes à images"
que nous utilisons (25 à 100 Hz) : la persistance
donne l’impression d’un défilement continu des
images. Application : TV : fréquence entre 25 et
100 Hz
L’œil humain perçoit les longueurs d’onde entre 400 et 800 nm et n’est pas sensible à la
lumière polarisée.
Montage :
III.4. Photopile
Le photodétecteur devient générateur sous l’action de la lumière.
III.5. Photomultiplicateur
Permet de détecter jusqu’à un seul photon grâce à une amplification.
Classé dans la famille des mirages, l’effet Novaya Zemlya a la particularité de permettre d’observer le
Soleil à l’horizon alors qu’il est déjà couché.
1. Modèle plan
Par une chaude journée d’été, on voit souvent une ‘flaque d’eau’ au bout d’une ligne droite,
qui n’est que le reflet du ciel. Interpréter.
Aides :
Justifier que l’indice d’un gaz est une fonction croissante de sa densité.
Découper le milieu en une succession de couches planes homogènes d’indices différents.
Montrer que la concavité du rayon lumineux est dirigée vers les zones d’indice croissant.
2. Modèle sphérique
On suppose maintenant que l’indice du milieu présente une symétrie sphérique et ne dépend
que de la distance 𝑅 à un point O.
Exercice 3 : bassin
Un bassin de profondeur ℎ = 1 m est totalement rempli d’eau. Au fond du bassin est placée
une source ponctuelle émettant de la lumière dans toutes les directions. Quel est le rayon du
disque lumineux qui se forme à la surface de l’eau ?
Données :
𝑑1 = 2 m, 𝑑2 = 2 m
Une lame à faces parallèles est constituée par deux dioptres plans parallèles distants de 𝑒.
3) Montrer que le rayon émergent ressort parallèlement au rayon incident.
4) Montrer qu’une lame à face parallèle présente dans les conditions de Gauss un
stigmatisme approché et établir la position de l’image.
5) On regarde horizontalement un poisson rouge à travers un aquarium en verre dont
les parois ont une épaisseur de 1 cm. Le poisson se trouve à 20 cm de la paroi.
Quelle est la position 𝐴’ de l’image ? L’observateur a son visage aligné
horizontalement avec le poisson.
Le phénomène d’arc-en-ciel est lié aux réfractions et réflexions subies par la lumière solaire
dans les gouttes d’eau considérées comme sphériques.
Un rayon lumineux pénètre la goutte d’eau d’indice 𝑛, subit 𝑝 réflexions internes puis ressort.
On note 𝑟 l’angle de réfraction suite à la première réfraction (interface air/eau).
1. Montrer que les réflexions internes ne sont pas des réflexions totales.
2. Exprimer la déviation 𝐷𝑝 qu’a subi le faisceau qui sort de la goutte après 𝑝 réflexions
internes en fonction de 𝑖, 𝑟 et 𝑝.
On rappelle que l'angle de déviation est l'angle que font entre eux le rayon incident et
le rayon dévié après traversée d'un système optique.
3. Montrer qu’on obtient les extrema de la fonction 𝐷𝑝 (𝑖 ) par une relation qu’on
explicitera : 𝑠𝑖𝑛2 (𝑖𝑚 ) = 𝑓(𝑝, 𝑛)
4. a) Montrer que dans l’intervalle 0 < 𝑖 < 𝜋/2, pour une valeur 𝑖 = 𝑖𝑚 , il existe pour 𝐷𝑝
un extremum unique si 𝑝 ≥ 1. On admettra qu’il s’agit d’un minimum noté 𝐷𝑝𝑚 .
b) Calculer 𝐷𝑝𝑚 et l’angle d’incidence 𝑖𝑚 correspondant pour 𝑝 = 1 et 𝑝 = 2.
5. On considère une chute de pluie comme un ensemble de gouttes d’eau
uniformément réparties.
a) Expliquer qualitativement le phénomène d’arc en ciel en vous appuyant sur les
directions dans lesquelles l’œil perçoit un maximum de lumière. Que peut-on dire
de la lumière qui traverse la goutte d’eau sans réflexion interne ?
b) L’expérience montre qu’on observe deux arcs seulement. Justifier ce résultat.
c) Peut-on voir l’arc en ciel quelle que soit l’inclinaison des rayons solaires ?
6. A quoi est due l’irisation de l’arc en ciel ?
7. On peut montrer que la déviation est plus importante pour le violet que pour le rouge
pour l’arc en ciel principal et l’inverse pour l’arc en ciel secondaire. Faire un schéma
représentant la succession des couleurs observées dans les deux arcs.
On souhaite mesurer l’indice de réfraction 𝑛 d’un liquide. On dépose une goutte de ce liquide
sur un cube de verre. On éclaire le cube par un faisceau lumineux par une des faces
latérales. On observe la goutte de liquide par le dessus.
Quelles valeurs d’indice optique ce dispositif permet-il de mesurer ?
Introduction :
Les miroirs et les lentilles sont des objets utilisés quotidiennement. Le miroir le plus répandu
(et le plus simple) est le miroir plan que nous utilisons tous les matins. Cependant, les miroirs
sphériques ont beaucoup d'applications dans la vie courante. Par exemple, les miroirs
convexes se retrouvent dans plusieurs magasins pour contrer le vol à l'étalage. Les miroirs
concaves se retrouvent dissimulés à l'intérieur des feux arrière d'un véhicule. Les miroirs
réfléchissent la lumière tandis que les lentilles réfractent les rayons lumineux.
Objectifs du cours :
• L’objectif premier : maîtriser la construction des rayons lumineux.
• Le stigmatisme approché et l’aplanétisme sont admis.
• Obtenir les formules de conjugaison et de grandissement grâce aux constructions
géométriques
I. Miroirs plans
I.1. Définition
a) Foyers principaux
F → A '
Foyer sur Axe optique
objet
A → F '
sur axe foyer image
optique
II.3. Aberrations :
Les principales aberrations géométriques sont l'astigmatisme (image non ponctuelle d'un
point) et l'aberration de sphéricité des faisceaux pour un point situé hors de l'axe (coma).
Correction des aberrations géométriques : Avec une lentille unique, la seule méthode
consiste à diaphragmer le faisceau pour se placer dans les conditions de Gauss. Le calcul ou
l'expérience montrent qu'il faut, pour minimiser les aberrations géométriques, orienter une
lentille convergente avec sa face la plus bombée dirigée vers le point source ou image le plus
éloigné de la lentille.
[ grandissement transversal] :
𝐴′𝐵′ 𝑂𝐴′ 𝐹′𝐴′ 𝑓′
𝜸= = = =
𝐴𝐵 𝑂𝐴 −𝑓′ 𝐹𝐴
IV. Formules de conjugaison (où se trouve l’image ?) d’une lentille mince dans les
conditions de Gauss
1 1 1
− =
OA ' OA f '
V. Condition de formation d’une image réelle pour un objet réel par une lentille
convergente
La position de l’objet étant connue, 𝐷 la distance objet-écran fixée, à quelle condition obtient-
on une image réelle ?
En résumé :
Pour une lentille mince, je peux définir les propriétés du centre optique, des
foyers principaux et secondaires, de la distance focale, de la vergence.
Je peux construire l’image d’un objet situé à distance finie ou infinie à l’aide de
rayons lumineux.
Je peux identifier la nature réelle ou virtuelle d’une image.
Les microscopes et les lunettes astronomiques Lorsqu'une onde plane – dont tous les points
sont composés de lentilles sphériques, qui ayant la même phase forment un plan – traverse
permettent de manipuler la lumière visible et de la lentille, la lumière qui passe près du centre
produire une vue agrandie de l’objet observé. Ces traverse une épaisseur de verre plus grande que
éléments optiques ont plusieurs défauts : elles celle qui passe près du bord, plus mince. La
sont épaisses et déforment l’image, provoquant ce lumière se propageant plus lentement dans le
que l’on nomme des aberrations géométriques. verre, celle qui passe près du centre prend du
En partant des principes physiques régissant le retard – elle est progressivement déphasée – sur
fonctionnement des lentilles, l’équipe dirigée par celle qui passe par les bords, de sorte que le front
Federico Capasso, de l’Université de Harvard, a d'onde est déformé en un arc de cercle ayant pour
mis au point des lentilles plates ultraminces et centre le point focal.
sans aberrations fonctionnant dans les longueurs
d'onde allant de l’infrarouge au térahertz.
F. Capasso et ses collègues ont développé un
nouveau type de lentilles qui repose sur une
Dans une interprétation géométrique de généralisation de la loi de réfraction. L'idée est de
l’optique, un rayon lumineux est dévié à l’interface créer un déphasage brusque et plus ou moins
entre deux milieux. L’angle de déviation dépend important en chaque point lors de la traversée de
de la vitesse de propagation de la lumière dans les l’interface, pour simuler l’effet d’une lentille
deux milieux – caractérisée par leur indice de sphérique avec une surface plane et mince.
réfraction –, selon une loi énoncée par Snell et
Descartes au XVIIe siècle. Les lentilles sont une
application directe de ce phénomène. Ainsi, des L'élément optique est une plaque de silicium
rayons parallèles qui arrivent sur une lentille recouverte d’une couche d’or de 60 nanomètres
sphérique convexe convergent en un point, le d’épaisseur. Dans cette couche sont gravées avec
point focal. un faisceau d’électrons des nanostructures qui
agissent comme des antennes : elles captent
l’onde incidente et la réémettent avec un
On peut décrire ce phénomène dans une déphasage. La forme – rectilignes ou en V – et
interprétation ondulatoire de l'optique. l’orientation de ces nanoantennes permet de
Questions de cours :
1. Soit un objet réel AB. Tracer son image par un miroir plan. Comment peut-on qualifier
l’image ? Quelles qualités possède un miroir plan ?
2. Définir une lentille mince. Comment distingue-t-on une lentille mince convergente d’une
lentille mince divergente ?
3. Définir pour une lentille mince en se plaçant dans l’approximation de Gauss : le centre
optique, les foyers principaux et les foyers secondaires.
4. Définir le grandissement transversal et en donner différentes expressions en s’appuyant sur
le tracé des rayons lumineux permettant de construire l’image d’un objet situé à distance finie
de la lentille mince.
5. Définir la vergence d’une lentille mince. Quelle est son unité ?
6. Rappeler et démontrer les formules de conjugaison de Descartes et de Newton.
7. Citer deux types d’aberrations.
8. Établir la condition de formation de l’image réelle d’un objet réel par une lentille convergente.
9. Montrer que la vergence de deux lentilles ACCOLEES est égale à la somme des vergences
de chaque lentille.
Une femme de 1m65 désire se voir entièrement dans un miroir. Quelle est la taille minimale
du miroir et à quelle hauteur doit-il être placé ?
Exercice 4 :
Construire dans les deux cas suivants l’image de l’objet AB.
Exercice 5 :
Exercice 6 : loupe
On veut, à l’aide d’une lentille de vergence +50 , observer un petit objet de 5 mm de haut
en réalisant un montage de grandissement +5.
Calculer les positions de l’objet et de l’image et réaliser la construction géométrique à l’échelle
1.
1 1
𝑉 = (𝑛 − 1) ( − )
̅̅̅̅̅
𝑂𝐶1 ̅̅̅̅̅
𝑂𝐶2
La vergence de la lentille est de 0,500 dioptries pour la raie du sodium et son diamètre est de
20 cm.
Données : 𝑛𝐹 = 1,585 ; 𝑛𝐷 = 1,575 et 𝑛𝐶 = 1,571.
Calculer le diamètre de la tache lumineuse sur un écran placé à deux mètres de la lentille si
elle est éclairée uniformément par des rayons en provenance d’étoiles de longueur d’onde 𝜆𝐹
ou 𝜆𝐶 ?
Commenter.
Un faisceau lumineux quasi parallèle de diamètre 𝑑 = 2 mm est issu d’une source laser. On
désire multiplier ce diamètre par 10.
1) L’élargisseur utilise une lentille mince divergente suivie d’une lentille mince
convergente pour laquelle 𝑓′2 = 50 mm. Calculer 𝑓′1 . Faire un schéma du dispositif.
Quelle distance sépare les deux lentilles ?
2) Les deux lentilles sont convergentes et 𝑓′2 = 50 mm. Reprendre les questions
précédentes. Commenter.
Exercice 2 : microscope
La plupart des dispositifs optiques utilisent des lentilles afin de former l’image d’un objet réel
sur un capteur. Ce chapitre portera en particulier sur l’œil, l’appareil photographique et la fibre
optique à saut d’indice. Quelque soit l’instrument utilisé en travaux pratiques notamment,
l’élément final est en général l’œil. Il est donc nécessaire d’avoir quelques connaissances sur
son fonctionnement et sa modélisation. Il ne s’agit pas d’aborder l’œil d’un point de vue
biologique mais d’étudier l’optique de l’œil.
Objectifs :
ŒIL : Modéliser l’œil comme l’association d’une lentille de vergence variable et d’un capteur
plan fixe
Citer les ordres de grandeur de la limite de résolution angulaire et de la plage
d’accommodation
APPAREIL PHOTOGRAPHIQUE : Modéliser l’appareil photographique comme l’association
d’une lentille et d’un capteur. Construire géométriquement la profondeur de champ pour un
réglage donné.
Etudier l’influence de la focale, de la durée d’exposition, du diaphragme sur la formation
de l’image
FIBRE À SAUT D’INDICE : établir les expressions du cône d’acceptance et de la dispersion
intermodale d’une fibre à saut d’indice
La fovéa, est une petite dépression non située sur l’axe optique et entourée de la macula sur
laquelle on observe au mieux les petits détails. (cf : astronomie : pour observer des objets
de faible intensité lumineuse à l’œil nu il ne faut pas regarder de face mais légèrement de
côté).
Les signaux de stimulation captés par les cônes et les bâtonnets sont transmis au nerf optique
qui les conduit à son tour jusqu’au cerveau. Le nerf optique est connecté à l’arrière de l’œil en
un point appelé le centre aveugle et qui ne contient pas de cellules nerveuses sensibles à la
lumière. Le cerveau interprète le message (retournement de l’image, correction de la
distorsion, vision stéréoscopique qui permet d’avoir une notion de profondeur.)
• Champ angulaire : angle du cône de vision partant de la pupille (centre optique) tel
que tout objet se trouvant dans ce cône a une image nette sur la rétine.
L’angle au sommet est de 1° si on ne considère que la fovéa qui permet d’avoir une vision fine.
L’œil immobile est capable d’atteindre un champ horizontal de vision de 60 ° (les images sont
moins nettes).
Œil au repos : les muscles sont relâchés, la courbure du cristallin est minimale, 𝑓’ est
maximale. Les objets vus nets dans cette configuration (c’est-à-dire les objets dont l’image se
forme sur la rétine) sont situés au punctum remotum PR. Pour un œil normal (emmétrope), le
punctum remotum est situé à l’infini. Le PR dépend de l’âge du sujet.
Lorsque le cristallin se contracte, on dit qu’il accommode. La courbure maximale du cristallin
correspond à 𝑓’ minimale, et les objets vus nets dans cette configuration se situent au punctum
proximum PP. Cette distance minimale de vision distincte est égale à 25 cm environ pour un
En effet, l’œil ne distingue deux objets que si leur image se forme sur deux cellules différentes
de la rétine.
De plus, en aval de la pupille (=ouverture circulaire), on aura une onde diffractée dans tout le
½ espace situé après la pupille. La pupille ayant une symétrie de révolution, l'onde diffractée
aura également cette symétrie.
L'angle de la première annulation dans le cadre des petits angles sera :
𝜆
𝜃 ≈ 1,22
𝐷
CONSÉQUENCE : si deux objets sont trop proches, les taches images se superposent et on ne peut
pas les distinguer.
Limite de résolution : distance angulaire minimale entre deux objets qu’un œil peut
différencier.
𝛼 = 1′ d′ arc = 3. 10−4 rad
Application : quelle doit être la distance entre deux objets situés sur la Lune pour qu’un
observateur terrestre puisse les distinguer ?
𝐷𝑇𝑒𝑟𝑟𝑒−𝐿𝑢𝑛𝑒 = 3,84 . 105 km
❖ La myopie : le cristallin est trop convergent. Le PP est plus proche que pour l’œil
emmétrope et le PR n’est plus à l’infini. L’image d’un objet à l’infini se forme en avant
de la rétine, l’objet n’est pas vu net.
Correction : lentille divergente
Questions : quelle est la taille apparente des yeux d’un myope derrière ses lunettes ?
Questions : quelle est la taille des yeux d’un hypermétrope derrière ses lunettes ?
II.1. La loupe
Quelle est la taille des détails que l’œil peut percevoir au mieux ?
Loupe : lentille convergente de courte focale. Elle augmente l’angle sous lequel l’objet est vu.
On place l’objet entre le foyer objet de la lentille et la lentille. On obtient bien une image virtuelle
agrandie droite.
Si on place l’œil au foyer image de la lentille, l’image sera toujours observée sous le même
angle 𝛼’.
Inconvénients de la loupe : champ d’observation limité, image distordue sur les bords.
II.2. L’oculaire
Même fonction que la loupe. Il est constitué de plusieurs lentilles convergentes ou divergentes.
Intérêt : diminution des défauts de distorsion, augmentation du champ d’observation et
atténuation des aberrations chromatiques.
Comme son nom l’indique, l’oculaire est du côté de l’œil (l’objectif est du côté de l’objet).
Pour éviter que l’œil ne se fatigue, on règle l’oculaire de telle manière à ce que l’œil
n’accommode pas. Pour un œil emmétrope, l’objet observé par l’oculaire doit donc être au
foyer objet de l’oculaire (ainsi son image est renvoyée à l’infini qui est le PR de l’œil, et celui-
ci n’accommode pas).
On dit que l’oculaire est réglé à l’infini.
Rôle de ces trois instruments : augmenter la taille apparente de l’objet par rapport à une
observation à l’œil nu. Ils sont composés :
- D’un objectif (𝐿1 ) : modélisé par une lentille mince convergente.
- D’un oculaire (𝐿2 ) : l’image finale doit être au 𝑃𝑅 de l’œil donc à l’infini pour un œil
emmétrope.
- Eventuellement un réticule (croix) situé dans le plan focal objet de l’oculaire.
L’image intermédiaire doit donc être dans le plan focal objet de l’oculaire (𝐴1 = 𝐹2 ).
𝐴𝐵 → 𝐴1 𝐵1 → 𝐴′∞ 𝐵′∞
L’image intermédiaire est dans le plan focal image de 𝐿1 . Le foyer objet de l’oculaire est
confondu avec le foyer image de l’objectif. On parle de système afocal.
𝛼′ 𝑓′ 1
On définit le grossissement : 𝐺 = =− <0
𝛼 𝑓′ 2
La lunette doit collecter le maximum de lumière d’où l’utilisation de lentilles de grand diamètre.
Cercle oculaire : cercle en sortie de lunette dans lequel se trouve concentré la lumière, c’est
donc l’image de la monture de l’objectif par l’oculaire. Lors de l’observation, l’œil est placé au
niveau du cercle oculaire.
Une lunette autocollimatrice est un cas particulier de lunette de visée à l’infini (permettant
d’observer sans accommodation un objet à l’infini, donc comprenant également un oculaire,
un réticule et un objectif).
III.3. Le microscope : cf TD
IV. Télescope
Contrairement aux lunettes, ils sont composés de miroirs sphériques.
Intérêts : pas d’aberrations chromatiques. Le diamètre d’ouverte peut être très grand (plus
facile de réaliser de grands miroirs que de grandes lentilles).
V. Appareil photographique
V.1. Constitution
L’appareil photographique est constitué :
– d’un objectif : c’est une association de lentilles convergentes ;
– d’un diaphragme placé entre les lentilles afin d’éviter les différentes aberrations ;
– d’un obturateur qui laisse passer la lumière pendant une courte durée appelée temps de
pose ;
– d’un capteur CCD (ou CMOS) qui recueille la lumière et transmet l’information au dispositif
d’enregistrement qui stocke les photographies : ce dernier élément sera abordé dans la
séquence 7.
Modèle optique : association d’une lentille et d’un capteur.
Techniquement, si l’on modifie le zoom optique sans changer d’objectif, les différentes lentilles
qui le constituent se déplacent les unes par rapport aux autres afin que la distance focale de
l’ensemble soit modifiée.
Remarque : Le zoom optique ne doit pas être confondu avec le zoom numérique, lequel
consiste à agrandir la photographie informatiquement après sa prise.
Définition : L’angle de champ est l’angle entre les deux rayons de lumière qui atteignent les
extrémités du capteur en passant par le centre de l’objectif. Il correspond à l’étendue angulaire
de la zone photographiée.
Plus la distance focale est élevée, plus le zoom est important et plus l’angle de champ
est faible.
V.3. L’exposition
Les APN permettent de choisir quelle priorité le photographe accorde, pour une exposition
idéale déterminée par les capteurs et le processeur de l’appareil :
• Soit le photographe accorde la priorité à l’ouverture (mode Av) c’est-à-dire qu’il la choisit ;
l’appareil fixe alors le temps de pose 𝜏.
• Soit le photographe donne la priorité au temps de pose (mode Tv), et alors l’appareil fixe
l’ouverture.
𝜏
• Dans tous les cas, les choix correspondent tous à constant.
𝑁2
Sensibilité ISO : c'est la sensibilité du capteur de lumière
Elle prend en général les valeurs suivantes : 100, 200, 400, 800 et 1600. Sur les appareils
photographiques numériques, augmenter l’ISO consiste à amplifier les mesures du capteur
lorsque le flux lumineux capté n’est pas suffisant. Par exemple, si on diminue la durée
d’exposition d’un facteur 2, on peut obtenir une exposition identique en multipliant par 2 la
sensibilité.
Néanmoins, plus la sensibilité ISO est élevée, plus la photo est bruitée, conséquence de cette
amplification. Pour un couple temps d’exposition, ouverture donnée, il vaut mieux choisir l’ISO
Sur le schéma, la mise au point est faite sur A. Son image A’ se forme exactement sur le plan
du capteur.
Les faisceaux issus de 𝐴1 et 𝐴2 sont limités par le diaphragme.
Plus le capteur unitaire est petit, plus la profondeur de champ est faible.
Nombre d’ouverture et profondeur de champ : Si l’on augmente le nombre d’ouverture de
l’objectif (c’est-à-dire si l’on réduit son ouverture), la zone respectant la netteté approchée est
plus étendue :
Commenter.
La fibre multimode à saut d'indice est la fibre la plus ordinaire. C'est ce type de fibre qui est
utilisé dans les réseaux locaux de type LAN (Local Area Network).
Dans cette fibre, le cœur est constitué d’un milieu transparent d’indice 𝑛1 entouré d’une gaine
coaxiale transparente d’indice 𝑛2 . Le rôle de la fibre optique est de guider les rayons lumineux
de l’entrée vers la sortie grâce à une succession de réflexions totales sur le dioptre séparant
le cœur de la gaine.
Chaque mode va donc voyager le long d’un chemin optique différent au sein de la fibre optique.
Il en résulte donc des temps d’arrivée en bout de fibre différents selon les modes.
Dispersion intermodale : retard temporel entre le rayon suivant le trajet le plus long et le
rayon suivant le trajet le plus court.
Etablissons l’expression de la dispersion intermodale 𝛿𝑡 d’une fibre à saut d’indice :
𝛿𝑡 = 𝑡𝑚𝑎𝑥 − 𝑡𝑚𝑖𝑛
L’essentiel du cours
JUAN CARLOS GONZÁLEZ HERRERA, AGUSTÍN SÁNCHEZ LAVEGA ET XAVIER BARCONS| 21 avril 2020
En 1610, Galilée pointa vers le ciel une lunette de quelques centimètres de diamètre et
observa pour la première fois les lunes de Jupiter. Cette découverte a soulevé un coin de voile
sur la véritable organisation de notre environnement cosmique proche. Elle a aussi constitué
la naissance de l’astronomie observationnelle moderne : l’étude de l’Univers à l’aide
d’instruments toujours plus puissants et précis.
Depuis, les découvertes n’ont cessé de se succéder. Trois siècles après l’exploit de Galilée,
la mise en service du télescope de 2,5 mètres de diamètre à l’observatoire du mont Wilson a
permis de mesurer la distance de nombreuses galaxies et d’établir la réalité de l’expansion de
l’Univers. À la fin des années 1950, le télescope de 5 mètres du mont Palomar a contribué à
la détection des quasars, ces noyaux actifs de galaxies dont les astronomes se servent
aujourd’hui pour sonder les confins de l’Univers observable. En 2004, le VLT (Very Large
Telescope) de 8,2 mètres, construit au Chili, a réalisé la première image d’une planète située
hors du Système solaire.
Ce ne sont là que quelques exemples. La construction de télescopes toujours plus grands a,
à chaque fois, repoussé un peu plus loin notre compréhension de l’Univers. C’est pourquoi, il
y a près de vingt ans, l’Organisation européenne pour les observations astronomiques dans
l’hémisphère austral (plus connue sous le nom d’Observatoire européen Austral ou ESO) a
entamé l’étude préliminaire de l’instrument qui, dans très peu de temps, sera le plus grand
télescope optique de l’histoire : le Télescope géant européen ou ELT, pour l’anglais Extremely
Large Telescope.
Cet observatoire gigantesque sera installé sur le Cerro Armazones, dans le désert chilien de
l’Atacama, et on espère qu’il verra sa première lumière en 2025. En plus de son
instrumentation de pointe, l’aspect le plus notable de ce nouveau télescope sera son miroir
primaire dont le diamètre atteindra presque 40 mètres – sa surface sera équivalente à celle
de trois terrains de basket.
La construction d’un observatoire de cette taille nécessite de relever une longue série de défis
techniques. Cependant, à l’image de ce qui s’est passé lors de la transition des miroirs de 2 à
4 mètres, puis des miroirs de 4 à 8 et 10 mètres, les progrès techniques dans ce domaine
rendent désormais cet objectif à la fois techniquement et financièrement viable.
La justification scientifique de ce saut qualitatif réside dans le fait que pour un télescope – un
instrument astronomique qui exploite la réflexion de la lumière, comme l’ELT –, le diamètre du
miroir primaire détermine deux caractéristiques essentielles : la quantité de lumière qu’il capte
et son pouvoir de résolution.
L’instrument est capable d’observer des objets d’autant plus ténus et éloignés que la première
de ces caractéristiques, la quantité de lumière recueillie, est grande. Quant à la seconde, la
résolution, elle mesure sa capacité à distinguer l’un de l’autre deux objets très proches sur la
voûte céleste. Les lois de l’optique indiquent que la quantité de lumière reçue augmente en
raison de l’aire du miroir, tandis que le pouvoir de résolution le fait en proportion du rayon. Par
https://elt.eso.org/telescope/
https://www.youtube.com/watch?v=HkDlHjZNpeE
CAHIER TECHNIQUE
Comment fonctionnent ScienTec
les capteurs CCD et CMOS ?
La SoluTion à vos mesures
Analyseur d'écran
Thomas ESTRUCH Luminance, couleur et
Ingénieur études et applications, Photon Lines Température de couleur
th-estruch@photonlines.com CA-310
et l’oxyde et rester piégé dans un puits de tient à la manière dont vont être transfé- Sources de référence
potentiel tandis que le trou va migrer vers rées les charges piégées dans les puits de
info@scientec.fr / www.scientec.fr
l’électrode de terre. Le nombre d’électrons chaque pixel vers la partie électronique de
01.64.53.27.00
qui peuvent ainsi être collectés dépend de façon à obtenir l’image de la scène.
Les capteurs CCD sert au stockage des électrons pour la lec- capteur. La dynamique d’un capteur est
ture de l’image. Ainsi on peut faire l’acqui- liée au rapport entre la capacité quantique
Le CCD (charge coupled device) consiste
sition de l’image n+1 sur la partie exposée de chaque photosite (proportionnelle
en une juxtaposition matricielle de capaci-
du capteur pendant que l’image n est lue à la taille de la zone photosensible) et la
tés MOS. Pour obtenir l’image de la scène,
sur la partie du capteur masquée. On aug- somme des bruits d’obscurité (faible pour
il faut compter le nombre d’électrons pié-
mente donc considérablement la cadence les CCD) et des bruits de lecture. Les CCD
gés dans chaque puits, qui est proportion-
par rapport à l’architecture full frame. Ces ont ainsi une grande dynamique :
nel au nombre de photons incidents sur
capteurs frame transfer ont un facteur de Dynamique = 20 log (capacité/
chaque pixel. Pour ce faire, on commande
remplissage équivalent au full frame mais (obscurité + lecture))
séquentiellement la tension des grilles de
sont plus chers car la taille du capteur doit De plus, si la sensibilité est définie
chaque capacité MOS au rythme d’une
être doublée pour être équivalente à un comme la capacité d’un pixel à atteindre
horloge, ce qui va permettre de transfé-
capteur full frame. sa saturation rapidement, les capteurs
rer les électrons d’une capacité vers sa
Les CCD interline transfer : l’architecture CCD sont très sensibles car continuelle-
voisine : on parle de registre à décalage. interligne incorpore, au niveau de chaque ment exposés.
Après n transferts, les charges sont conver- pixel, un canal de transfert de charges (re- Les principaux défauts que l’on retrouve
ties en tension dans un condensateur puis gistre vertical recouvert d’un blindage op- sur des images provenant de capteurs
amplifiées. Elles sont ensuite codées nu- tique métallique) directement adjacent à CCD sont liés au fait que le capteur est
mériquement à l’aide d’un convertisseur une photodiode de manière à ce que les exposé en continu et les charges accumu-
analogique/numérique à l’extérieur de la charges accumulées puissent rapidement lées dans les puits quantiques doivent être
matrice CCD. (de l’ordre de la microseconde) être trans- transférées à la fin de l’acquisition. Ainsi
Il existe plusieurs architectures pour les férées une fois que l’acquisition est termi- lorsqu’un pixel reçoit une quantité trop
capteurs CCD qui dépendent directement née. On peut ainsi atteindre des temps importante de photons (qui dépasse sa ca-
du type d’applications visées. Les systèmes d’exposition très courts ce qui permet pacité), il sature et déborde sur ses voisins
à transferts de bloc complet (full frame d’éviter de saturer les pixels et ce, sans avoir un peu à la manière d’un seau trop rempli.
transfer visible en figure 2a) ou partiel recours à une obturation mécanique du Ce phénomène porte le nom de blooming
(frame transfer en figure 2b) sont surtout CCD. En revanche, le blindage des registres (cf. figure 3). De même lorsqu’un pixel est
utilisés dans le milieu scientifique. Les verticaux agit comme un store vénitien et saturé, il va lors de sa lecture par le registre
systèmes à transferts interligne (interline réduit la zone photosensible du capteur à décalage saturer toute la colonne qui lui
transfer en figure 2c) sont utilisés dans les par rapport aux architectures full frame. est associée. On parle alors de colonnage
caméras pour le grand public et les sys- Pour compenser cet effet indésirable et ou smearing (cf. figure 3). Il est donc parfois
tèmes de télévision professionnels. réaugmenter le facteur de remplissage, on nécessaire d’ajouter un système d’obtu-
Les CCD full frame transfer : cette ar- peut utiliser des matrices de microlentilles ration mécanique pour éviter que le cap-
chitecture full frame est la plus simple. Les pour focaliser la lumière incidente sur les teur ne soit exposé pendant la lecture de
photons sont collectés sur l’ensemble de la photodiodes mais, dans le cas où l’objectif l’image. Enfin, malgré l’évolution des archi-
surface du capteur qui est photosensible. est très ouvert (illumination grand angle), tectures des capteurs CCD pour augmen-
Le capteur est ensuite lu verticalement la sensibilité reste faible. ter la cadence de lecture, il est impossible
ligne par ligne à l’aide du registre à dé- De par leur architecture, les capteurs d’adresser la valeur d’un pixel individuel
calage. Chaque ligne une fois transférée CCD offrent l’avantage d’un facteur de en sélectionnant une région d’intérêt ce
au registre de lecture est lue horizonta- remplissage proche de l’unité (> 98 %). qui limite les cadences atteignables par
lement pour obtenir la valeur de chaque Cela signifie que la zone photosensible cette technologie (aujourd’hui la limite su-
pixel. Cette lecture progressive est lente est quasiment égale à la dimension du périeure est de quelques dizaines de kHz).
mais les capteurs CCD full frame sont les
plus sensibles du marché et peuvent fonc-
tionner dans de nombreuses configura-
tions d’illumination.
Les CCD frame transfer : l’architecture a b c
à transfert de bloc (frame transfer) est ba-
sée sur la division de la zone photosensible
du capteur en deux parties symétriques
et de mêmes dimensions (cf. figure 2b).
La première partie collecte les photons
Photoniques 79
de manière classique. Ils sont ensuite ra- Figure 3. Exemple de smearing et de blooming
sur une image prise par un capteur CCD. Le
pidement transférés (en quelques millise- smearing donne lieu à une ligne verticale saturée.
condes) vers la deuxième partie du capteur Figure 2. Schéma des différents types d’architecture Le blooming donne lieu à une saturation des pixels
qui est protégée de la lumière incidente et de capteurs. les plus proches.
40difference
www.photoniques.com
CMOS CCD 72
COMPRENDRE
CAHIER TECHNIQUE
Les capteurs CMOS
Technologie plus récente apparue dans
les années 90, les capteurs CMOS (comple-
mentary metal oxyde semiconductor) sont
néanmoins basés sur le même principe
d’absorption de photons et de génération
de courant proportionnel au flux incident
sur chaque pixel. La différence provient de
la façon dont les charges sont lues.
Contrairement aux capteurs CCD,
les charges sont cette fois directement
converties au niveau du photosite de gé-
nération par le biais d’un amplificateur sur
chaque pixel (figure 4). Cette particularité
permet de supprimer un grand nombre de
transferts comme dans le cas des registres
à décalage du CCD et donc d’augmenter
la cadence de lecture. La taille des cap-
teurs est voisine de celle des CCD mais la
résolution spatiale est moindre, du fait de
la présence des amplificateurs associés à
chaque pixel (un peu comme dans le cas
des CCD interlignes). On peut là encore Figure 4. Schéma de l’architecture d’un capteur CMOS. Chaque photosite dispose de son propre amplifi-
adjoindre une matrice de microlentilles cateur. Chaque pixel peut donc être adressé individuellement et possède une réponse propre indépendante
pour compenser en partie cet effet. de ses voisins.
Photoniques 79
Figure 5. Fonctionnement du capteur CCD en global shutter. Le capteur est Figure 6. Fonctionnement en rolling shutter d’un capteur CMOS. Le capteur
entièrement exposé puis obturé le temps de la lecture de l’image. est lu séquentiellement ce qui peut induire des défauts de représentation si le
phénomène se déplace trop rapidement.
Une autre différence fondamentale est pour chaque image et donc d’atteindre des impacte grandement la sensibilité. De
la façon dont est acquise l’image. Dans les cadences supérieures à ce qu’il est possible plus, ce type de capteur est très sensible
architectures CCD, à un instant donné, l’en- d’atteindre avec un capteur CCD interligne aux sources de bruits (bruits de lecture et
semble du capteur et donc des pixels est par exemple. Il est également possible de de numérisation) qui vont dégrader le rap-
exposé simultanément. L’instant d’après corriger la valeur de chaque pixel en lui port signal à bruit sur une image. Enfin, le
les photosites sont obturés le temps du appliquant une fonction choisie ce qui fonctionnement en global shutter des cap-
comptage des électrons générés de ma- permet de corriger la non-linéarité de cer- teurs CMOS peut avoir des conséquences
nière à obtenir une image. On parle de tains phénomènes, ou tout simplement sur la qualité de l’image dans le cas d’un
fonctionnement en global shutter (cf. figure de s’affranchir du bruit FPN (bruit fixed mouvement d’objet trop rapide par rap-
5). Dans le cas du capteur CMOS, chaque pattern noise lié à la réponse non uniforme port à la cadence de la caméra. Si l’objet
photosite ou pixel va être exposé pendant de chaque pixel de la matrice du capteur se déplace horizontalement, il est possible
un temps identique mais ne collecte pas la à une même illumination ou en l’absence que son image apparaisse avec un angle
lumière au même instant. Cette acquisition d’illumination). De plus, la fabrication de lié à la lecture séquentielle de chaque ligne
séquentielle ligne par ligne en partant de la cette technologie de capteur a l’avantage du capteur. Pour les mêmes raisons, dans le
partie supérieure du capteur porte le nom d’être compatible avec les installations de cas d’un éclairage fluctuant, l’intensité de
de rolling shutter (cf. figure 6). fabrication de masse des circuits intégrés l’image ne sera pas uniforme sur la matrice.
Grâce à son système de lecture qui per- et son coût en est largement diminué. En conclusion, les capteurs CCD et
met d’adresser chaque pixel individuel- En contrepartie, la zone photosensible CMOS sont deux technologies perfor-
lement contrairement au cas du capteur associée à chaque pixel étant réduite par mantes qui sont complémentaires. Il est
CCD, il est possible de ne lire qu’une par- la présence des amplificateurs, le facteur donc important d’identifier les facteurs clés
tie de la matrice du capteur CMOS. Cette de remplissage (sans utilisation de matrice qui vont permettre de réaliser une image
sélection d’une zone d’intérêt sur l’image de microlentilles) est beaucoup plus faible exploitable sur la scène considérée pour
permet de diminuer le temps de lecture que pour un capteur CCD (< 30 %) ce qui choisir son type de capteur. Si la sensibilité
et la dynamique sont prépondérantes par
Tableau comparatif des CCD et CMOS. rapport à la cadence, on optera plutôt pour
CCD CMOS un capteur CCD full frame. Si la cadence et
Facteur de remplissage 50 à 98 % 30 à 50 % le temps d’exposition de la scène (risque
Sensibilité à la lumière Élevée (0,1 lux) Plus faible (10 lux) de saturation) sont les éléments détermi-
Sensibilité aux UV et IR Étendue Étroite nants, alors il faudra s’orienter vers des
Réponse Moyenne Très rapide (10 à 100x plus) capteurs CMOS.
Élevée (2 à 4x plus
Consommation d’énergie Faible
que CMOS)
Dynamique Élevée Moyenne Références
Uniformité du capteur Élevée (1 à 2 % de FPN*) Faible à modérée (5 à 20 % de FPN*) http://www.optique-ingenieur.org/fr/cours/
Bruit électronique Faible Moyen à élevé (10x plus que CCD) OPI_fr_M05_C06/co/OPI_fr_M05_C06_web.html
Courant d’obscurité Faible Moyen http://www.astrosurf.com/luxorion/photo-nu-
Sélection d’une région merique3.htm
Très limité Élevé https://www.tedpella.com/cameras_html/
d’intérêt
ccd_cmos.htm
Photoniques 79
Absent
Anti blooming Présent par défaut http://www.red.com/learn/red-101/global-
(sauf solution custom)
Shuttering Assez rapide Faible rolling-shutter
Biasing et clocking Multiple, tension élevée Unique, basse tension http://genelaix.free.fr/IMG/pdf/MOS_
Diaporama.pdf
*FPN : fixed pattern noise
42difference
www.photoniques.com
CMOS CCD 74
PARTIE A : FORMATION DES IMAGES
Chapitre 3 : modèles de quelques dispositifs optiques - TD
Questions de cours :
1. Rappeler brièvement le modèle optique de l’œil humain et ses caractéristiques.
2. Quelle est la taille minimale d’un détail que l’œil humain peut discerner ?
3. A quelle condition une lentille convergente sert-elle de loupe ?
Comment est défini son grossissement ?
4. On s’intéresse à l’appareil photographique.
a) Rappeler le modèle optique de l’appareil photographique.
b) Construire géométriquement la profondeur de champ pour un réglage donné.
c) Quelle est l’influence de la focale, de la durée d’exposition et du diaphragme sur la formation
de l’image ?
5. On considère une fibre optique à saut d’indice.
a) Faire un schéma faisant apparaître le cône d’acceptance.
b) Etablir l’expression de l’angle d’accepteur ainsi que de la dispersion intermodale.
Pour toutes les figures, on prendra : 𝑒 = 6,0 cm, |𝑎| =2,0 cm.
𝐴𝐵 est un objet perpendiculaire à l’axe optique avec 𝐴 appartenant à l’axe et 𝐴𝐵 = 1,0 cm.
La loupe
Un observateur emmétrope pouvant voir net à une distance minimale 𝑑𝑚 regarde à l’œil nu un
tout petit objet plan que l’on assimilera à un segment 𝐴𝐵 de longueur 𝑙 perpendiculaire à l’axe
optique.
1. Déterminer 𝛼𝑚 l’angle maximal sous lequel l’objet peut être vu.
2. L’observateur regarde 𝐴𝐵 à travers une lentille mince convergente de distance focale 𝑓’ =
50 𝑚𝑚 et de centre 𝑂 (loupe). Son œil est situé à une distance 𝑎 de la loupe (𝑎 < 𝑑𝑚 ).
a) Déterminer les positions de l’objet rendant possible l’observation nette par l’observateur
emmétrope. Faire une construction géométrique de l’image. L’image est-elle droite ou
renversée ?
b) Pour quelle position de l’objet l’observation se fait-elle sans accomodation ? Exprimer
l’angle 𝛼 sous lequel l’œil voit l’image.
c) Que vaut le grossissement commercial de la loupe 𝐺 = 𝛼/𝛼𝑚 .
Principe du viseur
Animation :
http://ressources.univ-lemans.fr/AccesLibre/UM/Pedago/physique/02/optigeo/viseurs.html
Un viseur est constitué d’un objectif et d’un oculaire jouant le rôle de loupe de même axe
optique (𝑂𝑥). On assimilera l’objectif à une lentille mince convergente 𝐿1 de centre 𝑂1 et de
distance focale 𝑓′1 et l’oculaire à une lentille mince convergente 𝐿2 de centre 𝑂2 et de distance
focale 𝑓′2 . On pose ̅̅̅̅̅
𝑂1 𝑂 = 𝐷 et ̅̅̅̅̅̅
𝑂𝑂2 = 𝑑 (les distances 𝐷 et 𝑑 sont positives et réglables). Dans
un plan transverse est disposé en 𝑂 une croix appelée réticule, constituée de deux traits fins
perpendiculaires. L’observateur place son œil à une distance 𝑎 derrière l’oculaire.
(𝑎 < 𝑑𝑚 ; 𝑑𝑚 correspondant à la distance minimale à laquelle l’œil normal voit distinctement).
1. Quel est l’intervalle des valeurs de 𝑑 permettant à l’observateur de voir le réticule net à
travers l’oculaire ? Où doit-on placer le réticule pour l’observer sans accommodation.
On effectuera les constructions pour les deux valeurs extrêmes de 𝑑.
2. Le réglage précédent est supposé réalisé. On souhaite observer à travers le viseur un
̅̅̅̅.
objet A situé sur l’axe optique à l’abscisse 𝑥 = 𝑂𝐴
a) Montrer que 𝑥 ≤ −4𝑓′1
b) Déterminer l’expression de 𝐷 qui minimise 𝐷 en fonction de 𝑥.
c) En déduire la plage de réglage de la distance 𝐷 que le
constructeur doit prévoir.
3. a) Un observateur myope souhaite utiliser le viseur sans ses verres de correcteurs pour
observer un objet A situé à l’infini, dans des conditions définies précédemment. Calculer
les valeurs de réglage qu’il doit effectuer sachant que sa distance maximale de vision
distincte est 𝛿.
b) Déterminer la plage de réglage de l’oculaire à prévoir pour que le viseur soit utilisable
par un myope qui porte en temps normal des verres correcteurs de vergence de −8,0 𝛿,
sans ses verres correcteurs.
Données : 𝑎 = 0 et 𝑓′2 = 2,0 𝑐𝑚
L’ensemble est monté de manière à réaliser une lunette de Galilée, c’est-à-dire que le système
de deux lentilles est afocal.
1) Quel est l’écartement entre les deux lentilles ?
On se sert de cette lentille pour observer une étoile de diamètre angulaire 𝛼.
2) Réaliser la construction permettant de trouver le diamètre angulaire 𝛼 ′ de l’objet à la
sortie de la lunette. En déduire la valeur du grossissement de la lunette.
3) On pourrait aussi observer l’objet en utilisant une lunette astronomique (constituée de
deux lentilles convergentes) de même grossissement. Si vous aviez le choix, quel type
de lunette choisiriez-vous ?
Exercice 4 : myopie