Académique Documents
Professionnel Documents
Culture Documents
UE 3
Biophysique médicale
Année universitaire 2017-2018
Tutorat PACES Lyon Est 2
Polycopié UE 3
Polycopié UE 3
Introduction
Nous insistons sur le fait que les polycopiés du Tutorat sont des Supports Pédagogiques, et ne sont
absolument pas une manière de remplacer les cours en amphithéâtre, ou une référence pour le concours.
La présence de ce signe indique que le cours en question a été relu par le professeur
qui assurera le cours pour l'année universitaire 2016-2017 (le cours ayant cependant
été réalisé à partir du cours de l'année 2015-2016).
Dans le sommaire, les cours relus sont indiqués par le signe : .
L'UE3 est une matière de réflexion par excellence. Une très bonne connaissance des éléments du cours
associée à une bonne compréhension sont nécessaires à la réussite des exercices. Il reste cependant difficile de
comprendre instantanément les bons raisonnements pour résoudre un problème compliqué. L'entraînement
sur les annales et la répétition des méthodes de résolution sont deux autres piliers de la réussite.
La présence de ce signe indique que la notion (ou le cours) en question n'a pas été réalisé(e)
l'année précédente, c'est-à-dire en 2015-2016.
C'est le cas par exemple du cours sur l'acoustique physique qui figure dans la partie 4 « bases
physiques des techniques d'imagerie », qui sera réalisé en 2016-2017.
Sommaire
Introduction ...................................................................................................................................................................... 3
Sommaire .......................................................................................................................................................................... 4
D. Chaleur ......................................................................................................................................................... 64
V. Enthalpie et premier principe de la thermodynamique ......................................................................................... 65
A. Premier principe de la thermodynamique ................................................................................................... 65
B. Capacité calorifique et enthalpie ................................................................................................................. 66
C. Expérience de Joule-Kelvin : énergie interne d'un gaz parfait ..................................................................... 69
D. Loi de Laplace ............................................................................................................................................... 69
E. Composantes de l'énergie interne ............................................................................................................... 70
VI. Changements d'état .............................................................................................................................................. 71
A. Changement de phase d'un corps pur ......................................................................................................... 71
B. Chaleur latente ............................................................................................................................................. 72
C. Changement de phase liquide-vapeur ......................................................................................................... 73
VII. Second principe de la thermodynamique : désordre et spontanéité .................................................................. 77
A. Énoncé de Clausius ....................................................................................................................................... 77
B. Énoncé de Kelvin .......................................................................................................................................... 78
C. Approche microscopique du second principe .............................................................................................. 78
D. Approche macroscopique du second principe ............................................................................................. 79
VIII. Enthalpie libre et loi d'action de masse .............................................................................................................. 79
A. Enthalpie libre .............................................................................................................................................. 79
B. Potentiel thermodynamique ........................................................................................................................ 80
C. Loi d'action de masse ................................................................................................................................... 81
L'état liquide de la matière .............................................................................................................................................. 83
I. Solvant des milieux biologiques : l'eau .................................................................................................................... 83
A. Propriétés physiques de l'eau ...................................................................................................................... 83
B. Interactions en solution ............................................................................................................................... 85
C. Polarité dans l'eau ........................................................................................................................................ 89
II. Électrolytes ............................................................................................................................................................. 91
A. Activité d'un composé en solution ............................................................................................................... 91
B. Électrolytes en biologie ................................................................................................................................ 93
C. Dissolution de l'eau ...................................................................................................................................... 96
D. Rappels : acide, base et pH .......................................................................................................................... 97
E. Propriétés colligatives .................................................................................................................................. 98
A. Définition.................................................................................................................................................... 123
B. Champ et potentiel induits au voisinage du dipôle ................................... Erreur ! Le signet n’est pas défini.
C. Champ et potentiel induits à distance du dipôle ...................................... Erreur ! Le signet n’est pas défini.
D. Le dipôle placé dans un champ électrique ................................................ Erreur ! Le signet n’est pas défini.
E. Dipôle dans la matière .............................................................................. Erreur ! Le signet n’est pas défini.
III. Électrocardiographie (ECG) ................................................................................................................................. 132
A. Polarisation d’une fibre .............................................................................................................................. 132
B. Principe de l’ECG ........................................................................................................................................ 136
C. Dipôle cardiaque équivalent – vectocardiogramme ................................. Erreur ! Le signet n’est pas défini.
D. Théorie d’Einthoven – axes de Bailey – plan frontal ................................. Erreur ! Le signet n’est pas défini.
E. Dérivations précordiales ........................................................................... Erreur ! Le signet n’est pas défini.
F. Notions de pathologie électrocardiographique ........................................ Erreur ! Le signet n’est pas défini.
IV. Autres applications ............................................................................................. Erreur ! Le signet n’est pas défini.
A. Electrophorèse .......................................................................................... Erreur ! Le signet n’est pas défini.
B. Electromyographie (EMG) ......................................................................... Erreur ! Le signet n’est pas défini.
C. Electroencéphalographie (EEG)................................................................. Erreur ! Le signet n’est pas défini.
Partie 1
INTRODUCTION
À LA PHYSIQUE
Formulaire
I. Fonction exponentielle
# $ ×# & = # $(& 1 #$ #$ +
= # $.+ #-. /0(-) = -
= # *$ = # $*&
#$ #&
§ #-. 0 = 1
§ Si - < 0, #-. - 5 0; 1
§ Si - > 0, #-. - 5 1; +∞
§ /0(1) = 0
§ Si - < 1, /0 - 5 −∞; 0
§ Si - > 1, /0 - 5 0; +∞
?
§ Si :(-) = /0(-), alors :′(-) =
@
A+(@)
Une fonction logarithme de base < est définie par : /0$ (-) =
A+($)
A+ @
Il est fréquent d'utiliser le logarithme de base 10 : /BC - = de sorte que /BC(10+ ) = 0
A+ ?D
III. Trigonométrie
Le cercle trigonométrique.
NO0(P + T) = NO0P. QBNT + QBNP. NO0T QBN(P + T) = QBNP. QBNT − NO0P. NO0T
1 1
QBNP. QBNT = QBN(P − T) + QBN(P + T) × NO0P. NO0T = QBN(P − T) + QBN(P + T) ×
2 2
UVWXYZW WXYZW
[
2 0 1
[ 1 3
2 2
3
[ 2 2
4 2 2
[ 3 1
2 2
6
[ [
QBN(P + ) = −NO0P NO0(P + ) = QBN(P)
2 2
e, une constante ℝ 0 e. -
-R
- ℝ 1
2
+ ∗
- +(?
- avec 0 ∈ ℕ ℝ +*?
0. -
0+1
1 −1
−∞; 0 et 0; +∞ /0 -
- -R
? −0 −1
avec 0 ∈ ℕ et 0 > 1 −∞; 0 et 0; +∞ (0 + 1)×- +*?
@j - +(?
1
- 0; +∞ 2 -
2 -
1
/0(-) 0; +∞ -. /0(-) − -
-
#@ ℝ #@ #@
k k
− + l[; + l[ 1
R R
S<0(-) 1 + S<0R - = −/0(QBN(-))
l∈ℤ QBN R -
Métrologie
Rédigé à partir du cours du Pr KRYZA
2. Grandeurs vectorielles
Les grandeurs vectorielles sont entièrement caractérisées par un vecteur, donc par :
§ une norme. § une direction.
§ un point d’application. § un sens.
Il existe deux catégories de vecteurs, à savoir les vecteurs vrais et les pseudovecteurs :
§ les vecteurs vrais (ou vecteurs polaires, n) sont des vecteurs dont le sens est défini sans
ambiguïté, indépendamment de toute convention d’orientation de l’espace.
Exemples. – Vitesse, quantité de mouvement, accélération, force, champ électrique, etc.
§ les pseudovecteurs (ou vecteurs axiaux) sont des vecteurs dont le sens est arbitraire,
c’est-à-dire lié à une convention d’orientation de l’espace.
2. Mesurage indirect
Le mesurage indirect utilise une relation permettant d’obtenir la grandeur indirectement.
Exemples. – Mesure de l’aire d’un quadrilatère en mesurant ses côtés, mesure d’un signal
(absorbance) pour déduire une concentration à l’aide d’un étalonnage.
Masse M kilogramme kg
Temps T seconde s
Température t Kelvin K
Remarques.
§ Température Celsius (C) = Température Kelvin (K) - 273,15.
§ Constante d'Avogadro : NA = 6,022.1023 mol-1.
§ Intensité lumineuse différent de luminosité (dont l'unité est le lux, « lx »).
Symbole de Définition
Grandeur Unité Dimension
l’unité en SI
Volume L3 m3
Note de la rédaction. – Deux grandeurs peuvent avoir des unités différentes, et une même
définition dans le SI comme par exemple la fréquence et la vitesse angulaire.
4. Préfixes du SI
Exemples :
ÅÉ
Accélération a= [a] = LT-2
ÅÇ
B. Applications
1. Vérification de l’homogénéité d’une relation
Une égalité est homogène si :
§ tous les termes d’une somme (ou différence) dans un membre ont la même dimension.
Exemple 1. – z = {Q R
[z] = [_]o = (~o *R )o = ~oR *R
[{Q R ] = ~(o *? )R = ~oR *R
L'équation est bien homogène !
_ ~o *R
Ü = = = ~o*? *R
x oR
òôó Ñ öó
Constante de planck h : on utilise la formule E = hv : ℎ = = ~oR *? (Rq : J.s-1).
Ñ öú
[û]
Constante de Boltzmann kB : lù = = ~oR *R t *? .
ü
†
Relation entre kB et R : lù = (avec R en J.K-1 et NA en mol-1).
°¢
5. Analyse dimensionnelle
Définition. – L'analyse dimensionnelle est une méthode qui permet de calculer les valeurs
numériques des exposants dans une relation entre grandeurs différentes. Autrement formulé :
À partir des dimensions de G1, G2, G3, etc., nous déduisons la valeur des exposants m, n, etc.,
c’est-à-dire que nous déterminons la forme de la relation.
α β γ
Exemple. – Soit la formule suivante : H = kA B C où...
§ H possède la dimension d'un temps,
§ k est une constante sans dimension,
§ A possède la même dimension qu'un volume (oâ ),
§ B possède la même dimension qu'une masse sur un temps (~ *? ),
§ C possède la même dimension qu'une force (~o *R ).
Le terme de gauche (H) étant égal au terme de droite, ils sont de même dimension. k est une
constante sans dimension, nous ne l'incluons donc pas dans l'analyse dimensionnelle. Nous
obtenons alors :
[H] = [A]α[B]β[C]γ
[£] = donc = oâÖ(• ~§(• *§*R• . Pour que cela soit le cas, il faut qu'α, β, γ vérifient :
3u + ¶ = 0
?
ß+¶ =0 qui a pour solution (α = ; β = 1 ; γ = −1).
â
−ß − 2¶ = 1
®
T P
£=
`
2. Erreurs systématiques
Les erreurs systématiques interviennent toujours dans le même sens et sont le plus souvent
dues à un problème d’étalonnage de l’instrument de mesure (balance avec 0 décalé = erreur
systématique).
Définition. – L'incertitude absolue (Δg) est une estimation de l’erreur maximale susceptible d’être
commise dans les conditions de mesure.
©G
L'incertitude relative ( ) est multipliée par 100 pour l’obtenir en %.
G
G = (g ± Δg) unité
Remarque. – Δg possède la même unité que g.
G=a±b ΔG = Δa + Δb
$ ΔG Δa Δb
G = < × = ou = +
& G a b
Exemples :
G = a ×G1
∆G = a×∆G1
1 q ∆z ∆µ ∆p R ∆µ 2∆p
E= = + R = + R
4πεD r R z µ p µ p
Méthodes de la physique
Rédigé à partir du cours du Pr SCHEIBER
I. Système d'unités
Le système international des unités, ou SI, est constitué de sept grandeurs de base à partir
desquelles nous construisons des grandeurs dérivées qui peuvent posséder un nom particulier.
Remarque. – Deux grandeurs peuvent avoir des unités différentes et une même définition dans le
SI. La fréquence et l’activité, respectivement en Hertz et Becquerel, ont pour définition dans le SI
la s-1. La fréquence correspond à un nombre de période temporelle par seconde, et l'activité à un
nombre de désintégration radioactive par seconde.
Une mesure avec un nombre conséquent de chiffres significatifs n'est pas forcément pertinente
en biologie : une glycémie peut être mesurée à 5 chiffres après la virgule avec un système fiable,
mais ceci n’a pas de sens clinique (ni physiologique).
L’erreur est la différence entre la valeur mesurée et la valeur exacte (réelle). Il existe différentes
causes d'erreurs à connaître :
§ les erreurs intrinsèques imposées par la précision de l’appareillage utilisé,
§ les erreurs systématiques, dont l’exemple type est une mauvaise mise au zéro de
l'appareil de mesure,
§ les erreurs accidentelles dues à une défaillance technique, une mauvaise utilisation ou à
une absence de fiabilité de l’appareil de mesure.
Ces erreurs se combinent d’une façon plus ou moins simple et concourent, en général, à
augmenter l’intervalle dans lequel se trouve la valeur vraie.
Remarque. – Les calculs d'incertitude, vus dans le cours de métrologie, viendront compléter ces
notions.
On note les dimensions correspondant aux sept grandeurs fondamentales avec une majuscule :
Masse M
Temps T
Intensité électrique I
Température t
Quantité de matière N
Intensité lumineuse J
Quand nous nous intéressons à la dimension d'une grandeur, nous utilisons la notation "entre
crochets". Par exemple, si est la température de la pièce, est la dimension de ce paramètre : t.
Ce résultat se retrouve également à partir de formules connues faisant intervenir une force.
On peut penser à la seconde loi de Newton : _ = {. <, où < est une accélération.
ÅÉ
Une accélération est la dérivée par rapport au temps d'une vitesse : < = . Donc la
ÅÇ
dimension d'une accélération correspond au rapport de la dimension d'une vitesse sur la
dimension d'un temps. Une vitesse s'exprime en SI en m.s-1, donc admet pour dimension
o. *? .
r o. *?
< = = = o. *R
S
Alors : _ = {. < = { × <
Donc _ = ~. o. *R
B. Homogénéité
L'homogénéité permettra de vérifier que les dimensions sont bien cohérentes dans les formules
physiques utilisées et les résultats obtenus. Deux grandeurs sont homogènes si elles ont la même
dimension.
Remarque. – Vérifiez l'homogénéité vous sera utile pour exclure d'emblée les résultats ne
s'exprimant pas dans la bonne dimension (par exemple si un QCM vous demande une vitesse, un
item de dimension o. *R exprimera une accélération et sera à exclure d'office).
Ü. n
v =
0.
~. o*? . *R . oâ
v =
∂. t
v = ~. oR . *R . ∂ *? . t *?
C. Analyse dimensionnelle
L'analyse dimensionnelle est un outil théorique servant à interpréter les problèmes à partir des
dimensions des grandeurs physiques mises en jeu. Elle permet par exemple de trouver l'expression
d'une formule à une constante multiplicative près.
Prenons l'exemple d'un pendule formé d'une masse { suspendue à un fil de longueur / dans
le champ de pesanteur C. À noter que C est homogène à une accélération.
La période temporelle d'oscillation sera de la forme : = l. / Ö . { § . Cæ (l est une constante
adimensionnée). Une analyse dimensionnelle permet de trouver les valeurs de u, ß et ø.
L'analyse dimensionnelle sera revue en détail en métrologie, voici tout de même un premier
exemple pour s'y familiariser.
= l. / Ö . { § . Cæ =
/ Ö . {§ . Cæ =
oÖ . ~§ . oæ . *Ræ =
oÖ(æ . ~§ . *Ræ =
u=1 2
ß=0
ø = −1 2
A
On obtient l'expression : = l. .
¿
IV. Préfixes du SI
V. Lois de conservation
Au cours d’une transformation, il y a invariance de certaines grandeurs physiques : la masse,
l'énergie, la quantité de mouvement, le moment cinétique, la charge électrique...
L’application des lois de conservation permet d'obtenir un résultat final sans connaissance des
états intermédiaires, et de réfuter un résultat final sans démonstration.
A. Conservation de la masse
La loi de conservation de la masse s’applique :
§ pour un système isolé (sans échange avec l’extérieur),
§ au cours d'une réaction chimique : conservation de la quantité de matière. La somme
des masses des réactifs est égale à la somme des masses des produits.
Ceci est vrai dans le cadre de la mécanique classique où nous considérons la masse comme
invariable au cours du temps. En mécanique relativiste, la masse ne se conserve pas toujours et il
faut raisonner avec l'équivalence masse/énergie.
B. Conservation de l'énergie
Nous distinguons deux formes d’énergie :
De ces deux formes d'énergie, nous pouvons obtenir des formes combinées. Ces formes
combinées correspondent à la somme des énergies cinétique et potentielle. C'est le cas de l'énergie
interne, l'énergie chimique, l'énergie biologique...
Translation Rotation
» é
»
¡√ = …. ¡√ = À. Ãé
é é
À/∆ = …. Œé
z– + z— = QB0NS<0S#
1
{Cℎ = {. r R
2
= éG”
r = 130 l{/ℎ
¬ = ….
àr
_‘@Ç = {. < = {.
àS
à.
_‘@Ç =
àS
Si la somme des forces extérieures est nulle _‘@Ç = 0, alors la quantité de mouvement est une
constante (vectorielle) : . = QNS#.
On considère un choc frontal entre deux chariots. Le système est pseudo-isolé (le poids est
compensé par la réaction du sol), on peut appliquer la conservation de la quantité de
mouvement.
{? r? + {R rR = {? r′? + {R r′R
En considérant le choc comme élastique, on suppose qu'il n'y a pas de perte d'énergie.
L'énergie potentielle ne variant pas ici, puisqu'il n'y a pas de variation d'altitude, il y a
conservation de l'énergie cinétique :
1 1 1 R 1 R
{? r? R + {R rR R = {? r′? + {R r′R
2 2 2 2
Pour simplifier nos calculs, on va considérer que les deux chariots sont de même masse :
{? = {R = {. On supposera de plus que le chariot 1 est immobile avant le choc (r? = 0). On
obtient alors :
{rR = {r ï? + {r ï R
1 1 R 1 R
{rR R = {r ï? + {r ï R
2 2 2
rR = r ï ? + r ï R
R R
rR R = r ï ? + r ï R
R
Or d'après la première équation : rR R = rR . rR = r ï? + r ï R . r ï? + r ï R = r ï? + r ï R
R R
rR R = r ï? + r ï R + 2. (r ï? . r ï R )
D. Produit vectoriel
Avant d'aborder la conservation du moment cinétique, il nous faut introduire la notion de
produit vectoriel. Il s'agit d'un opérateur mathématique faisant intervenir deux vecteurs pour en
donner un troisième.
ÿ ⃗ = ⁄ ⃗⋀ ⃗
Le vecteur issu d'un produit vectoriel est dit "pseudo-vecteur". Son sens dépend de l'orientation
du trièdre de référence de l'espace.
Remarque. – L'ordre donné aux vecteurs dans un produit vectoriel est important :
◊ = ÷⋀r = −r⋀÷
å/fl = Œ⋀¬
å/fl = À×Ã
Le moment d'une force est une grandeur physique vectorielle. Il permet de caractériser la
propriété d'une force à faire tourner son système d'application autour d'un point pivot. Les moments
sont définis pour un point pivot donné.
Le moment d'une force _ s'appliquant sur notre point matériel par rapport à O est :
ã=Œ∧‡
·å
= ã«‚ƒ
·ƒ
2. {v′R s′ = 2. {v R s
R
v′ s
=
v s′
On dispose initialement d'un nombre ∂D de noyaux d'un radioélément. Ils sont susceptibles de
se désintégrer pendant un court intervalle de temps àS avec la probabilité à. :
à. = e. àS
−S
à(/0(∂)) = à
‰
On remonte aux primitives. Il existe `, une constante, telle que :
−S
/0(∂) = +`
‰
On applique exponentielle des deux côtés du signe égal :
*Ç
∂(S) = # Ê ×# Á
Remarque. – À partir de la relation (*), une autre façon de procéder que celle explicitée dans le
diaporama permet d'arriver au même résultat :
à∂ = −e. àS. ∂
à∂
= −e. ∂
àS
Å°
désigne la dérivée par rapport au temps de la fonction ∂(S), comme ∂′(S). On retrouve la
ÅÇ
relation de proportionnalité entre le paramètre et sa variation, caractéristique du modèle
exponentiel.
Ë(ƒ) = Ë(’)׫È.ƒ
*ƒ
Î(ƒ) = Î’ « Ï
*Ñú
°Ì ó
Par définition, ∂(? ) = = ∂D ×# Ê
R R
*Ñú
ó ?
Donc # Ê =
R
−? 1
R
= /0( ) = −/0(2)
‰ 2
? = ‰×/0(2)
R
B. Croissance exponentielle
Exemple 1 Ù Population de bactérie.
Soit ∂, le paramètre modélisant le nombre de bactéries, initialement présentes au nombre
?
∂D . . est la probabilité de division par unité de temps. Il existe un temps ‰ tel que : = ‰.
—
ƒ ƒ.EH(é)
Î(ƒ) = Î’ ×é é
ç = Î’ ׫ çé
+ïúó
2 ë = 10â
0′?R
×/0(2) = 3×/0(10)
5
/0(10)
0′?R = 3×5× ≈ 50 ıB÷pN
/0(2)
Remarque : Dans ce genre d’exercice, il est souvent utile de savoir que 2?D ≈ 10â
Alors ˜‘ + ˜¯ = 0, d'où ˜¯ = ˜‘
¸«
˚. nAœî = ˜‘ donc ∏E‹… =
˝
Pour différentes valeurs de flux entrant on peut obtenir un état d’équilibre correspondant à
différentes valeurs de volume limite.
En injectant nos résultats dans l'équation différentielle (*), on peut obtenir une expression de
n(S): n(S) = nAœî + (nD − nAœî )# *˛Ç .
La concentration sanguine en urée ` est un équilibre dynamique entre son métabolisme et son
élimination.
Åî
Le métabolisme de l'urée correspond au terme non-explicite : .
ÅÇ ò
Åî
Son élimination : = −˚. `.
ÅÇ û
à{ à{
= − ˚. `
àS àS ò
1 à{
`Aœî = ×
˚ àS ò
Åî
Tout changement dans la production ou dans la capacité d'élimination de l'urée ˚
ÅÇ ò
conduit à une nouvelle valeur de la concentration sanguine en urée.
{. C
rAϔ =
:
On peut injecter ce résultat dans l'équation différentielle précédemment établie pour obtenir :
àr :
+ r − rAœî = 0
àS {
On pose ◊ = r − rAœî . On a à◊ = àr, d'où :
à◊ :
+ ◊=0
àS {
On revient ainsi à une équation différentielle d'une forme connue, que l'on sait résoudre.
*“.Ç
◊(S) = ◊D ×# î
*“.Ç
r = rAœî 1 − # î
Le fait d’avoir choisi une force de frottement proportionnelle à la vitesse conduit à une
approche exponentielle de la vitesse limite au cours de la chute.
_‘@Ç = { − {D . C − :. r
(… − …’ ). G
E‹… =
!
2. Ultracentrifugation
Le but de l'ultracentrifugation est de séparer les différents constituants des tubes. L'agitation
thermique peut rendre la sédimentation spontanée très lente. Ce procédé permet d'augmenter la
(î*îÌ ).¿
vitesse de sédimentation .
“
(… − …’ ). Œ. Ãé
E‹… =
!
Si … > …’ , la particule s'éloigne de l'axe de rotation.
Si …’ > …, la particule se rapproche de l'axe de rotation.
2. Transports de chaleur
Remarque. – En général, le transfert est plus efficace dans les métaux, moyen dans les liquides et
peu efficace dans l’air.
Si on considère que la chaleur évacuée par le corps l'est par contact et rayonnement :
ø'
= ˚. − *
àS û
~
? = * +
˚
La température stationnaire ? suit les variations de la température ambiante * , elle croit
quand le métabolisme augmente et diminue si les pertes augmentent.
Remarque. – Lors d’un effort, le métabolisme augmente et on quitte l'état d'équilibre. On passe
par un régime transitoire où la température va progressivement s’élever pour atteindre une
nouvelle température stable.
Lors d'un épisode fébrile, la commande hypothalamique qui gère la consigne fixe une
température de référence D plus élevée qu'habituellement. Le corps s'adapte pour maintenir sa
température à cette température de référence.
Remarque. – Un autre modèle s'appuie sur le concept d'équilibre dynamique pour modéliser la
température du corps.
Deux signaux variables antagonistes seraient simultanés : des récepteurs seraient sensibles
spécifiquement à l'augmentation de température et d'autres à sa diminution. La réponse se ferait
selon le signal majoritaire.
Partie 2
CARACTÉRISATION
DES ÉTATS DE
LA MATIÈRE
I. Introduction : définitions
A. Thermodynamiques classique et statistique
La thermodynamique a pour but l'étude des systèmes macroscopiques (c'est-à-dire considérés à
notre échelle) en termes d'échanges d'énergie et/ou de matière avec le milieu extérieur. Il existe
deux façons d'aborder cette discipline :
B. Système thermodynamique
Le système thermodynamique ne peut échanger avec le milieu extérieur que deux types
d'énergie : de la chaleur (notée ') et du travail (noté -). Ces deux formes d'énergie ont pour unité
SI le Joule (.). Si l'échange de chaleur est nul (' = 0 .), le système est dit adiabatique.
Remarque. – Les transferts d'énergie entre le système et le milieu extérieur sont quantifiés avec
la "convention du banquier" : tout ce que le système gagne est noté positivement, tout ce qu'il
perd négativement. Un travail positif est une compression, un travail négatif une dilatation.
Une chaleur qui passe du système vers le milieu extérieur est perdue par le
système : elle est négative. A contrario, une chaleur qui passe du milieu
extérieur vers le système est gagnée par le système : elle est positive.
Vis-à-vis du milieu extérieur, il peut également se produire des échanges de matière (ajout ou
départ de molécules du système considéré). En fonction des échanges de matière et d'énergie avec
l'extérieur, on définit trois types de système :
§ un système isolé ne peut échanger ni matière, ni énergie avec l'extérieur ;
§ un système fermé peut échanger de l'énergie, mas pas de matière avec l'extérieur ;
§ un système ouvert peut échanger de l'énergie et de la matière avec l'extérieur.
C. Variables d'état
Les variables d'états sont des variables macroscopiques qui permettent de décrire le système à
un instant précis. Au sein de ce groupe, on va différencier les variables intensives des variables
extensives.
Quelques exemples de variables extensives et intensives (certaines seront définies par la suite) :
Remarques. – Le produit d'une variable intensive par une variable extensive donne une variable
extensive (Ü×n correspondant à l'énergie interne développée par la suite est extensif).
Le quotient de deux variables extensives donne une variable intensive (la concentration molaire
+
est une variable intensive).
ª
D. État d'équilibre
Un système abandonné à lui-même atteint spontanément un état de repos à l'échelle
macroscopique : c'est l'état d'équilibre. Cet état est caractérisé par des variables macroscopiques
bien définies et fixes (on peut les mesurer et leur valeur est stable dans le temps). La
thermodynamique étudie la matière à l'équilibre, en dehors de cet état les paramètres
macroscopiques sont mal définis.
Plus précisément, à l'équilibre, le système peut être décrit macroscopiquement par ses variables
d'état : sa quantité de matière 0, son volume n, sa pression Ü et sa température . Ses variables sont
interdépendantes et sont reliées entre elles par une équation d'état. Un exemple est donné par
l'équation des gaz parfaits qui sera très utile ce semestre.
ä∏ = Hπç
Remarque. – Cette équation s'applique aux gaz parfaits et aux autres gaz à haute température
et/ou à faible densité.
§ Ü est la pression, qui s'exprime en USI en ä∆.
§ n est le volume, qui s'exprime en USI en …/ .
§ 0 est la quantité de matière, qui s'exprime en USI en …FE.
§ est la température, qui s'exprime en USI en ˝.
§ v est la constante des gaz parfaits (8,314 .. {B/ *? . ˚ *? ).
E. Transformations
Le passage d'un état hors équilibre à l'état d'équilibre d'un système est une transformation.
Les transformations réversibles désignent des transformations très lentes pour lesquelles, à
chaque instant, le système est très proche d'un état d'équilibre. Il suffirait de changer très peu les
conditions extérieures pour que le sens de la transformation se renverse.
Les transformations irréversibles désignent des transformations qui ont lieu spontanément
dans la nature et sont quasi-instantanées.
A. Échelles de température
Les thermomètres se basent sur des échelles de température relatives : c'est-à-dire que l'on fixe
des références et que les valeurs de température données sont des repères vis-à-vis de ces
références.
L'échelle de température centigrade (aussi dite Celsius) ne correspond pas à l'USI mais est très
couramment utilisée. Le 0 de cette échelle correspond à la température de fusion de la glace et le
100 à la température d'ébullition de l'eau, le tout à pression atmosphérique normale.
Si, par exemple, on considère une colonne de mercure, on note -D la hauteur de mercure
correspondant à 0°C et -?DD la hauteur correspondant à 100°C. À une température inconnue, la
hauteur de mercure est notée -. La température correspondante en °C sera donnée par la relation :
- − -D
(°`) = 100×
-?DD − -D
Ce type de raisonnement peut être exigé au concours. Produit en croix qui mène
à la formule
B. Équilibre thermique
La température est une mesure physique qui rend compte de l'agitation des molécules (nous
parlons d'agitation thermique). Plus la température d'un corps est élevée, plus les molécules qui le
composent sont agitées.
Deux corps de températures différentes au contact l'un de l'autre vont échanger de l'énergie
sous forme de chaleur telle que :
§ le corps le plus chaud se refroidit,
§ le corps le plus froid se réchauffe.
Microscopiquement, les molécules agitées des corps chauds et les molécules les moins
agitées des corps froids s'entrechoquent et communiquent ainsi une partie de leur énergie. Cette
énergie transférée par chocs moléculaires désordonnés correspond à la chaleur.
C. Transfert de chaleur
Le transfert de chaleur peut être plus ou moins rapide en fonction de l'interface entre deux les
milieux de températures différentes.
§ une paroi adiabatique entre les deux milieux ne permet pas le transfert de chaleur.
C'est une paroi isolante.
Dans le cas d'une transformation adiabatique, le système n'échange pas (ou rigoureusement
très peu) de chaleur avec l'extérieur, l'équilibre thermique est donc très lent.
Dans le modèle du gaz parfait, les molécules sont ponctuelles, n'interagissent pas entre elles et
sont capables de libre déplacement à l'intérieur du récipient.
Remarque. – L'application des lois de Newton avec de telles hypothèses permet d'établir que
l'équation d'état d'un gaz parfait est de la forme : Ün = <. + = la température étant exprimée
en degrés Celsius.
Tout gaz qui n'est pas décrit de façon satisfaisante par le modèle du gaz parfait parce que sa
densité est trop importante pour négliger les interactions entre les molécules est qualifié de gaz réel.
Cette expérience nous permet d'atteindre une valeur minimale de température, il s'agit du zéro
absolu à -273,15°C. Température la plus basse qui puisse exister, elle correspond à l'absence totale
d'agitation des molécules. En théorie, la matière est immobile et le volume nul.
Il existe donc un repère absolu pour quantifier la température. C'est à partir de cela qu'a été
mise au point l'échelle de température absolue de Kelvin. Cette échelle est la référence en physique,
l'unité SI de la température est le Kelvin (˝), on parle également de température absolue.
4ç(˝) = 4ç(°1)
40 ˚ = 40 − 273,15 °` = − 233,15 °`
Un glaçon qui passe de -5°C à 0°C gagne 5 K. Un gaz qui passe de 300 K à 270 K perd 30°C.
1. Loi de Boyle-Mariotte
La loi de Boyle-Mariotte s'applique pour les transformations isothermes (à température
constante). Le produit ä. ∏ est constant.
Par exemple, en réduisant de moitié le volume d'un gaz à température constante, cette loi nous
permet de retrouver rapidement la valeur de la pression d'arrivée.
Ü? n? ÜR nR On simplifie par n? : äé = é. ä»
2. Loi de Gay-Lussac
La loi de Gay-Lussac s'applique pour les transformations isobares (à pression constante). Le
volume obéit à une loi de dilatation du type : ∏ = ∏’ (» + 5. ç) où u est le coefficient de dilatation
isobare.
3. Loi de Charles
La loi de Charles s'applique pour les transformations isochores (à volume constant). Le rapport
ä
ç est constant.
Récapitulatif à maîtriser :
On utilise la loi des gaz parfaits en veillant à bien exprimer nos grandeurs dans les bonnes unités (SI).
§ ˚ = °` + 273,15 = 0 + 273,15 = 273,15 ˚ ;
§ Ü = 1 <S{ = 101325 Ü< ;
§ 0 = 1 {B/# ;
§ v = 8,31 .. {B/ *? . ˚ *? ;
§ Le volume obtenu sera en { â , on le convertira en o en sachant qu'1o = 10*â { â .
Ün = 0v
0v 1×8,31×273,15
n= = ≈ 0,0224 { â ≈ 22,4 o
Ü 101325
À T = 20°C, P = 1 atm : V = 24 L
π H
6= = π = », /7. »’*é/ 8. ˝*»
ÎÈ Î
L’équation des gaz parfaits sous sa forme microscopique relie Ü, n, et le nombre de molécules
quand le gaz est à l’équilibre.
ä. ∏ = Î. 6. ç
Plus haut a été précisé que l'équation des gaz parfaits à l'échelle macroscopique s'appliquait
également aux gaz réels à haute température et faible densité. Cette équation à l'échelle
microscopique est également suivie par les gaz réels dans les mêmes conditions.
La température d’un corps est une grandeur liée à l’énergie de ses molécules, la température
est un outil, un paramètre que l'on mesure, qui rend compte du degré d'agitation thermique. Dans
tout système on doit dissocier :
» »
∏;…FË é = ‹ ‹
é
= »
é
+ é
é
+ ...
Î Î
Remarque. – La vitesse quadratique moyenne est la racine carrée de la moyenne du carré des
vitesses, ce qui se retranscrit mathématiquement : r<î9: = rR
»
¡√…FË = …∏;…FË é
é
La température du système est une grandeur liée à l’énergie cinétique moyenne du mouvement
désordonné des particules. L'énergie cinétique moyenne nous permet aussi de préciser notre
définition de l'équilibre thermique : on dira qu’un système est en équilibre thermique s’il y règne en
tout point la même température, de sorte que l’z–î9: des molécules est la même partout.
Les forces exercées individuellement par chaque molécule fluctuent en chaque point, mais en
raison du grand nombre de chocs sur chaque petite portion de paroi, l’effet global du gaz peut être
représenté par une force moyenne qui agit sur toute la surface de la paroi. Si P désigne cette surface,
∫
la pression Ü du gaz est définie comme la force moyenne par unité de surface : _ = . Il faudra bien
*
retenir que cette notion statistique de la pression d'un gaz n'a de sens que pour un grand nombre de
molécules.
»Î é
ä= … ;…FË
/∏
2. Énergie interne
L'énergie cinétique totale de translation áÇ du gaz va correspondre à ∂ fois l'énergie cinétique
moyenne précédemment définie :
1∂ ∂ 2 ∂ 2
Ü×n = ×n×{r<î9: R = {r<î9: R = × {r<î9: R = áÇ
3n 3 3 2 3
Donc en utilisant la loi des gaz parfaits dans sa définition microscopique :
3 3
áÇ = Ü×n = ∂l
2 2
/ /
=ƒ = Î6ç = Hπç
é é
À ce stade du raisonnement, on dispose donc de deux écritures différentes pour notre énergie
cinétique totale, dont une selon la vitesse quadratique moyenne. On en tire la relation suivante :
Exemple. – Quelle est la VQM d'une molécule de dihydrogène (de masse molaire 2 C. {B/ *? ) à
la température ?
Attention à bien utiliser les unités SI, on utilisera ~ = 2. 10*â lC. {B/ *? .
â†Ñ ↠↠â×>,â?Ä
r<î9: = = × avec = = 111,7 áx^.
ò ò ò R.?Dö®
Dans un gaz à une température donnée, toutes les vitesses sont possibles. La loi de Maxwell-
Boltzmann nous permet de déterminer quelle fraction de molécules à0 a son énergie interne
comprise dans un intervalle de valeur de la forme z + àz. En couvrant toutes les valeurs possibles
de l'énergie interne, on obtient la répartition des vitesses.
La répartition des vitesses selon la loi de Maxwell-Boltzmann n'est pas linéaire, son écriture fera
intervenir la fonction exponentielle. Elle dépend de la masse des molécules de gaz, ainsi les courbes
ci-dessus sont obtenues pour des molécules de dihydrogène, elles seront différentes pour un autre
gaz mais auront la même forme.
La vitesse la plus probable correspond au maximum de la courbe. Nous pouvons retenir que
plus la température du gaz est élevée, plus les valeurs sont dispersées (la courbe est étalée et les
vitesses autres que la plus probable sont plus peuplées).
I. Loi de Boltzmann
La loi de Boltzmann est un outil qui permet d'obtenir la distribution des vitesses de Maxwell-
Boltzmann mais possède des applications plus générales en physique. Elle permet de lier le nombre
0$ de particules à un niveau d'énergie donné z$ , cette énergie étant en compétition avec les
phénomènes d'agitation thermique modélisés par l. , où l est la constante de Boltzmann.
Loi de Boltzmann :
¡∆
H∆ = È. «*6.ç
P est une constante qui a la même dimension que 0$ . Elle ne présente que peu d'intérêt car
on étudie généralement des rapports de population. Ainsi, si on dispose de deux états d'énergie z$
et z& tels que l'on note : ∆z = z& − z$ dont on note les populations 0$ et 0& , alors :
ö¡?
¡∆ ö¡? ö∆¡
H? È.« 6.ç
= ö¡∆ =« 6.ç = « 6.ç
H∆
È.« 6.ç
πç× H«≈¬è√«≈
äçflç = ä¬∆Œƒ‹«EE«≈ =
∏
Exemple 1. – Considérons une enceinte de volume n, contenant 0„R moles de dioxygène et 0AR
moles de dihydrogène, tout à la température . Le tout est considéré comme un mélange de
gaz parfaits.
Les pressions partielles de l'BR et du £R Ü„R et ÜAR sont telles que :
Ü„R . n = 0„R . v.
ÜAR . n = 0AR . v.
(+Có (+Dó ).†Ñ
La pression totale régnant dans l'enceinte est donc : ÜÑ„Ñ = Ü„R + ÜAR = .
ª
Exemple 2. – L'BR ne représente que 21 % de l'air sec. Dans une quantité de 0 moles d'air, la
quantité d'BR sera notée 0„R . Si la pression atmosphérique est notée Ü, Ü„R désignera la
pression partielle de l'BR .
0„R
= 0,21
0
0„R . v Ü„R
= = 0,21
0. v Ü
Ü„R = 0,21×Ü
Au niveau de la mer, Ü = 1 <S{ d'où Ü„R = 0,21 <S{. À 700 m d'altitude, Ü = 0,45 <S{ d'où
Ü„R = 0,21×0,45 = 0,095 <S{.
Loi de Henry :
1· = ¸ç . ä
Or la pression totale augmente de 1 <S{ tous les 10,3 {. Nous pouvons la modéliser ainsi :
ℎ
Ü = Ü$Çî + (#0 <S{)
10,3
ℎ
Ü =1+ (#0 <S{)
10,3
ℎ = 10,3× 3,81 − 1 = 29 {
Remarque. – Il est utile de retenir pour les exercices que tous les 10m de profondeur, la pression
augmente de 1 atm. Et il ne faut pas oublier que la pression initiale est égale à la pression à la
surface ! J
L. Gaz réels
Dans le modèle du gaz réel, nous prenons en compte les forces intermoléculaires : la
répulsion à courte distance et l'attraction à plus longue distance.
1. Équation d'état
L'équation d'état d'un gaz réel est donnée par l'équation de Van der Waals :
∆
ä+ . ∏… − ? = π. ç
∏… é
§ = est constant, c'est le covolume. Les forces d'attraction vont permettre de rapprocher
les molécules les unes des autres.
L’équation d’un gaz parfait peut encore être utilisée quand la température est bien supérieure à
la température de liquéfaction du gaz, quand la densité du gaz est faible ou bien que la pression est
basse.
2. Isothermes
L’équation des gaz parfaits peut être utilisée quand le gaz est loin de sa température de
liquéfaction. S’il n’en est pas ainsi, il faut lui substituer une équation plus générale appelée équation
de Van der Waals.
§ Courbe de saturation : ensemble des points qui relient le changement d'état d'un corps.
Si une isotherme croise la courbe de saturation, à partir de ce point vont coexister la
phase liquide et la phase gazeuse.
§ Point critique : point à partir duquel apparaît la phase liquide-gaz. Il est placé sur la
courbe isotherme qui correspond à la température critique ç√ . La valeur de la
température critique dépend de la nature du gaz.
Ce graphique présente trois isothermes d’un gaz réel pour trois valeurs de la température. Dans
le cas > – le système est dans la phase gazeuse, mais dans le cas < – on obtient un mélange
liquide-gaz que l’on trouve en dessous de la courbe en pointillés. L'équation de Van der Waals sera
utilisable pour les branches extérieures à la courbe en pointillés. Si ≫ – , on répond au modèle du
gaz parfait.
á= z– + z—
§ 'á' est fonction de l'état macroscopique du système. Mathématiquement, cela veut dire
qu'elle est fonction de deux variables indépendantes entre elles : á = á n, =
á n, Ü = á Ü, .
§ Il sera courant d'utiliser une variation d'énergie interne entre un état final (á“ ) et un
état initial (ᜠ), que l'on notera ∆á = á“ − ᜠ.
L'énergie interne variera avec les apports d'énergie venus de l'extérieur sous deux formes : le
travail, via des forces ordonnées, et la chaleur, via les mouvements désordonnés des molécules.
Ƈ = - + '
à- = _‘@Ç . à-
∏!
í=− ∏‹
ä«‚ƒ . ·∏
§ Ü‘@Ç est la pression extérieure qui s'exerce sur le gaz. Si la force de pression s'exerce sur
une surface S, nous avons : _‘@Ç = Ü‘@Ç ×x.
§ n“ est le volume final occupé le gaz, après l'action de compression ou de détente de Ü‘@Ç .
Suivant les conditions de transformation, cette formule peut prendre plusieurs formes :
ªE ªE 0v
-=− Ü‘@Ç . àn = − àn
n
-=− Ü‘@Ç . àn = −Ü. àn ªF ªF
ªF ªF ªE
àn
- = −0v
n
ªF
í = −ä. (∏! − ∏‹ ) ∏!
í = −Hπç. EH
∏‹
Convention du banquier :
• Lors d’une détente ou dilatation, le système fournit du travail au milieu extérieur : W < 0 J,
• Lors d’une compression, le système reçoit du travail du milieu extérieur : W > 0 J.
D. Chaleur
Tout comme le travail des forces de pression, la chaleur n'est pas une fonction d'état. L'unité SI
de la chaleur est celle de l'énergie : le joule. Cependant, nous utilisons couramment la calorie.
» √∆E = G, »7 8
On peut apporter de la chaleur à un système sans faire varier sa température : c'est ce qu'il se
passe lors de la fonte d'un glaçon que l'on réchauffe. Sa température augmente jusqu'à atteindre
celle de fusion. Tout apport de chaleur servira ensuite à la liquéfaction de la glace, la température
stagnant à sa valeur de fusion.
On peut avoir une variation de la température sans apport de chaleur. Lors d'une compression
adiabatique, le système ne reçoit aucune chaleur mais la température augmente (cf. loi de Laplace
revue plus loin).
Convention du banquier :
La chaleur est une forme d'énergie : nous pouvons par exemple l'utiliser pour obtenir une forme
d'énergie ordonnée, le travail. C'est le principe de la machine à vapeur.
Exemple 2. – Si le piston est maintenu immobile, le volume est invariable. Aucun travail ne sera
apporté au gaz, toute l'énergie apportée par la chaleur ne servira qu'à augmenter l'énergie
cinétique moyenne des molécules.
Il peut être pratique de retenir qu'un volume invariable implique l'absence de travail.
∆= = í + H
Elle peut être définie pour deux types de transformation : à volume constant ou à pression
constante.
Remarque. – Pour un gaz parfait, l'énergie interne ne dépend que de la température : U est une
KL ÅL
fonction de T uniquement, á(). C'est pour cela que de on peut écrire .
KÑ ÅÑ
La capacité calorifique à pression constante est notée `— , on sait que ø' = àá + Ü. àn.
ø' Já Jn à(á + Ü. n)
`— = = + Ü. =
à J ∫ J ∫ à ∫
Il devient utile d'introduire une nouvelle variable £, l'enthalpie, qui sera une fonction d'état,
tout comme á, mais définie comme la somme de l'énergie interne et du produit Ü×n. L'enthalpie a
la dimension d'une énergie.
Enthalpie :
M = = + ä. ∏
KA ÅA
On obtient alors : `— = =
KÑ ª ÅÑ
Remarque. – Nous avons á() et Ün = 0v donc Ün(). Nous passons donc là-aussi de la
notation en 'd rond' à une dérivée classique.
IH = …. √. ·ç
H = …. √. ∆ç
Si au lieu de diviser la capacité calorifique par la masse, on la divise par la quantité de matière n,
on obtient la capacité calorifique molaire, qui s'exprime en .. {B/ *? . ˚ *? .
Nous retrouvons alors la même définition de la chaleur en remplaçant la masse par la quantité
de matière : ø' = 0. Q. à et ' = 0. Q. ∆.
Que l'on utilise des capacités calorifiques massiques ou molaires, on définit le coefficient ¶, qui
sera utile par la suite :
√¬ 1¬
N= =
√ 1
Exemple 1. – On fait passer 1 litre d'eau de 20 à 100°C sous la pression atmosphérique. Quelle
est la chaleur reçue par l'eau en Joules et en calories ? Q— = 4,18. 10â .. lC*? . ˚ *? .
1 litre d'eau pèse 1 kg. Nous avons ici { = 1 lC. ∆ = 100 − 20 = 80°` (B÷ ˚).
En Joules : ' = {. Q— . ∆ = 1×4.2. 10â ×80 = 336×10â ..
En calories, la capacité calorifique devient Q— = 1. 10â Q</. lC*? . ˚ *? :
Exemple 2. – Soient deux récipients contenant une même quantité d'air à température
ambiante (27°C). L'un est ouvert, donc soumis à pression atmosphérique (constante), et
l'autre est fermé au niveau de la surface du liquide (V constant). L'air de chaque récipient
reçoit la même quantité de chaleur notée '.
On note { la masse d'air contenue dans chacun des récipients, et Q la chaleur apportée à
chacun d'eux. On recherche la température finale dans chacun des deux récipients.
À pression constante : ' = {. Q— $œñ . (“,— − 27).
À volume constant : ' = {. QÉ $œñ . (“,É − 27).
£ = á + Ü. n
࣠= à(á + Ü. n) = àá + à(Ü. n) = àá + Ü. àn + n. àÜ
࣠= àá + Ü. àn + n×0
࣠= ø' − Ü. àn + Ü. àn
Donc ࣠= ø', sur une transformation entière : ∆£ = '. Ce résultat est important, la
démonstration n'est pas à savoir.
Dans le cas des réactions chimiques ou biochimiques qui ont lieu à la pression atmosphérique,
on peut calculer ce que l’on appellera la chaleur de la réaction A¨B £*ù , c’est-à-dire la chaleur
absorbée ou fournie au cours de cette réaction.
Puisqu’elle ne dépend que de l’état initial et de l’état final, nous pourrons décomposer cette
réaction A¨B en des réactions pour lesquelles nous connaissons les chaleurs de réaction.
Ci-dessus, peu importe si nous passons par l'état C ou D, la chaleur échangée pour passer de A
à B est £*ù . Nous avons :
£*ù = £*Á + £Áù et £*ù = £*S + £Sù
£*S + £Sù = £*Á + £Áù
Si on ouvre le robinet, le gaz se détend et cherche à occuper tout le volume A+B. Quand
l’équilibre final est atteint, on constate que la température finale “ du système est égale à œ .
Or le système total est isolé, il n’échange pas de chaleur avec l’extérieur (d'après les propriétés
calorifuges du calorimètre), ni travail (la détente est un travail interne au système) avec l’extérieur.
er
Dans ces conditions, le 1 principe nous enseigne que la variation d’énergie interne est nulle :
Ƈ = - + ' = 0
La température étant restée constante, cela démontre que l’énergie interne d'un gaz parfait est
bien une fonction de la température seulement. á = á().
D. Loi de Laplace
ä. ∏N = √≈ƒ«
√≈ƒ«
ç=
∏Nö»
–O
§ Avec ¶ = . ¶ est différent pour chaque espèce mais est toujours supérieur à 1.
–P
On gonfle la roue d'un vélo de façon très lente, de sorte que l'on puisse considérer la
transformation comme réversible. On considère que les parois de la roue ne permettent pas
d'apport de chaleur, la transformation sera également adiabatique. En considérant que l'on
est en présence d'un gaz parfait, celui-ci répondra donc à la loi de Laplace.
Pour l'air sec à température ambiante, ¶ = 1,4.
Le raisonnement inverse montre que la détente d'un gaz de façon adiabatique réversible fait
diminuer sa température.
Dans le cas d’un gaz réel, nous devons tenir compte des forces d’interaction intermoléculaires.
La relation définissant l'énergie interne est différente puisqu’à l’énergie cinétique de translation va
se rajouter une composante rotationnelle et vibrationnelle dépendant de la température : les
interactions entre molécules de gaz, les forces de Van der Waals (définies par la suite) et/ou tout
simplement la nature polyatomique du gaz vont entraîner l’apparition de composantes rotationnelles
et vibrationnelles en plus du mouvement de translation des molécules de gaz.
La capacité calorifique à volume constant √ va être augmentée pour tenir compte au fur et à
mesure de leur intervention. C’est pour cette raison aussi que la vapeur d’eau a une capacité
calorifique inférieure à celle de l’eau liquide : à l'état gazeux, les molécules d'eau sont plus éloignées
les unes des autres et les interactions intermoléculaires sont moins importantes.
Par exemple, au voisinage de la température ambiante, on doit prendre en compte les termes
ë ë
de translation et de rotation : QÉ = v et á() = ∂. l. .
R R
Les changements de phase sont illustrés par un diagramme de phase. On prendra soin de
distinguer le cas général pour un corps pur quelconque et le cas particulier de l'eau.
Diagramme de phase d'un corps pur. Y figure les courbes de fusion, vaporisation et
sublimation ainsi que les domaines correspondant aux phases solide, liquide et vapeur.
Remarque. – En dessous de t, la pression est suffisamment basse pour que nous passions
directement de la phase solide à la phase gaz sans passer par la phase liquide : cette
transformation s’appelle la sublimation.
Remarque. – La sublimation est un des principes de conservation longue durée des aliments. On
met les aliments congelés dans une enceinte basse pression, on apporte de la chaleur puis la
glace se sublime et la vapeur d’eau est retirée : c’est la lyophilisation (congélation et
dessiccation).
B. Chaleur latente
Pour réaliser un changement de phase il faut échanger une certaine quantité de chaleur,
appelée chaleur latente å. Elle correspond à l'énergie absorbée ou dégagée suivant que l’on va vers
plus ou moins de désordre : si on passe par exemple de l'état liquide à gazeux, on gagne en désordre.
D’une façon plus générale, pour changer la phase d’une masse { de substance donnée il faut lui
fournir la chaleur :
H = å. …
Remarque. – Nous pouvons également définir des chaleurs latentes molaires, dans ce cas ' =
oî9A$œñ‘ . 0 .
Exemple 1. – La chaleur latente de vaporisation de l'eau est oÉ = 2255 l.. lC*? . Quelle
chaleur faut-il fournir à 200C d'eau déjà à température de vaporisation pour que tout se
transforme en vapeur ? Donner ce résultat en calories.
Attention aux unités : { = 200 C = 0,2 lC.
451
'= = 108 lQ</
4,18
Il faudra calculer deux chaleurs : la chaleur nécessaire pour réchauffer tout le glaçon ('? ) et la
chaleur latente de fusion de 100 mg de glace ('R ).
'? = {? . Q—,¿A$–‘ . “ − œ
'R = o“ ×{R
Pression de
vapeur
saturante
Nous retrouvons ici les graphes (P,V) et (P,T) dans le domaine où peut se produire un
changement de phase liquide-vapeur. Pour une température inférieure à la température critique
C, tout point des courbes correspond à un équilibre entre les phases liquide et gazeuse (vapeur).
La pression de vapeur saturante d'une espèce donnée ne dépend que de la température. Elle
est indépendante de la présence d'autres gaz, et évolue dans le même sens que la température (cf.
diagramme (Ü; )).
La pression de vapeur saturante est liée à la tendance des molécules à passer de l'état liquide à
l'état gazeux (facilité d'évaporation). Par exemple, les substances volatiles ont des pressions de
vapeur saturante plus élevées que la pression atmosphérique de sorte qu'elles existent sous forme
gazeuse à la température ambiante.
Il s'agit de la pression maximale atteignable par la phase gazeuse à une température donnée,
au-delà nous aurons condensation en phase liquide.
L'évaporation est quasi-instantanée dans une enceinte contenant du vide : c'est l'ébullition.
Le changement d'état est plus lent sinon.
Un liquide est placé dans une enceinte où l’on a fait le vide. On peut considérer que la phase
liquide est en présence d'une phase gazeuse virtuelle de pression Ü = 0 < ÜÉ$— ¯$Ç . Face au vide, les
mouvements de molécules seront très efficaces. Le liquide s’évapore pratiquement instantanément
avec formation de bulles de gaz dans le liquide : c’est l’ébullition. Ce phénomène se poursuit jusqu'à
Ü = ÜÉ$— ¯$Ç .
Dans la même enceinte, on ajoute initialement, en plus de la phase liquide, de l’air à la pression
atmosphérique. On a toujours pour pression partielle de la phase gazeuse Ü = 0 < ÜÉ$— ¯$Ç , d'où un
changement d'état de liquide à gazeux. Ici cependant, règne dès le début une pression non-nulle
dans la cavité : Ü$Çî . Les mouvements moléculaires de la phase liquide seront moins efficaces que
dans le cas précédent. L’évaporation est beaucoup plus lente. À l'équilibre, d'après la loi de Dalton, la
pression totale dans l'enceinte est maintenant ÜÑ„Ñ = Ü$œñ + Ü¿$U éÉ$—9ñé = Ü$Çî + ÜÉ$— ¯$Ç .
D'après la loi de Dalton, la pression totale sera la somme des pressions partielles des gaz en
présence : l'air et la vapeur d'eau. ÜÑ = Ü$œñ + ÜÉ$—‘)ñ .
L'air se comporte comme un gaz parfait, l'enceinte est de volume constant. On va utiliser la loi
de Charles. Attention à bien exprimer la température en Kelvin.
Ü$œñ RD°Á Ü$œñ ?RD°Á
=
$œñ RD°Á $œñ ?RD°Á
$œñ ?RD°Á 393
Ü$œñ ?RD°Á = Ü$œñ RD°Á × = 1× = 1,34 <S{
$œñ RD°Á 293
Il nous reste à trouver la pression de la vapeur d'eau. S’il y a assez de liquide, suffisamment de
liquide se transformera en gaz pour atteindre l’équilibre à Üɯ .
Ñ Ä ?RD Ä
On a Üɯ = = = 2,07 <S{.
?DD ?DD
Exemple 2. – Imaginons un verre contenant de l'eau laissé ouvert à l'air libre. L'état d'équilibre
entre les phases liquide et vapeur n'est jamais établi : la vapeur formée s'échappe et Üɯ n'est
pas atteint. Si, en plus, on stimule les mouvements d'air, à l'aide d'un ventilateur par exemple,
on retire d'autant plus efficacement la vapeur d'eau formée à l'interface liquide-gaz : on
augmente la vitesse d'évaporation.
Sur le schéma ci-dessus, les flèches représentent les vitesses des molécules de la phase liquide.
Plus les flèches sont longues, plus les vitesses correspondantes sont importantes.
Les molécules qui s'évaporent sont celles qui ont assez d'énergie cinétique pour
échapper à l'attraction des autres molécules du liquide. Les molécules qui restent
ont une vitesse plus faible d'où le refroidissement du liquide lors de l'évaporation.
4. La température d'ébullition
La vitesse d'évaporation augmente avec la température. Quand la température atteint une
certaine valeur, l'évaporation est tellement rapide que le liquide bout : nous avons atteint la
température d'ébullition ‘ . Pour une pression donnée, ‘ est constante.
Par exemple, prenons le système d'une tasse de café chaud dans de l'air à la température
ambiante. Sur la base du premier principe, il y aurait deux évolutions possibles :
§ la tasse se refroidit en donnant de la chaleur à l'air ambiant : c'est ce qui se passe
spontanément.
§ la tasse gagne en chaleur en recevant de la chaleur de l'air ambiant : ce n'est jamais
observé. Il y a donc des règles qui dictent l'évolution de ce système.
A. Énoncé de Clausius
Énoncé de Clausius :
L'exemple du réfrigérateur permet de mieux comprendre. Nous avons trois sources d'énergie :
§ le fluide frigorigène qui circule dans les circuits au dos du réfrigérateur. Il est porté à
une température élevée R . R > ? .
De la chaleur est puisée du milieu froid à l'intérieur du réfrigérateur pour réchauffer le liquide
frigorigène qui est pourtant déjà chaud. Cet échange de chaleur est contrintuitif : on refroidit ce qui
est déjà froid et on réchauffe ce qui est déjà chaud. Naturellement, ce qui est froid serait réchauffé et
ce qui est chaud serait refroidi : la chaleur passerait du fluide frigorigène à l'intérieur du frigo.
Cette évolution contrintuitive est rendue possible avec l'apport d'énergie électrique : c'est ce
qu'explique l'énoncé de Clausius.
B. Énoncé de Kelvin
Énoncé de Kelvin :
Il n'est pas de moteur qui puisse produire du travail à partir d'une seule
source de chaleur.
Une transformation dont le résultat final et unique serait de transformer entièrement en travail
de la chaleur extraite d’un réservoir de chaleur est impossible à réaliser. Il faudra au moins deux
réservoirs de chaleur à des températures différentes pour avoir une chance de transformer en travail
une certaine quantité de chaleur.
Exemple. – Dans Vingt mille lieues sous les mers, Jules Vernes avait imaginé un sous-marin
progressant en récupérant la chaleur de l'eau, laissant derrière lui un sillage de glace. Ce
moteur imaginaire n'a qu'une seule source de chaleur : l'eau. Il ne répond pas à l'énoncé de
Kelvin et est donc irréalisable.
X = 6. EH(Z)
L'entropie peut être interprétée comme la mesure du degré de désordre d'un système au
niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés et
moins il sera aisé de récupérer l'énergie interne du système sous forme d'énergie ordonnée (travail).
Pour un système isolé (qui n'interagit pas avec son environnement), le système évolue
spontanément vers la valeur maximale de Ω : ∆Ω > 0, donc l'entropie augmente : ∆x > 0.
L'entropie est maximale quand l'équilibre est établi.
En conséquence, l'entropie d'un système isolé ne peut que croître ou rester constante.
∆H ∆H
∆X = ∆X >
ç ç
Comme l'entropie est une fonction d'état, elle ne dépend que de l'état initial et de l'état final.
Dans le cas d'un cycle : xœ+œÇœ$A = x“œ+$A , la variation d'entropie est nulle ∆x = 0.
L'entropie d’un système non isolé, c'est-à-dire libre d’interagir avec un autre système, peut
décroître. Nous pourrons cependant toujours définir un système plus vaste dans lequel le désordre,
et donc l'entropie, aura augmenté.
∆[ = ∆M − ç. ∆X
Remarque. – Si ∆ê > 0, la réaction est inversée. Par exemple pour une réaction A→B, cela
veut dire que la réaction inverse B→A se fait spontanément jusqu'à l'équilibre où ∆ê = 0.
B. Potentiel thermodynamique
Un potentiel thermodynamique est une fonction particulière qui atteint un minimum à
l'équilibre thermodynamique du système. L'enthalpie libre est un potentiel thermodynamique.
L'équilibre correspond à un "puits de potentiel".
Une barrière de potentiel, qui correspond à ∆ê > 0 nécessaire avant d'arriver vers la
spontanéité à ∆ê < 0 ralentit fortement l’évolution du système et nécessite l’emploi de catalyseurs
pour accélérer la réaction. Les catalyseurs baissent la barrière de potentiel qui pourra être franchie
par plus de molécules.
(1) (0)
ΔG est la barrière de potentiel restreignant l'accès à ΔG < 0. L'ajout
(2)
d'un catalyseur permet de baisser la barrière de potentiel et de passer à ΔG .
La détermination de K pour une réaction donnée, à une température donnée, passe par celui de
l'enthalpie libre standard notée ∆[’ .
1 √× ^ ·
˝1 (ç) =
È ∆× _ ?
∆[’
ä1 √ × ä^ ·
˝ä (ç) = ä’ I . «* πç =
äÈ ∆ × ä_ ?
§ Avec ø = Q + à − < − =.
§ ÜD désigne une pression de référence. Nous prenons le plus souvent la pression
atmosphérique.
§ ÜÁ , ÜS , Ü* , Üù , désignent les pressions partielles des gaz en présence.
§ On indice le ˚ d'un Ü pour signifier qu'on considère les pressions partielles.
Remarque. – Suivant la stœchiométrie, ces formules pourront mener à des résultats ayant
rigoureusement une dimension, on continue cependant par convention de considérer ˚ comme
adimensionné.
A B X Y
ÉTAT INITIAL 2 2 0 0
ÉTAT FINAL 2−- 2−- - -
a × b @ó
À l'état final : ˚ = = 2; donc =2
* × ù (R*@)ó
2×(2 − -)R − - R = 0
2×(4 − 4- + - R ) − - R = 0
8 − 8- + - R = 0
Nous nous retrouvons avec une équation du second degré avec < = 1, = = 8 et Q = 8.
Les racines sont données par :
−= ± = R − 4<Q
-=
2<
Les solutions sont : -? = 4 − 2 2 ≈ 4 − 2×1,4 ≈ 1,2 {B/. o*?
On ne peut pas obtenir plus de produit que l'on a ne réactif au départ, donc - < 2 {B/. o*? .
La bonne solution est 1,2 {B/. o*? .
La molécule d'eau est plane et possède une géométrie de type coudée. L'angle entre les deux
liaisons OH vaut 104°, et est inférieur à sa valeur théorique de 109° : cela est dû à la présence de
deux doublets libres portés par l'atome d'oxygène.
Structure pseudo-cristalline.
Les liaisons hydrogène que peuvent former les molécules d'eau sont responsables de
nombreuses particularités, à savoir :
§ les températures de fusion et d'ébullition sont anormalement élevées par rapport à
des composés homologues qui ne peuvent former ces liaisons H. Il faut en effet
apporter une quantité d’énergie plus élevée pour briser les liaisons hydrogène (ordre de
grandeur : 20 à 30 l./{B/).
Cette propriété s'applique aussi pour l’ammoniaque NH3 et l’acide fluorhydrique HF.
§ il faut apporter une importante quantité de chaleur pour faire fondre de la glace.
§ la masse volumique de l'eau liquide est plus importante que sa masse volumique sous
forme solide : un glaçon flotte dans un verre d'eau.
3. Moment dipolaire
Un grand nombre des propriétés de l’eau viennent de ses propriétés électriques et de son
moment dipolaire permanent.
L’atome d’oxygène est nettement plus électronégatif que l’hydrogène, les électrons ont
tendance à se retrouver proches de l’oxygène. Il existe un déficit local de charges sur les hydrogènes
notée +ø et un excès de charge sur l’oxygène noté −2ø.
L’attraction due aux propriétés électriques des molécules d’eau va rompre les liaisons ioniques
et/ou polaires de ces composés. Dans l’eau, les forces coulombiennes d’interactions entre deux
ions (cation et anion) sont bien plus faibles que dans le vide ou un autre milieu, donc fragiles.
L’énergie libérée lors de la solvatation est suffisante pour briser la liaison : l’eau dissout les
composés ioniques, c'est un solvant dit « dispersant ».
Une fois les ions dispersés, il s’en suivra un arrangement comparable à la conformation de la
molécule d’eau. Par exemple, pour les ions Na+ et Cl-, chaque ion se retrouve entouré de plusieurs
molécules d’eau (le nombre de molécules d’eau entourant est fonction de la nature de l’ion) : c’est le
phénomène de solvatation ou d’hydratation dans le cas de l’eau.
;. ;′
‡=
G#e. Ύ
e = e’ ×eŒ
MILIEU Valeur de eŒ
Ci-contre, quelques exemples de la valeur
Air fñ ≈ 1
de fñ pour différents milieux.
Verre fñ = 4
La valeur de fñ dans l'eau par rapport aux
Alcool fñ ∈ 20; 40 autres est particulièrement élevée.
Eau fñ = 80
Les forces d'attraction liant les ions des solides ioniques comme le NaCl seront donc 80 fois plus
faibles dans l'eau que dans le vide, il y aura dissolution. La permittivité relative de l'eau explique sa
qualité de solvant dispersant.
B. Interactions en solution
Il existe, en solution aqueuse, des interactions entre les ions dues à la force de Coulomb. Il y a
d'autres interactions entre les molécules non ioniques. Ci-dessous un schéma présentant les
principales interactions en solution aqueuse classées selon l’énergie de l’interaction.
1. Interactions dipolaires
Un dipôle correspond à un ensemble de deux charges opposées en
signe et égales en valeur absolue, séparées par une distance non nulle.
§ les dipôles induits : une molécule apolaire placée dans un champ électrique
provoqué par le voisinage d’un dipôle permanent devient un dipôle induit. Un
exemple est donné par le benzène.
§ les dipôles instantanés : une molécule présentant une répartition des électrons
de valence très dissymétrique pendant un court instant.
Les interactions dipolaires résultent des interactions entre ces trois types de dipôles et sont
responsables de la cohésion des liquides et des solides. Elles sont désignées sous le nom générique
de forces de Van der Waals.
Ces interactions sont à courte distance (0,3 à 0,8 nm) : car les énergies associées sont fonction
?
de , v modélisant la distance entre les deux molécules mises en jeu. Les forces de Van der Waals
†g
vont très vite diminuer si v augmente.
Nous distinguons trois types de forces de Van der Waals à bien connaître :
Pour de très courtes distances (< 0,3 0{ donc avant que les forces de Van der Waals ne soient
significatives), des forces de répulsion s'exercent entre les charges électriques de même signe.
Il existe :
?
Le rapprochement des molécules par les forces d’attraction, globalement en , est limité par
†g
les forces de répulsion qui s’exercent à très courte distance, résultantes des forces répulsives entre
?
les nuages électroniques qui refusent de s’interpénétrer (variation en ).
† úó
Courbe de Lennard-Jones.
"La convention du banquier ", utilisée en thermodynamique, s'applique. Les signes des énergies
sont fixés vis-à-vis de ce que gagne le système formé par les deux molécules :
§ les potentiels de répulsion sont positifs car il faut donner au système de l’énergie pour
vaincre les forces répulsives : zñé—)A¯œ9+ > 0.
§ les potentiels attractifs sont négatifs car le système donne de l’énergie à l’extérieur, à
travers le travail des forces, lors du rapprochement des deux dipôles ou charges :
z$ÇÇñ$–Çœ9+ < 0.
Quand zAœ$œ¯9+ > 0, les termes de répulsions l'emportent sur l'attraction, les molécules se
repoussent jusqu’à une position d'équilibre.
Quand zAœ$œ¯9+ < 0, les termes d'attraction l'emportent, les molécules vont se rapprocher
jusqu'à une position d'équilibre.
La position d'équilibre correspond à ce que nous appelons parfois un puits de potentiel. Il s'agit
de la distance intermoléculaire à‘ pour laquelle l'énergie de liaison est minimale sur la courbe,
maximale quand nous raisonnons en valeur absolue dans le sens d'un effet le plus important.
2. La liaison hydrogène
Les liaisons hydrogène peuvent être :
§ intramoléculaires, mais énergétiquement plus faible. Dans les peptides, cette énergie
de liaison est < 5 l./{B/.
Les interactions hydrogène entre Les interactions hydrogène entre Les liaisons hydrogène sont
les molécules d’eau et le les molécules d’eau et l’atome essentielles en biologie. Elles
groupement hydroxyle de l’alcool d’azote expliquent la solubilité de sont à l’origine de la duplication
expliquent la solubilité dans l'eau l’ammoniaque dans l’eau. de la molécule d’ADN.
du méthanol.
Le méthane, incapable de former
de telles liaisons, y est insoluble.
3. Interactions ioniques
Deux ions de charge µ? et µR séparés d'une distance à dans un milieu de permittivité électrique
f interagissent entre eux via les forces de Coulomb de norme :
µ? . µR
_=
4[f. à R
L'énergie potentielle dérivant de la force de Coulomb
est :
µ? . µR
zœœ =
4[f. à
L'énergie potentielle mise en jeu est également plus importante : "’ à »’’ 68/…FE.
Dans une solution, nous devons considérer des forces de trois types :
Si les forces de liaison eau-soluté sont plus fortes que les forces de liaisons soluté-soluté et eau-
eau, le corps sera soluble. Les variations d'énergie de liaison lors de sa dissolution se traduiront par
une chaleur molaire de dissolution.
Lorsque des groupements non-polaires se trouvent en présence d'un milieu polaire, ils ont
tendance :
§ à s’associer entre eux selon des interactions de type Van Der Waals (forces de London),
§ à minimiser leur surface de contact avec l’eau avec laquelle ils n'ont aucune affinité.
La résultante de ces deux effets porte le nom d’interactions hydrophobes. Ce type d'interaction
joue un rôle très important dans les processus de reconnaissance des molécules.
Nous définissons un coefficient de partage octanol / eau ˚„è qui nous permet de calculer un
indice d’hydrophobie :
1F√ƒ∆HFE
Coefficient de partage : ˝flí =
1«∆⁄
II. Électrolytes
A. Activité d'un composé en solution
1. Définition
Une solution idéale est une solution hypothétique dans laquelle il n'y a pas d'interactions entre
les molécules (semblable au modèle du gaz parfait). L'activité est une grandeur qui donne une
indication de la différence de comportement d'un soluté entre une solution réelle et une solution
idéale.
∆ = N. j
§ ¶ est le coefficient d'activité, il est défini par le rapport entre les fractions molaires des
solutions réelle et idéale.
Dans des solutions diluées, la distance entre les molécules est suffisamment
importante pour négliger les interactions, dans ce cas : N → ».
2. Potentiel chimique
La plupart des grandeurs chimiques sont définies en fonction de l'activité, comme le potentiel
chimique :
L'activité d'une phase gazeuse est le rapport de L'activité d'une phase aqueuse est le rapport de
sa pression partielle sur la pression de l'état sa concentration sur une concentration de
∫ ÁF
standard : <œ = F . référence : <œ = .
∫Ì ÁÌ
3. Solutions idéales
Dans une solution idéale, les propriétés des corps purs sont conservées. Si nous mélangeons
deux liquides purs miscibles, le volume total de la solution est la somme des volumes des deux
liquides mélangés. Dans le cas de l'eau et de l'éthanol :
¯9A)Çœ9+ œÅé$A‘
nÑ„Ñ = n‘$) + néÇm$+9A
La formation d’une solution quelconque n’obéit pas nécessairement à cette règle : la solution
s’écarte d’autant plus du modèle de solution idéale que le volume résultant s’écarte de la somme des
deux liquides constituant le mélange.
Remarque. – Le mélange eau-éthanol se classe parmi ces derniers. Le volume du mélange d’une
mole d’eau (18 cm3 à l’état pur) avec une mole d’éthanol (58 cm3 à l’état pur) produit un
mélange dont le volume n’est que de 74,4 cm3, soit un déficit de près de 1,6 cm3.
Dans les cas de grande dilution, l’addition d’une mole d’eau à une très grande quantité d’éthanol
n’augmente le volume de la solution que de 14 cm3 et l’addition d’une mole d’éthanol à une très
grande quantité d’eau n’ajoute qu’un peu plus de 53 cm3. Cette variation du volume molaire avec
l’état de dilution est une propriété caractéristique de chaque mélange et de chaque composition
quantitative.
»
À= . √‹ n ‹ é
é
‹
1
^= × 0,2×1 + 0,1×(−2)R
2
1
^= × 0,2 + 0,4
2
^ = 0,3 {B//o
B. Électrolytes en biologie
Exemple. – Un exemple d'électrolyte du milieu biologique est donné par le sel constituant le sérum
physiologique. Il s'agit d'une solution de chlorure de sodium (Na+; Cl-) à 9 g.L-1 (ou 150 mmol/L) .
rs r( s*
Initialement ` 0 0
À l'équilibre ` − `. u `. u `. u
A t . *ö
Appliquons la loi d'action de masse à l'équilibre : ˚‘< = .
A*
`. u R `. u R
˚‘< = =
`. (1 − u) (1 − u)
Á.Ö ó
La rapport doit rester constant. Cela nous permet de déduire que :
(?*Ö)
Un électrolyte faible est un équilibre entre la liaison covalente et la liaison ionique. Les ions sont
d’autant plus éloignés les uns des autres que la solution est plus diluée. En conséquence, la liaison
covalente qui nécessite le rapprochement des deux ions deviendra de moins en moins probable et
donc la molécule sera d’autant plus dissociée que la dilution sera grande.
3. Hydrolyse
La dissolution dans l’eau d’un composé se fait en plusieurs étapes :
§ Hydratation : les ions dispersés s’entourent d’un nombre variable de molécules d’eau.
C’est le phénomène de solvatation (ou hydratation dans le cas de l’eau).
Remarque. – La notation sous Al(OH)3 signale que c'est un solide qui va précipiter au fond du
récipient. Il reste sous forme solide et n'est pas hydrolysé du fait de sa très faible solubilité.
4. Solubilité
Nous avons vu qu’un électrolyte faible se dissociait peu en solution. C’est le cas de l’hydroxyde
d’aluminium que nous venons de voir par exemple.
La notion de solubilité est donc importante : comment peut-on quantifier cette dissociation dans
le cas des précipités ? Un précipité est-il totalement insoluble ?
Solubilité (≈) : quantité maximale de soluté que nous pouvons dissoudre dans »å de solvant.
Nous pouvons écrire, pour un précipité, un équilibre de précipitation. Cet équilibre traduit sa
dissociation partielle en les ions qui le constituent : P@ T: ↔ -. P :( + Ó. T @* .
Pathologie Ù Lithiase urinaire. – Lorsqu'une molécule qui précipite est en quantité supérieure à sa
solubilité dans les urines, elle va précipiter et former des cristaux : c'est un état de sursaturation.
Les sujets lithiasiques (c'est-à-dire qui ont tendance à avoir des calculs dans les voies urinaires)
sont dans un état de sursaturation multiple. Chez un sujet normal, nous ne retrouvons une
saturation qu'en oxalate de calcium, mais chez le sujet lithiasique, nous retrouvons souvent des
cristaux d'oxalate de calcium associés à des cristaux de phosphate de calcium dans les premières
urines du matin.
§ de sa taille (nous parlons d'encombrement) : plus l’ion est petit, plus il va y avoir de
molécules d’eau pour s’en approcher.
Les ions attirent l'extrémité des dipôles de signe opposé au leur, cette attraction diminue
lorsque la taille de l'ion augmente.
Cela a une conséquence importante sur la mobilité des ions en solution (par exemple sous
l’effet d’un gradient de champ électrique) car l’ion se déplace avec son cortège de molécules d’eau.
Lors de la dissolution d'un cristal, la rupture des liaisons libère de l'énergie sous forme de
chaleur disponible pour les ions : on parle de chaleur de dissolution (grandeur usuellement molaire).
La dissolution d'un cristal est une réaction endothermique : ∆£ > 0. Les ions du cristal gagnent
de la chaleur qu'ils prélèvent à la solution qui se refroidit.
C. Dissolution de l'eau
Cela peut paraître surprenant, mais dans une solution aqueuse, l'eau (le solvant) se dissout.
Cette dissolution est régie par l'équilibre : £R B ↔ £ ( + B£ * .
£ ( × B£ *
˚Rˆ> ˛ = = 1,8×10*?h
£R B
˝« = M( × flM* = »’*»G
¬˝« = −EFG(˝« ) = »G
Alors :
£ ( × B£ * 10*?Ä
£R B = = = 55,56 {B//o
˚Rˆ> ˛ 1,8×10*?h
L’excès d’ions hydroxyles OH- ou hydroniums H3O+ définit la basicité ou l’acidité d'une solution.
Remarque. – Un acide fort se dissocie totalement en solution aqueuse, alors qu'un acide faible ne
s'y dissocie pas totalement. P£ + £R B ↔ P_ + £â B ( .
Une base forte réagit totalement avec l'eau, alors qu'une base faible ne réagit que partiellement.
P* + £R B ↔ P£ + B£ * .
Le .£ est un outil qui caractérise le caractère acide ou basique d'une solution. Il est égal à
« moins » logarithme de l'activité des ions hydroxyles, soit en pratique :
¬M = −EFG M/ fl(
Acides Bases
Nous lui associons une constante d'acidité ˚* À cette base de forme P* est associé un acide
et nous notons .˚* = −/BC˚* . P£, de constante d'acidité ˚* .
˚* est la constante d'équilibre associée à sa Nous distinguons les bases fortes des faibles :
dissociation :
base forte : ¬M = »G + EFG1_
P£ + £R B = £â B ( + P*
base faible :
£â B ( . P*
˚* = »
P£ ¬M = 2 + (¬˝È + EFG1_ )
é
»
acide faible : ¬M = ¬˝È − EFG1È
é
E. Propriétés colligatives
Les propriétés colligatives des solutions sont des propriétés ne dépendant que du nombre de
particules de soluté présentes et pas de leur nature. Elles rendent compte du fait qu’un solvant pur
n'a pas les mêmes propriétés qu'un solvant contenant un soluté non volatil indépendamment de la
nature de ce soluté.
Illustration de la loi de Raoult : en présence d'un soluté non-volatil (à gauche) moins de particules de solvant parviennent à
la phase vapeur. Cela peut se comprendre en imaginant que les particules de soluté vont gêner les mouvements des
particules de solvant qui parviendront moins à s'échapper.
La pression de vapeur d'une solution idéale est dépendante de la pression partielle de chaque
constituant et de leurs fractions molaires respectives.
Une solution liquide idéale obéit à la loi de Raoult si chaque constituant de la solution vérifie les
deux relations équivalentes suivantes :
Üœ = ÜÉ ¯$Ç œ ×Â
Remarque. – La loi de Raoult explique que les lacs salés (le NaCl constituant un soluté non-
volatil) sont moins vite asséchés que les lacs d'eau douce. Le sel gène la vaporisation des
molécules d'eau.
L'ébulliométrie permet de calculer la molalité d'un soluté dans une solution en fonction de
l'augmentation de sa température d'ébullition.
§ Pour un non-électrolyte, ‹ = » ;
…FE ·« ≈FE⁄ƒé
∆ç!⁄≈ = ˝!⁄≈ . ‹.
6G ·« ≈FE ∆Hƒ
4. Schéma bilan
L'ensemble des informations dites précédemment sur le comportement d'une solution composée
d'un soluté non-volatil est contenu dans le graphe Pression-Température suivant.
5. L'osmose
Le phénomène d’osmose est une propriété colligative : il dépend du nombre de molécules de
soluté dans la solution. Le phénomène d'osmose est conditionné par la perméabilité des membranes
biologiques.
L'osmose est un phénomène de diffusion de la matière mis en évidence lorsque des molécules de
solvant traversent une membrane semi-perméable (c'est-à-dire laissant passer de petites
particules comme les ions) séparant deux solutions dont les concentrations en soluté sont
différentes.
Le transfert de solvant se fait alors de la solution la moins concentrée (milieu hypotonique) vers
la solution la plus concentrée (milieu hypertonique) jusqu'à l'équilibre (milieux isotoniques).
L'osmose sera étudiée en détail au second semestre.
Partie 3
BASES PHYSIQUES DE
L'ÉLECTROPHYSIOLOGIE
Électrostatique
Rédigé à partir du cours du Pr Pailler-Mattei
Remarque. – L’interaction électromagnétique est l’une des interactions fondamentales, elle est à
l’origine de l’excitabilité et de la conduction du courant.
2. Conducteurs et isolants
On peut classer les matériaux selon la capacité qu’ils ont de permettre le passage des charges
électriques.
I. Matériaux conducteurs : ce sont des matériaux possédant, à l’échelle microscopique,
des porteurs de charges mobiles (électrons libres → électrons périphériques)
susceptibles de se déplacer dans le volume du matériau (sous l’effet d’un champ
électrique). Pour les métaux, la densité d’électrons libres est de l’ordre ∿ 1027 m-3 (gaz
d’électrons).
II. Matériaux isolants : un isolant, aussi appelé matériau diélectrique, est un matériau
dont les électrons périphériques sont liés aux noyaux, ce qui rend leur déplacement
extrêmement difficile. La densité d’électrons libres dans un isolant est quasi nulle.
La charge électrique est notée q, ou parfois Q. Son unité est le coulomb (C) et sa dimension est :
H = ç. À
§ Elle peut exister sous deux formes qualifiées de positive ou négative. Le fait d’attribuer
un signe + ou un signe - à une charge est une pure convention (mais important de s’y
conformer). Le choix de l’électron comme porteur d’une charge négative est donc une
convention. Une charge sera alors :
§ positive si elle est attirée par un électron,
§ négative si elle est repoussée par un électron.
§ la quantification ;
Dans l’approximation des charges ponctuelles, une répartition de charges électriques pourra
être modélisée par une distribution de charges ponctuelles, c’est-à-dire par un ensemble de points
caractérisés par leur position p{ , chaque point étant associé à une charge la charge qi. Nous parlerons
alors de distribution discrète (ou discontinue) de charges électriques (qi,p| ).
La densité volumique de charges est, dans le cas général, une fonction du point P. Si elle est
indépendante de P, on dit alors qu’elle est uniforme.
La charge totale contenue dans un volume V s’obtient en sommant l’ensemble des charges des
volumes élémentaires, telle que :
;= Ä·∏
∏
C’est une intégrale triple : on prend en compte les 3 dimensions de l’espace, c’est un volume.
Exemple. – On assimile un proton à une sphère de rayon r=1.10-15m (1 fermi), portant la charge
totale e =1,602.10-19C uniformément répartie dans tout son volume.
Ä
q= }àn = } àn = }×n = } [p â = #
â
‘
La densité volumique de charges du proton est donc : } = G = 4 ∗ 10Rë `. { *â
#Œ/
/
G
Remarque. – Le volume d’une sphère ∏≈¬”茫 = #Œ/ est à connaître.
/
;= Ñ·X
X
;= Ö·E
1
C. Interaction Coulombienne
1. La loi de Coulomb
Coulomb a établi l’expression de la force d’interaction entre deux charges électriques ponctuelles
immobiles (Loi de Coulomb) en 1785.
;È ;_ »
‡È→_ = ∗ ⁄
G#e’ Œ² È_
Remarque 1. – La permittivité électrique absolue d’un milieu est notée ε et s’exprime en F.m-1
(Farad par mètre). Elle représente en quelque sorte, dans un milieu donné, le degré de sensibilité
du matériel au champ électrique dans lequel il est plongé. On définit la permittivité électrique
relative εr d’un milieu par rapport à la constante électrique ε0 (aussi appelée permittivité
diélectrique du vide) :
εr = ε / ε0
εr est une grandeur sans dimension qui est caractéristique du milieu. Pour l’air εr≈ 1, donc :
ε(air) ≈ε0, l’électrostatique étudié dans l’air est donc très proche de celui étudié dans le vide.
?
Remarque 2. ε0 = 8,854188.10-12 F.m-1 mais en pratique, nous ferons l’approximation =
ÄkàÌ
9. 10ˆ F -1 .m .
2. Caractéristiques et propriétés
§ Caractéristiques
La loi de Coulomb est :
§ Propriétés
Le principe des actions réciproques :
La force d’interaction exercée par la charge qA, située en A, sur la charge qB, située en B, notée
‡È→_ , est l’opposée de la force d’interaction exercée par la charge qB, située en B, sur la charge qA,
située en A, notée ‡_→È , tel que :
‡È→_ = −‡_→È
H H
» ;’ ;‹
‡= ‡ãå →ã’ = ∗ ⁄
G#ç’ Œ‹ ² å’
‹ ‹
D. Champ électrostatique
1. Champ électrostatique créé par une charge ponctuelle : définition
Nous venons de voir qu’une charge ponctuelle qA, placée en un point A de l’espace, exerçait sur
toute charge qB, placée en un point B quelconque (différent de A), une force ‡È→_ .
L’expression du champ électrostatique, noté z ù créé en un point B par la charge qA située en A est :
é »
¡ _ = ∗ ⁄È_ indépendant de qB
Gèç’ Œ²
Plus généralement, l’expression du champ électrostatique créé par une charge q en un point M
quelconque de l’espace (le point M est différent du point où se trouve la charge q), avec r la distance
entre le point où se trouve la charge q et le point M, est donnée par :
é »
¡ã = ∗ ∗ ⁄ avec ⁄ vecteur unitaire orienté de q vers
Gèç’ Œé
M (par convention).
On en déduit donc que le vecteur champ électrostatique total z au point M0 est la somme
vectorielle des vecteurs champs électrostatiques produits par chaque charge qi située en différents
points Mi → Principe de superposition.
Soit une distribution discrète (ou discontinue) de charges ponctuelles qi, situées en différents
points Mi de l’espace. Le principe de superposition permet d’écrire que le champ électrostatique créé
en un point M de l’espace (avec M différent de tous les Mi) par cette distribution est tel que :
H ;‹ »
¡(ã) = ¡ãå →ã = ‹q» G#e ∗ ⁄ãå ã avec ri distance entre Mi et M.
’ Œ‹ ²
Indiquer l’allure du champ électrostatique résultant au point M, ¡(ã) , créé par cette
distribution de deux charges discontinues.
Considérons une répartition continue de charges à l’intérieur d’un volume V. La répartition est
caractérisée en chaque point P du volume V par une densité volumique de charges (précédemment
définie) ρ(P) (en C.m-3) telle que :
·;
Ä(ä) =
·∏
où dq désigne la charge électrique contenue dans l’élément de volume dV entourant le point P.
Dans le cas où la densité volumique de charges est constante dans V, on dit que la répartition
des charges est uniforme.
» ·; » Ä. ·∏
·¡ã = . é⁄= . ⁄
G#e’ Œ G#e’ Œé
» Ä. ·∏ » Ä. ·∏
¡ã = . é ⁄= ⁄
G#e’ Œ G#e’ Œé
∏ ∏
·;
Ñ= ·X
où dq désigne la charge électrique contenue sur l’élément
de surface dS entourant le point P.
» ·; » Ö. ·X
·¡ã = . é⁄= . ⁄
G#e’ Œ G#e’ Œé
» Ñ. ·X
¡ã = . .⁄
G#e’ Œé
X
·;
Ö= ·E
On peut alors définir le champ électrostatique élémentaire créé par dq
sur une distance dl :
» ·; » Ö. ·E
·¡ã = . é⁄= . ⁄
G#e’ Œ G#e’ Œé
où dq désigne la charge électrique contenue sur l’élément de longueur
dl entourant le point P.
» Ö. ·E
¡ã = . ⁄
G#e’ Œé
1
Il faut donc résoudre ce système d’équations différentielles pour obtenir l’allure des lignes de
champ (résolution numérique généralement).
§ Tube de champ
L’ensemble des lignes de champ s’appuyant sur une courbe fermée (ou contour) C engendre
une surface S appelée tube de champ.
§ Principe de Curie
« Lorsque certaines causes produisent certains effets, les éléments de symétrie des causes
doivent se retrouver dans les effets produits. »
Le principe de Curie est un principe général en physique. Ici, nous pourrions le traduire par: les
éléments de symétrie des distributions de charges (les causes) se retrouvent dans le champ
électrostatique créé (les effets).
§ Symétrie plane
Soit une distribution de charges symétriques par rapport à un plan ∏ (une distribution de
charges symétriques par rapport au plan ∏ implique que : ρ(P) =ρ(P)'). Soit P’ le point symétrique de P
par rapport à ∏ et M’ le symétrique de M par rapport à ∏.
Le champ élémentaire àz∫(ò) créé en M par l’élément de volume dV autour du point P est le
symétrique par rapport à ∏ du champ élémentaire àz∫ï(òï) créé en M’ par le volume élémentaire
dV autour du point P’ ; de même le champ élémentaire àz∫(òï) créé en M’ par le volume
élémentaire dV autour de P est le symétrique par rapport à ∏ du champ élémentaire àz∫ï(ò) créé
en M par le volume élémentaire dV autour de P’.
Remarque. – Dans le cas d’un point M appartenant au plan ∏, alors M’=M donc
zò est son propre symétrique et zò appartient donc au plan ∏.
§ Antisymétrie plane
Soit une distribution de charges antisymétriques par rapport à un plan ∏* (une distribution de
charges symétriques par rapport au plan ∏ implique que : ρ(P) =−ρ(P')). Soit P’ le point symétrique de P
par rapport à ∏* et M’ le symétrique de M par rapport à ∏*.
Le champ élémentaire àz∫(ò) créé en M par l’élément de volume dV autour du point P est
l’opposé du symétrique par rapport à ∏* du champ élémentaire àz∫(ò) créé en M’ par le volume
élémentaire dV autour de P’, de même le champ élémentaire àz∫(òï) créé en M’ par le volume
élémentaire dV autour de P est l’opposé du symétrique par rapport à ∏* du champ élémentaire
àz∫ï(ò) créé en M par le volume élémentaire dV autour de P’.
Donc àz∫(ò) + àz∫ï(ò) est l’opposé du symétrique par rapport à ∏* de àz∫(òï) + àz∫ï(òï)
Remarque. – Dans le cas d’un point M appartenant au plan ∏*, alors M’=M donc z(ò) est égal à
l’opposé de son symétrique et z(ò) est donc orthogonal au plan ∏*.
Si la distribution de charges est invariante par translation, c’est-à-dire qu’un observateur voit la
même distribution en M’ (translaté de M) et en M, alors le champ électrostatique en M’ et M est
identique.
Si la distribution de charges est invariante par rotation autour d’un axe ∆ (ou un point O), alors le
champ électrostatique ne dépend pas de l’angle de rotation.
ñ ñ
De plus, on note que : cos u = → ï =
U –9¯Ö
? Í
On a alors àz = ∗ àu÷∫ò
ÄkàÌ ñ
1 e
z= àz = ∗ àu÷∫ò
ô ô 4[fD p
Le vecteur champ élémentaire àz dépend du vecteur unitaire ÷∫ò , il est alors nécessaire
d’exprimer àz dans une « base fixe » pour déterminer le champ total z (sommation vectorielle dans
la même base de projection).
On a alors :
1 e
z= àz = ∗ àu cos u ÷ñ − sin u ÷ü
ô ô 4[fD p
La projection des champs élémentaires àz créée par les éléments de longueur dl symétriques
dans la base (M,÷ñ , ÷ü ), montre que les composantes du champ électrostatique suivant ÷ü vont
s’annuler deux à deux. Seules les composantes suivant ÷ñ vont s’ajouter. Le champ électrostatique
total z aura donc une seule composante suivant ֖ .
k k
On intègre de − à , car le fil est infini, on prend en compte tous les angles possibles.
R R
Í
Donc : z = ֖ .
RkàÌ ñ
E. Potentiel électrostatique
Après avoir associé à chaque point de l’espace une grandeur vectorielle, le champ
électrostatique, nous allons maintenant montrer que l’on peut aussi caractériser chaque point de
l’espace par une grandeur scalaire que nous appellerons « potentiel électrostatique ».
§ Définition
Remarque. – Quand A = B, le chemin (ou trajet) est dit fermé, il est noté Ω, la circulation est alors
notée : ` = ü
¡. ·E. On utilise une intégrale fermée car c’est un trajet fermé.
Le champ électrostatique z créé par une charge ponctuelle q, placée en O (origine), s’écrit au
point M situé à la distance r de la charge q :
? <
z= ∗ ÷ñ (Coordonnées sphériques)
ÄkàÌ ñó
La circulation du champ électrostatique entre les points A et B (avec OA=rA et OB=rB) s’écrit alors :
ù ù
µ 1 µ 1 1
` = z. à/ = à − = ( − )
* * 4[fD p 4[f„ p* pù
Ceci est équivalent à dire que la circulation du champ électrostatique le long d’un trajet fermé Ω
est nulle, soit :
` = ¡. ·E = 0
ü
Remarques. – Ce résultat se généralise au cas d’un champ créé par une distribution continue de
charges.
– Une conséquence importante de cette propriété est qu’une ligne de champ électrostatique ne
peut pas avoir la forme d’une boucle fermée sur elle-même. En effet, la circulation du champ
électrostatique sur cette boucle, orientée par le champ, ne pourrait être que positive, or ceci
serait en contradiction avec le fait que la circulation de z le long d’un trajet fermé est nulle.
2. Potentiel électrostatique
§ Définition
ù
L’intégrale ` = *
z. à/ étant indépendante du chemin suivi, on peut introduire une fonction
scalaire (ou champ scalaire) associé au champ z, appelé potentiel électrostatique, noté V ( de
dimension ML²T-3I-1, d’unité le V - Volt) telle que :
ù
`= z. à/ = n* − nù
*
dC = z. à/ = −àn → àn = −z. à/
Soit une charge ponctuelle q placée en O (origine). Cette charge crée au point M (à la distance r
de O) un champ électrostatique tel que :
? <
z= ∗ ÷ñ (Coordonnées sphériques)
ÄkàÌ ñ ñó
< ?
Que l’on peut encore écrire : à` = −à( ∗ + QB0NS<0S#)
ÄkàÌ ñ
Ainsi, la circulation élémentaire du champ électrostatique d’une charge ponctuelle est une
différentielle de la fonction :
1 µ
n p = ∗ + QB0NS<0S#
4[fD p
La fonction V(r) s’appelle potentiel électrostatique (ou plus simplement potentiel) de la charge
ponctuelle q au point M. Le potentiel électrostatique est défini à une constante additive près.
Par convention, on choisit un potentiel nul à l’infini : V(r→∞)=0, ce qui conduit à constante=0.
Dans ce cas le potentiel électrostatique pour une charge ponctuelle est alors :
» ;
∏ Œ = ∗
G#e’ Œ
Soient N charges ponctuelles q1, q2, …, qN, placées aux point P1, P2, …, PN, alors le potentiel
électrostatique créé en un point M quelconque est :
°
1 µœ
n ~ = + QB0NS<0S# <r#Q pœ = Üœ ~
4[fD pœ
œq?
Soit une distribution volumique de charges caractérisée par sa densité volumique de charges au
point P, ρ telle que : ρ=dq/dV, alors le potentiel électrostatique créé en un point M quelconque est
donné par :
1 }àn
n p = <r#Q p = Ü~
4[fD ª p
Soit une distribution surfacique de charges caractérisée par sa densité surfacique de charges au
point P, σ telle que : σ= dq/dS, alors le potentiel électrostatique créé en un point M quelconque est
donné par :
1 Åàx
n p = <r#Q p = Ü~
4[fD Ω p
Soit une distribution linéique de charges caractérisée par sa densité linéique de charges au point
P, λ, telle que : λ= dq/dl, alors le potentiel électrostatique créé en un point M quelconque est donné
par :
1 eà/
n p = <r#Q p = Ü~
4[fD ô p
Le gradient est un « opérateur » qui s’applique sur une grandeur scalaire et qui la «transforme»
en une grandeur vectorielle. Soit f une fonction scalaire des coordonnées de l’espace x, y, z
(coordonnées cartésiennes), on appelle gradient de f, noté GŒ∆· ! le champ vectoriel dont les
coordonnées cartésiennes sont les dérivées partielles de f par rapport aux variables d’espace x, y, z,
tel que :
°! °! °!
GŒ∆· ! = å+ ¢+ 6
°‚ °Ë °£
Remarque. – Le gradient est une grandeur vectorielle qui indique de quelle façon une grandeur
physique varie dans l'espace. Le gradient indique donc la pente locale de la fonction f, le vecteur
obtenu étant dirigé le long de la plus grande pente au champ f (dirigé suivant la direction de
variation la plus rapide de f, dans le sens des valeurs croissantes de f).
D’après ce qui a été énoncé précédemment, le potentiel électrostatique peut être vu comme
une fonction des coordonnées de l’espace. En coordonnées cartésiennes on a donc : V = V(x,y,z)
¡ = −GŒ∆· ∏
Donc : z. à/ = 0 → z ⊥ à/
Les lignes de champ sont donc des droites passant par O et par M. Le
potentiel électrostatique au point M est donné par (à une constante
? <
près) : nò = ∗
ÄkàÌ ñ
Une équipotentielle correspond à V =cste, donc les équations des équipotentielles sont : r=cste.
Les équipotentielles sont donc des sphères centrées en O et de rayon r.
Le potentiel électrostatique :
§ est défini à une constante près (par son mode de calcul par
intégration),
§ est noté V,
On appelle énergie potentielle électrostatique, notée Ep(M), d’une charge ponctuelle q, placée en
M, soumis au potentiel V(M) la quantité :
¡ä(ã) = ; . ∏(ã)
Rappel. – L’énergie potentielle électrostatique est définie à une constante additive près. Son
unité est le Joule, noté J.
Cette expression peut s’écrire de manière symétrique en considérant que la charge q1 est
soumise au potentiel V2 créé par la charge q2, soit :
1 µ? µR 1 1 µ? µR 1 µ? µR
z∫ òú = µ? nR = ∗ = ∗ + ∗
4[fD pR? 2 4[fD p?R 4[fD pR?
»
¡ä = (;» ∏é + ;é ∏» )
é
Remarque. – La sommation se fait sur tous les couples (i,j) avec i≠j. Le facteur 1/2 corrige donc le
fait que l’on compte alors deux fois l’interaction de chaque couple de charges.
»
¡ä = ·;∏(ã)
é
Avec :
Exemple. – Soit Q une charge uniformément répartie à la surface d’une sphère de rayon R. Le
potentiel en tout point de la sphère est :
1 '
n‘ = ∗
4[f„ v
? ? ? &ó
L’énergie électrostatique est alors : z∫ = ⍴n‘ àn = ⍴n‘ àn = ⍴n‘ n =
R R R >kàÌ †
N.B. : ⍴n = '
B. Moment dipolaire
Le vecteur moment dipolaire permet de caractériser le dipôle électrostatique :
¬ = ;. Îä
µ 1 1 µ 1 1
nò = − = −
4[fD ~Ü ~∂ 4[fD ~Ü ~∂
~Ü = ~B + BÜ
R R
~Ü R = ~B + BÜ = BÜ − B~
R R R
~Ü = BÜ + B~ − 2BÜ. B~
~Ü R = BÜ R + B~ R − 2×BÜ×B~×QBN BÜ, B~
*? R
1 1 <QBNt <R
= 1− + R
~Ü p p 4p
(1 + -)$ = 1 + <-
$–9¯ü $ó $
Comme p ≫ <, on a : − + ≪ 1. On utilise un développement limité au premier ordre en :
ñ Äñ ó ñ
*? R
1 1 <QBNt <R 1 1 <QBNt 1 < R
= 1− + R ≈ 1+ −
~Ü p p 4p p 2 p 2 4p R
1 1 1 <QBNt 1 < R
≈ 1− −
~∂ p 2 p 2 4p R
» ¬. ⁄Œ » ¬. flã » ¬. Œ
∏ã = . é = . /
= .
G#e’ Œ G#e’ Œ G#e’ Œ/
§ La valeur de potentiel est maximale sur la direction (NP)/l’axe (Oz), et minimale sur la
médiatrice de NP passant par O.
§ La décroissance du potentiel dans le cas d’un dipôle électrostatique est beaucoup plus
rapide que dans le cas d’une charge ponctuelle (en 1 R au lieu de 1 p ), ce qui traduit
p
« une certaine compensation des charges ».
§ L’expression du potentiel dépend du moment dipolaire et de la distance flã et ne
dépend pas du système de coordonnées choisi.
R— ´¨≠ (ü) ?
§ composante radiale de zò : zñ = .
ÄkàÌ ñ®
— ≠ÆØ (ü) ?
§ composante tangentielle de zò : zü = .
ÄkàÌ ñ®
§ La décroissance du champ dans le cas d’un dipôle électrostatique est beaucoup plus
rapide que dans le cas d’une charge ponctuelle (en 1 â au lieu de 1 R ), ce qui traduit
p p
en quelque sorte « une certaine compensation des charges ».
§ Comme pour le potentiel, l’expression du champ dépend du moment dipolaire. Le
moment dipolaire est la grandeur caractéristique du dipôle.
Il est toujours possible de déterminer l’expression du champ électrostatique créé par un dipôle
par la méthode des sommations vectorielles, mais c’est une méthode délicate à utiliser.
L’approximation dipolaire n’est plus valable lorsque p → < (on est trop près du dipôle). En
revanche, lorsque le potentiel est évalué loin du dipôle, les équipotentielles du doublet de charges et
celles du dipôle électrostatique convergent.
2. Lignes de champ
Même remarque que pour le potentiel, à savoir que l’approximation dipolaire n’est plus valable
lorsque p → < (trop près du dipôle) dans le cas des lignes de champ. En revanche, lorsque le champ
est évalué loin du dipôle, les lignes de champ du doublet de charges et celles du dipôle convergent.
1. passent par les charges, elles sont orientées des charges positives
vers les charges négatives.
2. sont orientées dans le sens des potentiels décroissants.
3. sont perpendiculaires aux équipotientielles.
é¬ »
§ θ = 0 => zü = 0 ¡Œ =
G#e’ Œ/
Les lignes de champ sont orientées uniquement selon la composante
radiale, de manière parallèle au dipôle.
Γ(„) = BÜ ∧ _ ∫ + B∂ ∧ _ ° = BÜ ∧ µz ∫ − B∂ ∧ µz °
Γ(„) = µ BÜ − B∂ ∧ z
Γ(„) = µ∂Ü ∧ z
Le moment des actions subies par un dipôle dans un champ électrostatique uniforme s’écrit :
±(fl) = ¬ ∧ ¡
Remarque - Le moment de actions exercées par le champ extérieur sur le dipôle est indépendant
du point où il est calculé. On parle alors de moment d’un couple de forces ou plus simplement
moment d’un couple.
Γ(„) = . ∧ z = .. z. NO0t l
À l’équilibre, le moment total des forces exercées sur le dipôle est nul. Si on projette sur l’axe de l :
.. z. NO0t = 0
Un champ électrostatique uniforme tend à orienter les dipôles suivant les lignes de champ :
Les forces sur les charges tendent à ramener le Les forces sur les charges tendent à éloigner le
dipôle dans sa position d’équilibre, donc la dipôle de sa position d’équilibre, donc la
position › = ’ est stable. position › = # est instable.
Þ . et z ont même sens. Þ . et z sont de sens opposé.
àn = −z. à/
° °
n(∫) − n ° = − z. à/ = −z à/
∫ ∫
n(∫) − n ° = −z. ∂Ü
Il vient donc :
L’énergie potentielle d’un dipôle électrostatique dans un champ extérieur uniforme est :
¡¬ = −¬. ¡
Avec . = µ∂Ü.
On peut, à partir de l’énergie potentielle, retrouver les résultats relatifs à l’équilibre d’un dipôle
dans un champ électrostatique extérieur et à sa stabilité.
En s’associant pour former des molécules, ils mettent en commun un certain nombre
d’électrons pour former des liaisons. La molécule ainsi formée est elle aussi électriquement neutre,
mais selon sa symétrie, le moment dipolaire résultant est nul ou non. Ainsi, les molécules n’ayant pas
de centre de symétrie électrique possèdent un moment dipolaire permanent. Dans ce cas, le
barycentre des charges négatives et celui des charges positives ne coincident pas (ne sont pas
confondus). Ce type de molécule est appelée moléculaire polaire (ou hydrophile).
Un champ électrique extérieur va forcer l’alignement des molécules polaire suivant la direction
du champ. L’alignement devrait être parfait à l’équilibre en l’absence d’élément perturbateur.
Cependant, le degré d’agitation moléculaire, les interactions moléculaires et les collisions
moléculaires viennent en permanence détruire cet équilibre (ou empêcher qu’il se crée).
Si le champ électrique extérieur n’est pas trop intense, on admet en première approximation
que le moment dipolaire induit est proportionnel au champ appliqué z tel que :
¬ = 5e’ ¡
H. Bilan
§ Le dipôle électrostatique est entièrement caractérisé par son moment dipolaire ¬ = ;Îä.
§ Le potentiel et le champ électrostatique en un point M créé par un dipôle (placé en O) sont
donnés par :
» ¬. Œ é¬ UVW (›) ¬ WXY (›)
∏ã = . ¡ã = . /
⁄Œ + . ⁄›
G#e’ Œ/ G#e’ Œ G#e’ Œ/
1. Etat de repos
La cellule (myocardique dans notre cas) au repos est polarisée, c’est-à-dire que les
concentrations ioniques de part et d’autre de sa membrane sont différentes en nature et en
concentration.
Le potentiel membranaire à l’intérieur de la cellule est négatif et celui à l’extérieur est positif.
Vu de loin, l’ensemble de la cellule peut être considérée comme la somme d’un grand nombre
de paires de dipôles opposées. A grande distance, le champ et le potentiel électrostatique créés par
ces dipôles sont quasiment nuls (ou considérés comme tels).
Comme le montre le schéma ci-contre, une fibre excitée (en cours de dépolarisation) peut être
assimilée à un seul dipôle se déplaçant le long de la fibre. C’est sur cette modélisation que se base
l’ECG.
L’angle solide Ω (unité le stéradian, notée sr) est l'analogue tridimensionnel de l'angle plan (ou
bidimensionnel).
Désignons par dSO la section droite élémentaire du cône en M (également appelée surface
apparente) et α l’angle entre dx et dxO. Alors, par définition, l’angle solide dΩ a pour expression :
àxD àx. QBNu
àΩ = =
pR pR
àx. ÷
àΩ =
pR
à. = u. ൠ= u. Å. àx
Potentiel créé par un feuillet électrique : le potentiel électrostatique élémentaire créé en un point M
de l’espace par un élément de feuillet électrique de densité
surfacique Å s’écrit :
1 1
àn(ò) = u. Å. àΩ = y. àΩ
4[fD 4[fD
»
∏ã = k¥
G#ɛ’
Remarque - Si la puissance est constante, le potentiel du feuillet ne dépend donc que du contour
du feuillet de non de sa forme (plate ou bombée).
est nul quel que soit le point M considéré (même résultat dans le cas d’une fibre totalement
dépolarisée).
Si la fibre est partiellement dépolarisée (ou en voie de repolarisation), l’une de ses extrémités
est dépolarisée tandis que l’autre est au repos.
L’angle solide, sous lequel la fibre partiellement dépolarisée est vue du point M, est divisé en
trois régions d’angles solides différents :
A. angle solide ¥» , le potentiel est nul en M car les portions AB et AF ont des effets opposés.
2. angle solide ¥é , même chose que pour w? .
3. angle solide ¥/ , contient deux portions BC et FE qui « montrent » à M leur face positive.
Avec y? et yR respectivement les puissances des parties de feuillet entre BC et entre FE.
?
wR correspond à l’angle solide sous lequel de M on voit BC et FE. D’où nò = (y? + yR )wR
Äkɛ
Si la distance r entre la fibre (milieu de la fibre) et le point M est grande devant les dimensions
de la fibre (sa section), alors le potentiel s’écrit :
? Ω.–9¯ü Ω–9¯ü
n(ò) = y? + yR car ΩR =
Äkà ñó ñó
B. Principe de l’ECG
1. Introduction
L’électrocardiogramme (ECG) est l’une des méthodes exploratoires les plus largement utilisées
et les plus utiles en médecine contemporaine. Il est essentiel pour l’identification des troubles du
rythme cardiaque, pour le diagnostic des anomalies du cœur et constitue un examen d’appoint en
présence de désordres généraux qui affectent aussi le reste de l’organisme.
Les contractions des cellules musculaires sont initiées par un groupe cellulaire dédié, le nœud
sinusal (Keith & Flack) situé dans la partie haute de l’oreillette droite, qui se dépolarise de façon
spontanée et se repolarise ensuite pour donner le rythme cardiaque (60-100 pulsations/ min).
La dépolarisation se propage par le tissu nodal (ensemble de tissu dont la spécificité est la
conduction de l’influx électrique). Le courant électrique parcourt les 2 oreillettes, en active la
contraction, et favorise ainsi le passage du sang vers les ventricules.
§ Dérivations électrocardiographiques
- Dérivation unipolaire : lorsque la différence de potentiel est mesurée par rapport à une
électrode de référence (dont le potentiel reste constant au cours du cycle cardiaque).
- Dérivation bipolaire : lorsque la différence de potentiel est mesurée entre deux électrodes
situées à peu près à la même distance du cœur.
Cette dénomination provient du fait que les électrodes sont placées sur les membres : les
poignets droit et gauche et une jambe (conventionnellement la gauche, mais cela n’a pas
d’importance en réalité). Il est également possible de placer ces électrodes au niveau des épaules
droite et gauche et sur le bas ventre (les membres jouant le rôle de simple fil conducteur).
On note VL, VR, et VF les potentiels des électrodes placées respectivement au niveau du
poignet/épaule droit (right), du poignet/épaule gauche (left) et de la jambe/bas ventre gauche (foot).
1. trois dérivations bipolaires, notées D1, D2 et D3 ; telles que D1= VL -VR; D2= VF -VR et D3= VF -
V L;
2. trois dérivations unipolaires, VR, VL et VF ; telles ques VR= VR -VW; VL= VL -VW et VF= VF -VW;
Avec VW le potentiel de référence (constant dans le temps et pris comme origine) que l’on
déterminera plus tard.
Trois dérivations
bipolaires D1= VL -VR D2= VF -VR D3= VF -VL
Trois dérivations
unipolaires VR= VR -VW VL= VL -VW VF= VF -VW
§ Dérivations précordiales
Si on prend comme exemple l’activation ventriculaire, on voit que les premiers vecteurs
représentent la dépolarisation du septum interventriculaire tandis que les suivants correspondent à
la propagation de l’excitation dans le reste du myocarde. A grande distance, on confond les origines
des vecteurs représentant ces moments dipolaires en un point (O) appelé le centre électrique du
cœur. Au cours du cycle cardiaque, l’extrémité des moments dipolaires décrit une boucle fermée
appelée vectocardiogramme. La position moyenne de ce vecteur est appelée axe électrique du
cœur.
5. La théorie d’Einthoven
A partir d’hypothèses simplificatrices, Einthoven a construit en 1913 une théorie de l’ECG
(encore d’actualité) permettant d’expliquer les tracés observés dans les dérivations des membres et
de construire facilement le potentiel de référence VW nécessaire à l’enregistrement de toutes les
dérivations unipolaires (y compris les précordiales).
2ème hypothèse. L’origine du vecteur moment de ce dipôle peut être considérée comme fixe et
est appelée centre électrique du cœur (le centre électrique du coeur ne coïncide pas nécessairement
avec le centre de gravité du coeur, mais il en est généralement peu éloigné, situé dans le ventricule
gauche). Cette hypothèse est justifiée par le fait que la mesure du potentiel étant loin du cœur
(théorie du dipôle), on peut supposer que tous les points de mesure sont approximativement à égale
distance des électrodes. La courbe décrite au cours du cycle cardiaque par l’extrémité du vecteur
moment du dipôle s’appelle le vectocardiogramme. C’est une courbe gauche (c’est-à-dire non
plane), dont on ne considère souvent que les projections dans le plan frontal ou horizontal.
Cette dernière hypothèse est assez grossière car le cœur n’est pas au
centre du thorax et le triangle RLF n’est pas exactement équilatéral
(dépend fortement de la morphologie du sujet). Elle permet
cependant une interprétation relativement exacte des phénomènes
enregistrés.
Les progrès dans l’électronique et les électrodes permettent de nos jours de positionner
autrement les électrodes, plus près du cœur.
D’après ce qui a été dit précédemment (chapitre 2), le potentiel aux points R, L, et F s’écrit
respectivement :
1 .. ֠ 1 .. ֙ 1 .. ּ
n† = nô = nº =
4[fD p† R 4[fD pô R 4[fD pº R
1 .
n† + nô + nº = . ÷† + ÷ô + ÷º
4[fD pD R
Ne sachant pas mesurer un potentiel, mais seulement une différence de potentiel, nous allons
donc essayer d’obtenir un potentiel de référence.
Les différences de potentiel VR, VL et VF sont donc respectivement égales à VR, VL et VF.
1 .. ֙ 1 .. ֠ 1 .
]1 = nô − n† = R
− R
= . ÷ô − ÷†
4[fD pô 4[fD pô 4[fD pD R
Or ÷ô − ÷† est de même direction et de même sens que RL et donc que le vecteur unitaire ÷S?
de la derivation D1 (cf figure).
De plus ÷ô − ÷† = 2× cos 30 = 3
Donc ÷ô − ÷† = 3 ÷S? ;
â —
D’où : ]1 = nô − n† = ÷S?
ÄkɛÌ ñÌó
Ainsi les différences de potentiel D1, D2 et D3 sont elles aussi proportionnelles à la projection
du moment dipolaire cardiaque respectivement sur les axes ÷S? , ÷SR et ÷Sâ .
§ Conclusion générale
La théorie d’Einthoven permet donc d’affirmer le résultat suivant : à chaque instant, la déflexion
électrocardiographique enregistrée selon une dérivation donnée des membres est proportionnelle à
la projection instantanée du vecteur moment dipolaire cardiaque sur la direction de la dérivation
considérée.
C. Interprétation de l’ECG
1. Tracé type de l’ECG
Quelle que soit la dérivation choisie, on observe toujours la même séquence au cours du cycle
cardiaque (normal).
§ L’onde P correspond à la dépolarisation auriculaire. Elle est normalement positive en D1, D2,
D3. Elle survient après un temps de latence de 80-100 ms (segment isoélectrique)
§ Le complexe qRs correspond à la dépolarisation ventriculaire. Il comprend dans sa forme
complète une première déflexion négative q, une déflexion positive R (amplitude 1-1,5 mV) et
une déflexion négative s (durée complexe qRs environ 80ms).
§ L’onde de repolarisation auriculaire n’est pas vue, car elle est totalement masquée par le
complexe qRs.
§ L’onde T correspond à la repolarisation ventriculaire.
§ L’intervalle PR compris entre l’onde P et le complexe qRs est normalement isoélectrique et
traduit le délai entre l’activation des oreillettes et celle des ventricules. Ce délai est obtenu
grâce au retard pris par l’influx électrique dans le noeud auriculoventriculaire.
§ Le segment ST, entre la fin du complexe qRs et le début de l’onde T est normalement
isoélectrique (important à étudier en cas de pathologie cardiaque).
Le flux électrique cardiaque est réparti de façon spécifique à travers le cœur, puisqu’il suit un
chemin bien défini.
L’axe électrique du cœur est un indicateur de la direction générale que prend l’onde de
dépolarisation lorsqu’elle « s’écoule » à travers les ventricules. L’axe électrique du cœur est donc de
façon conventionnelle désigné par l’angle, en degrés, représentant la direction du courant électrique
se déplaçant à travers les ventricules.
§ Utilisation des dérivations des membres pour déterminer l’axe électrique du cœur
L'axe électrique moyen du cœur dans le plan frontal se détermine à partir du système hexaxial
de Bailey qui regroupe les 6 dérivations D1, D2, D3, aVR, aVL et aVF autour d'un point central qui
symbolise le centre du cœur (centre de masse). La détermination de l’axe électrique du cœur se
déduit de la « valeur » de l’onde qRs (dépolarisation ventriculaire). Par convention, 0° désigne la
direction D1 et +90° désigne la direction aVF.
On commence par choisir deux dérivations qui « regardent » le cœur à angle droit l’une par
rapport à l’autre : par exemple D1 et aVF.
La polarité (positive ou négative) indique si l’influx électrique se dirige vers l’électrode (positif) ou
s’en éloigne (négatif).
(L’axe électrique du coeur étant mesuré à partir de D1, il est necessaire de rajouter 90°).
Remarque - Le flux électrique qui se dirige vers une électrode provoque une déflexion positive et
le flux qui s’en éloigne provoque une déflexion négative. Par conséquent, si l’influx électrique se
propage à angle droit par rapport à une dérivation, les complexes qRs qui en découlent seront
isoélectriques (les déflexions positives et négatives s’annulent mutuellement).
3. Rythme cardiaque
En général le rythme cardiaque est régulier et imposé par le nœud sinusal. L’appréciation de la
régularité du rythme cardiaque (équidistance des complexes qRs) et la fréquence cardiaque sont
établies grâce à l’ECG. L’ECG permet de distinguer bradycardies, tachycardies, arythmies…
En cas de doute, référez-vous aux unités. En divisant des mm.s-1 sur des mm, on obtient une
fréquence en s-1. Pour passer en min-1 on multiplie simplement par 60.
Rë Rë
Soit en minute : ∗ 60 = ∗ 6 ∗ 10 = 25 ∗ 5 = 125.
?R h∗R
D. Bilan
1. La cellule myocardique au repos est polarisée. Le potentiel membranaire à l’intérieur de
la cellule est négatif et celui à l’extérieur est positif.
2. La propagation du signal électrique (influx nerveux/électrique) dans le tissu myocardique
peut s’expliquer d’un point de vue électrique par la propagation d’une onde de
dépolarisation membranaire.
3. Le potentiel créé par les fibres cardiaques observé à grande distance peut être assimilé à
celui créé par un dipôle électrique unique équivalent qui résulte de tous les dipôles
élémentaires.
Au cours du cycle cardiaque, l’extrémité des moments dipolaires décrit une boucle fermée
appelée vectocardiogramme. La position moyenne de ce vecteur est appelée axe
électrique du cœur.
4. L’ECG standard est constitué de l’enregistrement de 12 dérivations, à savoir 6 dérivations
des membres et 6 dérivations précordiales.
5. Tracé type d’un ECG normal (quelle que soit la dérivation choisie) :
Partie 4
BASES PHYSIQUES DES
TECHNIQUES D'IMAGERIE
Acoustique physique
Rédigé à partir du cours du Pr SCHEIBER
I. Acoustique physique
Ce premier chapitre concerne le stimulus physique : l’onde sonore dont on rappellera qu’il s’agit
d’une onde mécanique longitudinale.
Pour ce cours, nous nous placerons toujours dans un contexte simple, à savoir à distance de la
source sonore. Une source ponctuelle radie dans une sphère et émet donc des ondes sphériques.
Comme son énergie est donnée dans une direction privilégiée de l’espace, elle diminue en raison du
carré de la distance :
í í
8 = = (1)
X G#πé
La plupart du temps, on peut raisonnablement se placer à une distance de la source telle que le
rayon de courbure de l’enveloppe sphérique devient grand ; l’onde peut alors être approximée par
une onde plane qui se propage dans une direction privilégiée. Ceci est vrai et s’applique quand la
distance est beaucoup plus grande que la longueur d’onde. Il faut se rappeler cette approximation
(très pratique et réaliste) mais qui fait perdre aux équations leur généralité. Il est ainsi parfois
nécessaire de considérer des sources ponctuelles et de juger de leur atténuation en fonction de la
distance. Le débit d’énergie est conservatif, c’est donc la surface de la sphère qui garde un débit
constant (puissance = débit d’énergie). La puissance surfacique va ainsi diminuer en fonction de la
distance dans le rapport des surfaces des sphères.
Les ultrasons sont utilisés en échographie, avec des fréquences de l’ordre du MHz.
De plus, on note que plus la fréquence augmente, plus l’onde est atténuée. Il faut donc des
basses fréquences pour couvrir de longues distances.
L’ébranlement (supposé ici entretenu) se transmet à la colonne d’air. A l’intérieur du tube les
molécules d’air vont se déplacer autour de leur position d’équilibre (en avant et en arrière par
rapport à cette position).
Les démonstrations présentes dans ce cours ne sont pas à apprendre par cœur mais plutôt à
comprendre. Seules les formules qui en découlent sont à savoir !
Une propriété des ondes est le rapport de proportionnalité entre les dérivées du second ordre
de l'espace et du temps, c'est l'équation d'onde :
Kó ) K)ó
. = nR (2)
KÇ ó K@ ó
C’est une équation différentielle du second ordre. Le coefficient de proportionnalité est le carré
de la vitesse de propagation V dans le milieu.
Avec, on le rappelle :
Rk
- s= = 2[ ∗ " , où " et T sont respectivement la fréquence et la période de l’onde ;
Ñ
Rk
- l= , où l est la longueur d’onde (période spatiale) de l’onde.
Í
La distance séparant à un instant donné deux points du trajet de l'onde où la pression est la
même correspond à la longueur d'onde l. Dans un milieu donné, elle est reliée à la fréquence par la
ª
formule : e = = n ∗ (avec grand V = vitesse) ; donc la longueur d’onde diminue quand la
∏
fréquence augmente.
La période (temporelle) T d’un oscillateur est la plus petite durée au bout de laquelle la
grandeur physique qui lui est associée se reproduit identique à elle-même. Nous nous placerons par
ailleurs toujours dans le cas idéal où le milieu est non dispersif, c'est à dire que la vitesse de l’onde
est indépendante de la fréquence de l’onde et ne dépend que des propriétés du milieu de
propagation.
Les sons sont classés en quatre catégories selon leur fréquence " en Hz come vu
précédemment. Nous nous intéresserons ici aux sons audibles par l’oreille humaine, typiquement de
20 Hz à 20 kHz pour une jeune oreille « normale ».
C. Sons complexes
Un son est cependant rarement pur (une seule fonction harmonique, soit une seule fréquence).
Le cas beaucoup plus commun pour un son est celui d'un mouvement plus complexe qui reste
périodique. Cette fonction n'est pas en général sinusoïdale simple, mais toute fonction périodique
f(t), aussi complexe soit-elle, peut être décomposée (décomposition en série de Fourier) et
représentée comme une somme de sinusoïdes d'amplitude an et de phase jn, dont la fréquence nn
est multiple d'une fréquence dite fondamentale (n1) :
∫
: S = +q? <+ cos(0s? S + π+ ) (4)
Chaque composante sinusoïdale (ou cosinusoïdale) est appelée
e
La fidélité de reproduction d’un son complexe (par ex. d'une fonction créneau ici) dépend de la
qualité et du nombre d'harmoniques émis qui sont transmis au système sensoriel. Plus on rajoute
d'harmoniques par ordre croissant de fréquence (et en général décroissant en amplitude), mieux on
restitue le son complexe émis (plus on se rapproche de la fonction originelle).
D. Le ressort
Lorsqu’on met un poids sur le ressort, qu’on le tire vers le bas
puis qu’on le relâche, le ressort va osciller sous l’effet de 2 forces : la
force de tension du ressort et le poids de l’objet, qui sont de sens
opposé. Le bilan des forces s’exerçant sur le ressort est donc égal au
poids + la tension.
… ∗ G = −6 ∗ Ë
JRÓ
{∗ = −l ∗ Ó
JS R
JRÓ l
R
=− ∗Ó
JS {
°é Ë 6 °é Ë ∑
+ ∗Ë=’à + Ãé’ ∗ Ë = ’ (car sD = )
°ƒé … °ƒé î
Ë ƒ = Ë ∗ UVW (Ã’ . ƒ + ¸’ )
II. Transitoires
La décomposition d’un son en fréquence est relativement simple pour un signal périodique
infini, ce qui malheureusement ne correspond que rarement à la réalité, même approximée.
Acoustiquement, ce domaine englobe des bruits brefs, des sons musicaux d'instruments à percussion
ainsi que la parole humaine. L'analyse du contenu fréquentiel fait appel cette fois à l'intégrale de
Fourier au lieu de la série de Fourier. Le spectre est maintenant continu.
On peut ainsi prendre l’exemple d’un son harmonique (une seule fréquence) mais qui s’amortit
très rapidement (figure A ci-dessous, signal de gauche). L’analyse de Fourier (intégrale) nous donnera
chaque composante (pour chaque fréquence : une amplitude, cf. partie droite de la figure), dont on
voit la répartition continue. La fréquence du son initial ressort cependant nettement.
On peut également prendre l’exemple de la figure B ci-dessus (un seul créneau), où le passage
discret-continu est encore plus net.qa
Pour une représentation adéquate de ces sons, on fait parfois appel aux sonagrammes (ou
sonogrammes) pour traduire l'évolution dans le temps des composantes fréquentielles, l'intensité
étant reproduite en modulant la noirceur du trait.
III. Bruit
Une classe importante de phénomènes vibratoires est constituée partiellement ou en totalité
d'une somme d'un grand nombre de fréquences, apparaissant alors comme une fonction aléatoire
du temps : le BRUIT.
Un niveau ambiant élevé de bruit va gêner l'analyse d'un son qu’il faudra parfois amplifier pour
qu’il soit compris (intelligible) ; cet effet parasite dépend de la distribution des fréquences contenues
dans le bruit car elles n'ont pas toutes la même nuisance sur l'oreille (physiologie de l'oreille interne).
Chez l'homme, ce sont les basses fréquences qui sont les plus nuisibles. Le bruit est une notion
importante car on peut dire qu’en pratique l'oreille humaine doit toujours extraire un signal
complexe (éventuellement harmonique ou transitoire) d'un bruit.
Les caractéristiques du signal et du bruit vont intervenir dans l'intelligibilité (le décodage
efficace du signal utile) en sachant que l'oreille est non seulement capable d'amplifier sélectivement
les plages de fréquences utiles (fréquences de la parole etc.), mais aussi d'inhiber sélectivement les
bruits.
On voit tout l'intérêt de décrire physiquement les caractéristiques des bruits. On doit faire appel
aux descripteurs des fonctions stochastiques : un des paramètres les plus utiles est la fonction de
densité de puissance spectrale qui renseigne sur la composition spectrale du bruit.
Les figures suivantes présentent quelques exemples (analyse par intégrale de Fourier) où (figure
A) le bruit peut être totalement aléatoire (sauf pour les hautes fréquences), gênant sur une petite
région spectrale (figure B) ou large (figure C).
Les variations de pression (onde acoustique sonore) sont toujours très faibles (pa = quelques Pa)
autour de la pression moyenne du milieu (P0 = pression atmosphérique pour le cas habituel de
l’oreille humaine), mais le tympan est très sensible et la transmission des sons est assurée par un
déplacement de l'ordre du rayon de l'atome d’hydrogène (Å).
Etudions de plus près ce qu'il se passe dans un élément de volume cylindrique V de section A et
de longueur élémentaire dx entre x et x + dx comme le montre le schéma ci-dessous :
Soumis à une vibration entretenue, le milieu liquide/gazeux de notre petit cylindre est soumis à
des variations de pression autour de la pression de référence P0 (la pression atmosphérique pour le
cas habituel de l'oreille humaine), il oscille autour de sa position d'équilibre et se contracte et voit sa
pression interne augmentée.
r + dr
Exprimons ensuite les forces F1 et F2 s’appliquant sur chaque section (gauche et droite
respectivement) du cylindre élémentaire :
_? = ÜD + . . P (9)
K—
_R = ÜD + . + à- . P (10)
K@
Il nous faut maintenant tenir compte des propriétés mécaniques du milieu en utilisant la loi de
HOOKE (élongation proportionnelle à la contrainte) qui relie la pression acoustique p (la contrainte
subie par l’élément de volume) au gradient de l’élongation par le module d’élasticité de Young E
propre à chaque matériau :
K)
. = −z (13)
K@
¡
∏=
Ä
(15)
Pour ce qui concerne la physique de l'audition il faut garder en permanence présent à l'esprit le
problème posé par le changement de milieu. Pour être analysé par l'oreille interne le son se
propageant dans l'air à la pression atmosphérique doit passer dans un milieu liquidien de l'oreille
interne.
La propagation des sons dépendant exclusivement des propriétés du milieu (cf. équation 15), ce
changement va avoir une conséquence importante sur la transmission des ondes sonores. Il convient
avant tout d’étudier les conditions de propagation dans l'air et dans les fluides (ici supposés parfaits).
Le cas des solides, plus complexe, ne sera pas traité encore qu'il existe une conduction osseuse des
sons dont l'importance physiologique est encore discutée mais réelle.
On veut que ce coefficient soit positif pour une compression (DV / DP < 0), on met un signe moins.
Par ailleurs la transformation est adiabatique car aux fréquences considérées il n’y a pas
d’échange de chaleur possible. c est donc également appelé coefficient de compressibilité
adiabatique.
soit :
K— ? Kó )
=− (19)
K@ ø K@ ó
»
∏=
Ä¿
(21)
On trouve logiquement c au dénominateur (c = 1 / E).
Pour un gaz parfait, nous devons utiliser les coefficients de chaleur (capacités calorifiques) à
pression et volume constants. On rappelle que le rapport Cp / Cv est constant (= g = 7/5 pour l'air).
g
Puisque la transformation est adiabatique, l’expression PV = cte nous permet d’écrire :
ln Ü + ¶. ln ª = ln (QS#) (22)
soit en dérivant :
Å∫ ź
= −¶ (23)
∫ º
Nä’
∏=
Ä
(26)
Exemples :
§ air : r = 1,29 kg.m-3; soit V = Ö[7 x 105 / (5 x 1,29)] = 330 m/s
§ eau : r = 103 kg.m-3 et 1/c = 2,25.109 ; soit V = Ö2,25.106 = 1500 m/s
§ aluminium : plus compliqué : V = 6400 m/s
K) ? K)
=− (31)
KÇ Ωø K@
? K)
En se rappelant l’équation 18 . = − , on a :
ø K@
Ω K) Ω K) K)
.= = = }n (32)
ø KÇ Ωø KÇ KÇ
On s’aperçoit alors que le rapport pression acoustique sur vitesse particulaire est constant :
¬
n= °⁄ = Ä. ∏
°ƒ
(33)
Cette constante est appelé impédance acoustique, s’exprimant en kg.m-2.s-1 : elle mesure la
facilité de déformation du milieu. On peut également la trouver en Pa.s.m-1 puisque c’est une
pression divisée par une vitesse. Il existe encore une ancienne unité, le rayl, en l’honneur de lord
Rayleigh, mathématicien et physicien anglais (1 rayl = 1 unité CGS = 1 g.cm-2.s-1 = 10 kg.m-2.s-1).
Cette notion d’impédance est très importante dans la transmission des ondes sonores. Si une
onde rencontre un milieu d’impédance acoustique différente, seule une fraction de l’onde va
traverser l’interface séparant les 2 milieux ; une partie de l’onde va se réfléchir sur cette surface. Il
est facile de comprendre l’intérêt en pratique pour l’application à l’audition humaine : il va falloir
transmettre l’onde sonore de l’air à un milieu biologique intérieur = liquidien, dont les
caractéristiques sont très différentes. L’évolution a traité ce problème et nous verrons plus loin dans
ce cours comment.
Attention. L’impédance avait été définie pour la corde dans la partie sur les ondes mécaniques
qui était un problème à une dimension. Ici pour la situation en 3D, il faut retenir que le
numérateur est une force par unité de surface ; à 1D c’était une force seule.
B. Intensité acoustique
L'intensité acoustique (W.m-2) se définit comme la moyenne de la puissance surfacique sur une
période T (c’est donc un flux d’énergie moyen) :
? Ñ ó
—Q
^= . -, S . àS = (35)
Ñ D R¡
On rappelle que pa est ici l’amplitude de la pression acoustique (p = pa.cos(wt – kx)) et que
l’intégrale sur une période d’une fonction sinusoïdale au carrée est égale à ½.
^ = 2[ R r R ÷DR o (36)
Pour une impédance acoustique Z donnée, l'intensité acoustique (puissance surfacique
moyenne) est donc proportionnelle au carré de l'amplitude et de la fréquence n.
La figure ci-dessous montre la relation linéaire entre la pression acoustique dans l'air (son
amplitude pa en Pa) et l’intensité de l’onde correspondante (en W.m-2) : on remarque que le domaine
auditif (jusqu’au seuil de douleur) de l'homme couvre 12 ordres de grandeurs, c’est pourquoi on fait
appel à une échelle logarithmique pour l'expression de l'intensité plutôt que de garder les unités SI.
Attention malgré cette très grande plage de valeurs (12 ordres de grandeurs) la valeur absolue
de l’intensité acoustique est TOUJOURS FAIBLE (limite supérieure = 1 W.m-2) !
On peut encore définir la puissance acoustique W (en W), soit l’énergie acoustique totale :
í=À∗X
Comme introduit quelques lignes plus haut, on a préféré une échelle relative qui tient compte
(outre la taille de la plage de valeurs) du fait que pour l'essentiel les intensités subjectives varient
comme le logarithme de leur intensité objective et physique.
Le niveau de pression acoustique S a ainsi été défini par rapport à la pression acoustique
efficace de référence Peff,0 = 2.10-5 Pa :
¬«!! À
X = é’ ∗ EF G = »’ ∗ EFG ( )
¬«!!’ À’
(37)
Où les pressions efficaces sont les amplitudes divisées par Ö2 (soit pa / Ö2) et I0 = 10-12 W.m-2.
Quand on utilise l'intensité, on parle de dB SL (Sound Level), alors que si on utilise le rapport des
pressions on parle de dB SPL (Sound Pressure Level).
Attention c’est la même valeur ! (On peut le remarquer avec I µ peff 2).
Le son minimal (seuil d’audition pris comme référence, c’est une moyenne physiologique) sera
donc égal à 0 dB. Il n’est bien sûr pas exclu, individuellement, d’avoir un seuil d’audition plus bas
(valeurs négatives).
1
Le décibel est le dixième du bel, ainsi nommé en l'honneur de G. Bell, inventeur du téléphone. Le bel étant une unité
beaucoup trop grande pour exprimer les niveaux rencontrés usuellement, on lui préfère son sous-multiple.
I x 10 ® + 10 dB
I x 100 ® + 20 dB
± 1 dB ® I x ou / par 1,26 (seulement)
± 3 dB ® I x ou / par 2
± 10 dB ® I x ou / par 10
I. Magnétisme
A. Sources du champ magnétique
Nous retrouvons les champs magnétiques dans différentes situations :
§ les aimants naturels (composés de magnétite, Fe3O4) ;
§ la boussole : orientation d’un aimant (deux pôles : Nord et Sud) dans le champ
magnétique terrestre ;
§ actions des aimants ;
§ le courant électrique (Ampère) qui dévie la boussole :
A. fil : loi de Biot et Savard,
B. bobine, solénoïde (= fil circulaire avec un nombre donné de spires, tours).
Quelques ordres de grandeur. – Le champ magnétique terrestre tourne autour de 0,05 mT. Les
expériences RMN se font entre 0,1 T et 11,7 T pour les humains, entre 2 T et 17,2 T pour les
animaux et entre 2 et 23 T pour les molécules.
B. Spectre magnétique
L’ensemble des lignes de champ magnétique constitue le spectre magnétique.
T est appelé « induction magnétique », c’est un vecteur tangentiel aux lignes de champ.
Remarques. – Les lignes de champ magnétique sont des lignes fermées. L’intensité du champ
magnétique augmente avec le resserrement des lignes de champ.
Soit un circuit filiforme dans le vide, parcouru par un courant électrique I. Une portion de fil de
longueur dl crée en un point M de l’espace un champ magnétique élémentaire parcouru par un
courant électrique I tel que :
k’ À ·E ∧ Œ
·_ =
G# Œ/
Avec μ0 : perméabilité magnétique dans le vide, reliée à la permittivité électrique ε0 tel que
fD . yD ×Q² = 1.
On peut dire que T est perpendiculaire à la fois au fil et à r, en effet on a / ∧ p dans la formule.
2. Conséquence
Tout circuit électrique parcouru par un courant crée un champ magnétique. L’intensité du
champ magnétique décroît rapidement avec la distance (1/r²) et s’annule à l’infini.
k’ À
_ = Î.
éπ
Attention. – Le sens du champ magnétique est donné par la règle du tire-bouchon, le schéma est
ambigü : la flèche de l'intensité se trouve sur le côté du cercle le plus proche de l'observateur.
Exemple. – Une bobine de rayon 10 cm parcouru par un courant de 1 A dans le vide produit un
champ magnétique B = 6,28 μT pour une spire, ou B50 = 0,314 mT pour 50 spires.
On remarque que le champ magnétique B augmente avec le nombre de spires.
D. Forces magnétiques
1. Force de Lorentz
Soit une particule chargée q se déplaçant dans une région de l’espace où règne un champ
électrique z et un champ magnétique T. La particule est alors soumise à une force
électromagnétique (z + T) ou force de Lorentz telle que :
‡ = ;(¡ + ∧ _)
‡« = ;¡
‡… = ; ∧ _
2. Force de Laplace
La force de Laplace est un cas particulier de la force de Lorentz, il s’agit de la résultante des
forces magnétiques de Lorentz pour des électrons formant un courant électrique d’intensité I
Soit un circuit filiforme de longueur dl plongé dans un champ magnétique T et parcouru par un
courant d’intensité I. Une portion de circuit de longueur dl est soumise à une force magnétique T :
·‡ = À ·E ∧ _
Le sens de à_ est donné par la règle des 3 doigts (règle de la main droite) :
3. Effet Hall
À_
==
H«?
L’expérience montre qu’il apparaît une tension U, appelée tension de Hall, entre les deux faces
latérales parallèles à B et qui permet la mesure de champ magnétique B. Cette différence de
potentiel s’explique par la force magnétique qui s’applique aux électrons.
Nous prendrons n.e.b très petit (plaque de semi-conducteur où la vitesse des électrons est plus
grande / métaux) ; où n est le nombre d'électrons, e la charge et b l'épaisseur.
E. Induction électromagnétique
1. Flux magnétique
Un flux magnétique ˜ variable à travers une surface induit une force électromotrice e sur le
pourtour de cette surface.
¸ = _X UVW ›
Avec φ en Weber (Wb)
Un flux ici magnétique est représenté comme étant le produit de la valeur du champ
magnétique B que multiplie la surface S fois le cosinus de l’angle θ que fait la normale à la surface
avec la direction du champ. On appelle force d’induction électromagnétique la force électromotrice
(e) créée par un flux magnétique variable sur le pourtour de la surface S :
·¸
«=−
·ƒ
2. Application à l’induction
Production d’énergie électrique : nous pouvons obtenir une force d’induction de façon
différente en faisant varier l’orientation de la surface d’un circuit électrique dans un champ B
constant. C’est le principe de certaines centrales électriques.
Détection d’aimantation : nous nous intéressons d’un peu plus près à l’induction
électromagnétique du fait que c’est par elle que nous détectons les variations de l’aimantation
nucléaire des tissus obtenu par résonance magnétique nucléaire (RMN). Les ondes émises sont
détectées par une antenne radiofréquence accordée à la fréquence de résonance des spins
nucléaires.
« = _ .å .
Considérons une tige métallique de longueur L plongée dans un champ magnétique uniforme B
et entraînée à la vitesse v.
L’expérience montre qu’il apparaît une tension électrique entre les deux extrémités de la tige :
c’est une « force électromotrice induite » (ou f.e.m induite).
4. Loi de Lenz
Remarque. – Avec cette notation, T est dirigé en-dessous du plan de la feuille (T s'éloigne de
l'observateur).
Le courant induit, par induction magnétique, s’oppose aux causes qui lui ont donné naissance.
Prenons l’expérience des rails de Laplace : le sens du courant induit est tel qu’il provoque dans
la tige une force magnétique qui s’oppose au mouvement de celle-ci.
la tension du ressort : ç = − 6Ë
‡=ä+ç
Ü le poids de la masse : ä = …G
·²Ë
À l’équilibre, les deux forces s’équilibrent : _ = 0. Donc {C = −lÓ " = −6Ë
·ƒ²
·²Ë 6
Equation du mouvement : + Ë=’.
·ƒ² …
Nous obtenons :
6
la pulsation propre du ressort Ã’ = ,
…
Ë ƒ = È WXY (Ã’ ƒ + ¸’ )
é# …
la période propre du ressort ç’ = → ç’ = é#
Ã’ 6
Si la vitesse V est indépendante de l’indice de réfraction n du milieu, alors ce milieu est non
dispersif.
Les ondes EM correspondent à la propagation d’un champ électromagnétique. Pour les mettre
en évidence, il faut soumettre de la matière, en particulier les électrons de celle-ci, à leur passage et
observer les courants alternatifs dus à ces électrons mis en mouvement par le champ EM de l’onde.
§ onde transversale,
B. 4 lois de l’électromagnétisme
§ Coulomb (Gauss électrique),
§ Induction (Faraday-Henry),
§ Déplacement (Ampère-Maxwell).
Les OEM sont décrites par les équations de Maxwell dans la théorie de l’électromagnétisme.
La théorie du champ électromagnétique est condensée dans ces quatre lois : on les appelle les
équations de Maxwell. Car en plus d’avoir formulé la quatrième loi, il a reconnu que leur ensemble
formait avec la relation (1) la base d’une théorie. Dans cette théorie la charge électrique q et le
courant I sont appelés les sources du champ EM car, si q et I sont données, les équations de Maxwell
permettent de calculer E et B.
D. Ondes planes
JRz JRz
= 5 D y D
J- R JS R
JRT JRT
= 5 y
D D
J- R JS R
¡ ’, ƒ = ¡’ UVW Ã #S _ ’, ƒ = _’ UVW Ã
Propriétés :
Les champs E et B ne sont pas indépendants, les amplitudes des champs sont reliées par la
relation :
¡’ = √_’
La lumière naturelle est une superposition aléatoire d’un grand nombre d’états de polarisation
rectiligne.
Remarque. – Une onde électromagnétique est formée de deux champs magnétique et électrique
perpendiculaires entre eux et oscillant perpendiculairement à la direction de propagation (ondes
transversales). La direction de polarisation est définie pour le vecteur champ électrique, soit ici
l’axe y.
Amplitude E0 = cB0
Pulsation s
∂
Fréquence : = en Hz
Rk
ƒ ‚
¬ b = ¬’ UVW(Ã − 6‚) = ¬’ UVWéè( − ) ? Rk
ç Ö Période = = en s
“ ∂
– Rk
Longueur d’onde e = = en m
“ ∑
Rk
Nombre d’onde l = rad.m-1
Í
§ un moment cinétique.
§ lumière : LASERS (pas obligatoirement), autres faisceaux (lumière naturelle) polarisés par
absorption (polaroïds), réflexion ou diffusion, lunettes à verres polaroïdes.
»
∏¸ = ∏G = =√
e’ k’
Vitesse de phase :
f
eŒ =
fD
» √
∏= =
ek eŒ kŒ y
kŒ = y
D
On associe la longueur d’onde et la couleur d’une radiation mais ce qui compte en physique
c’est bien l’énergie du rayonnement et donc sa fréquence qui dépend de la source et ne change pas.
Ce n’est que la vitesse de propagation dans la matière qui change et donc la longueur d’onde.
Matière Indice n
Air 1
Eau 1,333
Verre léger CROWN 1,517
Verre lourd FLINT 1,647
Diamant 2,417
I. Dualité onde-corpuscule
Æ un aspect ondulatoire (exemple : interférences),
”
Ö=
…√
Aspects quantiques
IV. Conclusion
§ Du XVIIIème siècle à 1864, la physique des OEM est descriptive (modèles
mathématiques décrivant les résultats d’expérience).
§ De 1864 à aujourd’hui, la physique des OEM est explicative (photon et dualité onde-
corpuscule, mécanique quantique et relativité).
Note de la rédaction [NDLR]. – Ce cours vise à vous apprendre les bases fondamentales de la
résonance magnétique nucléaire, en guise d'introduction à l'imagerie par résonance magnétique
(IRM). Il paraîtra sûrement surprenant aux yeux du lecteur non initié, en raison de l'introduction
de concepts et notions tout-à-fait nouvelles et parfois complexes. Rassurez-vous cependant : la
RMN n'est pas incompréhensible. Il vous faudra juste passer du temps à bien comprendre chaque
concept avant de vous intéresser au suivant. Une fois tous les principes compris, il ne vous restera
que peu de choses à apprendre par cœur et les questions de cours comme les exercices
d'application n'en seront que plus faciles. Nous attirons votre attention sur le fait que certains
points du cours tel qu'il est habituellement dispensé en amphithéâtre ont été déplacés dans cette
version écrite, dans un souci de cohérence des explications.
I. Introduction
La résonance magnétique nucléaire (RMN) est une méthode physique d'exploration dont les
principes sont mis en œuvre dans l'imagerie par résonance magnétique (IRM). Il s'agit d'une
technique d'apparition récente, fruit de nombreuses recherches scientifiques et ayant motivé de
nombreux prix Nobel :
§ prix Nobel de physique décerné à Isidor Isaac Rabi en 1944 ainsi qu'à Felix Bloch &
Edward Mills Purcell en 1952 pour leurs découvertes respectives du spin et de
l'expérience RMN,
§ prix Nobel de chimie décerné à Richard Ernst en 1991 et à Kurt Wüthrich en 2002 pour
leurs travaux sur la spectroscopie moléculaire par RMN,
§ prix Nobel de médecine décerné à Paul C. Lauterbur et Sir Peter Mansfield en 2003 pour
leur découverte de l'imagerie RMN.
En médecine, l'IRM est une technique d'imagerie utilisée quotidiennement en parallèle avec
d'autres méthodes de radiologie comme le scanner à rayons X (imagerie structurelle) ou de
médecine nucléaire comme la tomographie par émission de positons (TEP - imagerie métabolique).
L'IRM présente l'avantage de permettre une imagerie à la fois structurelle et fonctionnelle du corps
humain. Le principe de la RMN est multiparamétrique, c'est-à-dire que selon les protocoles
d'utilisation et les paramètres d'analyse, nous sommes en mesure d'obtenir des informations très
différentes, allant du spectre RMN biochimique d'un organe à la détection de la baisse de perfusion
cérébrale lors d'un accident vasculaire cérébral (AVC) ou de l'activité régionale cérébrale (IRM
fonctionnelle).
Un appareil d'IRM est généralement constitué d'un aimant formé par une bobine de fil
conducteur parcourue par un courant, produisant un champ magnétique appelé T 0,d'intensité
variant de 0,5 T à 7 T (en laboratoire de recherche, l'IRM la plus puissante atteint 11,75 T), le champ
de 1,5 T étant le plus courant aujourd'hui en clinique. En spectroscopie RMN in vitro, l'étude de
molécules en solution (tube de 5 mm) permet de travailler avec des champs beaucoup plus intenses,
pouvant atteindre une vingtaine de teslas. En plus de cet aimant, nous utilisons aussi une antenne
radiofréquence (RF) génératrice d'un second champ magnétique appelé B1 qui intervient dans le
processus de résonance. L'antenne RF permet aussi d'enregistrer le signal renvoyé par les noyaux des
atomes et utilisé pour reconstruire un spectre ou une image. Enfin, les bobines de gradient
permettent le codage du signal dans l'espace et ainsi la reconstruction de l'image. Tous ces
équipement ont un coût : de 1 à 2 millions d'euros pour les systèmes cliniques.
o = ℎ. ^
m
Remarque. – h est la constante de Planck (en J.s) et ℎ = .
Rk
Les protons, électrons et neutrons ont tous un spin de valeur ± 1/2. Chaque noyau possède ainsi
un spin, résultant de sa composition en nombre de particules élémentaires. Il faut simplement
retenir les règles du tableau ci-dessous.
Les noyaux avec un spin nul (12C, 16O) n'ont pas de moment magnétique (confère infra pour des
explications sur le moment magnétique) et sont par conséquent inexploitables en RMN. Les noyaux
avec un spin entier (14N) ou semi-entier (1H) ont un moment magnétique et sont donc détectables en
RMN. Toutefois, dans la pratique médicale, l'intérêt se porte uniquement sur les noyaux possédant
un spin semi-entier, notamment les noyaux d'hydrogène 1H, composés d'un seul proton (et donc
couramment appelés protons par abus de langage).
Le spin correspond à une propriété magnétique intrinsèque des particules. Les particules
élémentaires chargées (protons, électrons...) et en mouvement créent un champ magnétique
(comme stipulé par la loi de Biot et Savart). Le moment magnétique ainsi créé, noté y, dépend du
moment cinétique o, de la particule (lui-même dépendant du spin) et du rapport gyromagnétique γ,
une constante propre à chaque particule.
y = ¶o = ¶ℎ^
•
Remarque. – Le rapport gyromagnétique γ s'exprime en rad.s-1.T-1 et ¶ = s'exprime en Hz.T-1.
Rk
Le rapport gyromagnétique γ est une constante propre à chaque noyau faisant le lien entre le
spin et le moment magnétique. Les noyaux avec le plus grand rapport gyromagnétique sont les
noyaux d'hydrogène ??£, pour lesquels ¶ = 42,58 MHz.T-1.
Les noyaux avec un spin nul n'ont pas de moment magnétique et sont donc indétectables en
RMN. Les noyaux détectables sont ceux avec un spin entier ou demi-entier, car ils s'accompagnent
d'un moment magnétique. Cependant, en RMN, nous nous intéresserons exclusivement aux noyaux
avec un spin demi-entier, dont la liste (non exhaustive) est donnée dans le tableau ci-dessous. Parmi
eux, les plus importants en médecine sont les noyaux d'hydrogène qui sont présents en très grande
quantité dans le corps humain (notamment dans toutes les molécules d'H2O qui représentent
environ 60 à 80% des tissus du corps humain adulte).
B. Polarisation magnétique
Au cours d'une expérience RMN, nous utilisons un champ magnétique pour polariser les noyaux
atomiques. Les champs magnétiques employés sont des milliers de fois plus intenses que le champ
magnétique terrestre (environ 0,05 mT). En imagerie médicale, les appareils d'usage courant varient
entre 1 et 3 T.
À l'état naturel, les spins (représentés sur l'image ci-dessous par des flèches) sont orientés de
manière aléatoire dans l'espace (nous parlons alors d'état de dégénérescence). L'introduction d'un
champ magnétique polarisant, noté T0, permet d'organiser les noyaux. En effet, dès lors, les
moments magnétiques (souvent désignés par « spins ») des noyaux s'orientent selon la direction de
T0 : c'est la levée de la dégénérescence. Les spins s'alignent soit dans le sens parallèle (même sens
que T0, rangée du bas sur l'illustration) soit dans le sens antiparallèle (sens opposé, rangée du haut).
Les moments magnétiques ainsi polarisés ne sont pas à proprement parler alignés sur TD . Ils ont
un mouvement de précession autour de TD , que nous appelons précession de Larmor. Ce
mouvement de rotation en cône est dû au couple ‰ (un couple, en mécanique, est un effort de
rotation appliqué à un axe) qu'exerce le champ TD sur le mouvement magnétique y :
‰ = y ∧ TD = ¶o ∧ TD
Précession de Larmor.
La précession de y autour de TD se fait avec une vitesse angulaire connue sous le nom de
fréquence de Larmor et notée s, qui dépend du noyau, de son rapport gyromagnétique et de
l'intensité du champ TD , comme le résume la relation de Larmor :
à = −≈. _’
Remarque. – Le signe (-) intervenant dans la relation de Larmor a une valeur pour l'orientation
vectorielle de s dans le référentiel, car les spins tournent inversement au sens trigonométrique.
Une approche quantique de la situation permet d'expliquer la répartition des spins polarisés par
TD entre sens parallèle et sens antiparallèle. Dans le cas d'un noyau d'hydrogène 1H (ou « proton »), il
existe deux niveaux d'énergie possibles pour un spin polarisé. L'alignement du spin parallèlement à
TD correspond à l'état fondamental : niveau de plus faible énergie potentielle notée EP (+ 1/2).
Logiquement, l'orientation du spin dans le sens antiparallèle correspond à l'état excité, avec une
énergie potentielle plus importante notée EP (- 1/2).
Remarque. – Il faut bien voir que le niveau de faible énergie est noté (+ 1/2) et celui de haute
énergie (- 1/2) car nous indiquons par là le sens de la polarisation du spin par rapport au champ
magnétique (+ pour le sens parallèle, - pour le sens antiparallèle) et non directement le niveau
d'énergie.
∆¡¬ = N. ”. _’
L'expérience de RMN consistera à exciter les spins à l'état fondamental afin de les amener à
l'état excité. Ce point sera détaillé ultérieurement dans le cours, mais nous pouvons d'ores et déjà
dire que l'excitation se fera par résonance, c'est-à-dire en apportant une onde électromagnétique
(OEM) d'énergie exactement égale à la différence d'EP entre les deux niveaux. Nous pouvons donc
exprimer cette différence d'énergie potentielle sous la forme de l'énergie emportée par une OEM
(comme pour un photon) : ∆z— = ℎ"D .
L'effet Zeeman est un phénomène intervenant en présence d'un champ magnétique. À la fin du
ème
XIX siècle, Zeeman étudie les spectres d'émission de gaz monoatomiques, constitués de l'addition
de quelques raies seulement sur le spectre (correspondant aux différentes transitions électroniques).
En soumettant le gaz à un champ magnétique, il constate sur le spectre que chaque raie a été
remplacée par trois raies, finement et régulièrement espacées. Ce phénomène est dû à l'action du
champ magnétique sur les électrons (semblable à ce qui a été décrit précédemment). Il montre que
l'espacement des raies est dépendant de l'intensité du champ magnétique (ceci peut être utilisé pour
calculer l'intensité du champ magnétique d'une étoile à partir de son spectre d'émission !). L'effet
Zeeman, intervient donc aussi en RMN : il faut en retenir que plus l'intensité du champ B0 est élevée,
plus la différence d'énergie entre les deux états de polarisation est élevée et, par conséquent,
meilleur est le signal (comme le veut la formule ∆z— = ¶. ℎ. TD ).
Les populations de spins polarisés se répartissent entre l'état fondamental et excité selon la loi
de Boltzmann, un des piliers de la physique quantique. Cette loi stipule qu'à l'état d'équilibre (dans le
cas de la RMN, tant que dure la polarisation par TD sans excitation externe), le rapport entre les
populations de l'état excité et de l'état fondamental est une fonction exponentielle décroissante de
la différence d'énergie entre les deux niveaux. Autrement dit, plus la différence d'énergie entre les
deux niveaux est importante, moins le niveau excité est susceptible d'être peuplé par rapport à l'état
fondamental. La loi de Boltzmann s'écrit :
0( ∆û m.∏Ì
*
= # ∑Ñ = # ∑Ñ
0
Remarque. – Pour rappel, le niveau (+) correspond à l'état fondamental et le niveau (-) à l'état
excité. Le (-) contenu dans l'exponentielle de la formule du cours de thermodynamique disparaît
ici, tout simplement parce que le rapport est inversé.
Le développement limité (non détaillé dans ce cours) de la formule précédente permet d'en
établir une approximation simplifiant les calculs :
H( ”.ƒ’ ”. ƒ’
*
= « 6ç = » +
H 6ç
m.∏
La loi de Boltzmann implique donc, étant donné que > 0, que l'état fondamental est
∑Ñ
toujours plus peuplé que l'état excité en situation d'équilibre. Avec des valeurs courantes pour T et B0
(dont dépend la valeur de h.ν0), il y a environ une dizaine de noyaux supplémentaires à l'état
fondamental qu'à l'état excité pour un million de noyaux. Ce nombre est petit mais malgré tout
suffisant pour obtenir un signal en RMN.
Un système est dit résonant lorsqu'il peut modifier son état d'équilibre en absorbant de
l'énergie provenant d'une stimulation externe vibrant à sa fréquence propre. Une conformation en
résonance permet le transfert d'énergie du système excitateur vers le système résonant. Le concept
de résonance trouve de nombreux exemples dans le monde nous environnant. Par exemple, la
marche au pas d'un régiment sur le pont peut devenir un système résonant avec le régiment comme
système excitateur et le pont comme système résonant. Si, par malchance, la période du pas des
militaires est proche de la période propre du pont, alors le système entre en résonance : l'énergie
transmise n'est pas dissipée par le pont, elle s'additionne à chaque pas. Le pont entre en oscillation,
pouvant éventuellement se briser. Depuis longtemps, les militaires ont pris l'habitude de rompre le
pas lors de la traversée d'un pont... L'exemple du pont de Tacoma Narrows en 1940 est encore plus
saisissant dans la mesure où la simple force de violentes rafales de vent à répétition a pu faire entrer
le pont en résonance et le détruire. Toutefois, dans ce cas précis, l'entrée en résonance ne s'est faite
que par un mécanisme aéroélastique entre le vent et le pont, plus complexe que la marche au pas. La
résonance est aussi utilisée dans les instruments à cordes où l'air, vibrant sous l'effet de la corde, fait
entrer le bois de la caisse en résonance qui va à son tour faire vibrer de l'air, permettant d'amplifier
le son produit par l'instrument.
Dans le cadre de la RMN, il faut respecter plusieurs conditions pour que l'émission de l'antenne
RF puisse faire entrer le système en résonance.
En premier lieu, l'onde radiofréquence doit transmettre une énergie strictement égale à la
différence d'énergie entre le niveau fondamental et le niveau excité des spins pour pouvoir les faire
entrer en résonance (par définition). Pour rappel, l'énergie d'un photon se note z = ℎ". La
différence d'énergie potentielle entre les deux états est ∆z— = ¶. ℎ. TD . Pour la résonance, il est
donc nécessaire que :
ℎ" = ¶. ℎ. TD
ℎ
ℎ" = ¶. .T
2[ D
¶
"= .T
2[ D
La fréquence de résonance du système, notée "0, dépend donc du rapport gyromagnétique du
noyau étudié et de l'intensité de B0 (de manière similaire à la fréquence de Larmor auparavant).
ƒ’ = N. _’
En deuxième lieu, l'antenne doit pouvoir transmettre de l'énergie à un système qui, rappelons-
le, entre en précession autour de TD . Pour ce faire, l'antenne RF ne peut pas rester en dehors de ce
mouvement de précession. Dans l'appareil, ce problème est simplement résolu en faisant tourner le
champ B1 (produit par OEM sinusoïdale) autour de l'axe de B0 à la fréquence de Larmor (c'est-à-dire à
la même vitesse angulaire que celle des spins). Les spins tournent alors à la même vitesse que le
champ magnétique B1. Nous disons qu'ils sont en phase ou qu'ils sont synchrones.
Pour la description des événements qui vont suivre, il est essentiel pour nous, observateurs, de
pouvoir s'affranchir de la rotation du système autour de TD afin de mieux voir les phénomènes
vectoriels apparaissant avec l'excitation du système. Pour ce faire, nous allons utiliser un objet
mathématique virtuel appelé référentiel tournant. Son principe repose sur la rotation simultanée des
spins et du champ B1 autour de l'axe de TD , à la fréquence de Larmor. Nous supprimons ainsi
virtuellement l'effet de la précession de Larmor sur les spins et sur M. Pour ne pas le confondre avec
le référentiel fixe, il est noté (O, x', y', z').
Remarque. – Pour mieux comprendre, nous pouvons faire une analogie avec un lecteur devant
un présentoir à journaux tournant automatiquement. Si le lecteur veut lire la première page du
journal sans être gêné, il doit tourner autour du présentoir à la même vitesse que lui. Notre
lecteur, c'est le référentiel tournant !
Du point de vue quantique, l'excitation du système de spins par l'antenne RF possède deux
conséquences. Immédiatement, le champ B1 entraîne la mise en phase de tous les spins : ils se
mettent à précesser uniformément autour de TD , en ayant tous la même phase (même position au
même moment). Dans le même temps, l'apport d'énergie par résonance (fréquence identique entre
l'émetteur et le récepteur) au système excite les spins et les fait passer de l'état fondamental à l'état
excité. Hors de l'état d'équilibre, le système n'est plus régi par la loi de Boltzmann et les spins
antiparallèles peuvent très bien devenir majoritaires.
5 = N. _ » . ƒ
En fonction du temps où l'émission RF est maintenue, nous pouvons faire basculer à volonté
autour de l'axe de T 1. Selon les séquences, le temps d'excitation est différent, mais le plus souvent
nous utiliserons des séquences de saturation (bascule à 90°, avec autant de spins parallèles et
antiparallèles, d'où le terme de saturation) ou des séquences d'inversion (bascule à 180°, avec
inversion du rapport des populations).
Dès l'arrêt de l'excitation du système, c'est-à-dire dès l'arrêt du champ B1, le système revient à
l'équilibre par un phénomène de relaxation dont la durée dépend des caractéristiques du système,
c'est-à-dire de l'environnement des molécules d'eau auxquelles appartiennent les spins des protons.
D. Relaxation
La relaxation caractérise le retour à l'équilibre du système. Elle débute dès l'arrêt de l'émission
RF par l'antenne, donc dès la fin de l'excitation. L'étude de la relaxation permet la caractérisation du
système car le temps mis pour revenir à l'équilibre dépend des propriétés de la matière soumise à
l'expérience. Du point de vue vectoriel, au cours de la relaxation, ~0 remonte le long de l'axe
longitudinal (Mz), tout en perdant sa composante dans le plan transverse notée Mxy (elle suit en fait
le trajet inverse par rapport à celui qu'elle suit lors de l'émission RF).
1. Relaxation longitudinale T1
La relaxation longitudinale, dite relaxation T1, caractérise la repousse de l'aimantation le long de
l'axe de B0. Celle-ci s'explique par les interactions spin-réseau, par lesquels les spins excités
reviennent à l'état fondamental en dissipant l'énergie potentielle ΔEP séparant les deux niveaux vers
la matière environnante, principalement vers les électrons des atomes voisins (interaction
paramagnétique) ou, de manière moins importante, directement vers d'autres noyaux (interaction
dipôle-dipôle). Les spins revenant à l'état fondamental, celui-ci redevient majoritaire, et par
conséquent l'aimantation macroscopique revient dans le sens de TD .
La relaxation longitudinale est caractérisée par le temps de relaxation T1, qui correspond au
temps nécessaire pour que l'aimantation macroscopique remonte à 63 % de sa valeur sur l'axe formé
par TD . La définition de T1 est donnée par une loi exponentielle :
*ƒ
ãn = ã’ » − « ç»
Nous considérons qu'après cinq fois le temps de relaxation T1, l'aimantation macroscopique est
entièrement retenue à son niveau M0 initial qu'elle avait avant l'excitation du système (" 97 %).
La relaxation transverse est caractérisée par le temps de relaxation T2, défini lui aussi selon une
loi exponentielle. Le temps T2 correspond au temps auquel l'aimantation transverse est égale à 37 %
du niveau qu'elle avait avant le début de la relaxation. Nous définissons T2 :
*ƒ
ãj∆ = ã’ «çé
Ici encore, nous considérons qu'après 5 T2, la relaxation est quasiment terminée, sachant que
l'aimantation macroscopique est alors inférieure à 3 % de son niveau initial avant le début de la
relaxation.
Le temps T2 dépend de la matière étudiée. Plus les molécules sont libres (par exemple, un
liquide comme l'eau) plus les noyaux sont éloignés entre eux et moins les interactions entre spins
sont probables : alors plus T2 est grand. À l'inverse, plus la matière est rigide, plus les molécules sont
bloquées, plus les interactions spins-spins sont faciles et, la relaxation est plus rapide (T2 sera petit).
3. Relaxation T2*
La relaxation T2* est une correction appliquée par les appareils de RMN pour prendre en
compte les inhomogénéités du champ B0. Il est aujourd'hui malheureusement impossible d'obtenir
un champ magnétique parfaitement homogène. Les légères inhomogénéités inévitables du champ B0
sont responsables d'une variabilité dans la fréquence de Larmor ω des spins. En conséquence, lors de
la relaxation, le déphasage des spins est accéléré par le fait que tous les spins ne précessent pas à la
même vitesse angulaire.
La décroissance de l'aimantation transverse apparaît donc plus rapide qu'elle n'est censée l'être
selon T2. Le temps T2* prend donc en compte le déphasage attendu ainsi que le déphasage
supplémentaire dû aux inhomogénéités B0, représenté par T2'. T2* est toujours inférieur à T2. Nous
définissons T2* :
1 1 1
∗ = + ï
R R R
4. Phénomènes moléculaires
La matière a une influence sur les temps de relaxation T1 et T2. Selon ses caractéristiques,
notamment son état d'hybridation, les temps de relaxation seront différents, ce qui permettra par la
suite d'établir des contrastes entre les différents tissus de l'organe imagé par IRM.
Nous voyons que plus les molécules du milieu sont libres (plus le milieu est hydraté), plus les
temps de relaxation sont grands. Inversement, plus le milieu est compact, plus le temps de relaxation
est faible. T1 fait exception à cette dernière règle car, au-delà d'un certain point, T1 augmente avec la
rigidité. Toutefois, ce phénomène entrant en compte au-delà de la rigidité de l'os, il ne concerne pas
l'IRM du corps humain.
À titre d'exemple, le tableau ci-dessous présente les temps de relaxation de trois tissus
d'hydratations différentes retrouvés dans le cerveau : la substance blanche (SB) composée
principalement de graisse, la substance grise (SG) composée de corps neuronaux et le liquide
cérébrospinal (LCS). Nous remarquons que les temps de relaxation sont bien corrélés à l'état
d"hydratation de la matière. Nous remarquons également que T2 est bien toujours inférieur à T1,
avec un rapport d'environ 1/10.
Le signal enregistré par l'antenne RF est appelé signal de précession libre (ou FID pour Free
Induction Decay en anglais). Ce signal est une sinusoïde (à cause de la précession de ~, sa projection
sur l'axe de l'antenne n'est pas constante) exponentiellement décroissante selon T2* : le FID mesure
la relaxation transverse étant donné que la mesure est effectuée dans le plan transverse.
En spectroscopie RMN, nous nous contentons de ce signal RMN auquel nous appliquons une
transformée de Fourier pour retrouver des pics de fréquence, aisément identifiables et comparables
d'un échantillon à l'autre.
Lorsque nous appliquons la transformée de Fourier à un signal RMN (composé des multiples
fréquences), nous obtenons un spectre dont les pics permettent d'identifier les molécules présentes
dans l'échantillon. L'IRM peut être couplée à la spectroscopie RMN pour faire de l'imagerie
fonctionnelle. L'image ci-dessous en est un exemple en IRM cérébrale :
Spectroscopie RMN clinique couplée à l'IRM (exemple d'un spectre de cerveau mesuré à 7 T chez l'homme).
Pour l'IRM, la méthode pour obtenir une image est globalement la même, avec une dimension
supplémentaire. Tous les signaux d'une coupe, codés par des fréquences différentes selon leur
localisation sont enregistrés dans un plan nommé espace des K (fréquence spatiale). En appliquant
une double transformée de Fourier inverse (à l'échelle bidimensionnelle) à cet espace des K, nous
sommes en mesure de revenir dans le domaine spatial et d'obtenir une image IRM.
La séquence d'écho de spin est très ancienne. C'est une séquence de saturation-récupération
qui débute donc par une impulsion à 90°. Elle a permis de résoudre le problème de la rapidité de la
relaxation T2* qui est telle qu'il est difficile d'interpréter le signal RMN obtenu dès la fin de
l'impulsion initiale. La séquence inclut deux paramètres, le temps d'écho TE et le temps de répétition
TR, qui sont choisis par l'opérateur en fonction du contraste qu'il souhaite donner à l'image.
2. Elle commence par une impulsion RF de saturation, qui permet la bascule à 90° dans le
plan (xy) de l'aimantation macroscopique. Dès l'arrêt de l'impulsion, l'antenne récupère
le signal de précession libre dû au déphasage progressif des spins.
Ñ«
3. Après un temps égal à , une deuxième impulsion RF est émise, à 180° dans le plan
R
(xy) cette fois, permettant de retourner dans ce plan les spins en cours de déphasage.
Les spins ne précessant pas tous à la même vitesse angulaire, certains sont en avance
sur les autres (c'est la définition du déphasage). Les spins les plus en avance, une fois
retournés, deviennent les plus en retard, et inversement.
4. Mais les spins conservent chacun leur vitesse angulaire. Ainsi, les spins dorénavant les
Ñ«
plus en retard rattrapent les autres. Les spins se rephasent et, après un temps , après
R
l'impulsion à 180° (ou après un temps TE après l'impulsion à 90°), l'antenne enregistre
le signal de rephasage qui forme un écho de spin, dont la décroissance est fonction du
temps de relaxation T2*.
L'écho de spin permet donc de mesurer la relaxation T2*. La mesure de la relaxation T1 est plus
délicate, car il est impossible de mesurer la repousse de l'aimantation longitudinale directement sur
l'axe longitudinal (pour rappel, à cause de l'intensité de B0). Pour mesurer la relaxation T1, il est
nécessaire de faire basculer ~ dans le plan transverse, de la mesurer à ce moment-là (il s'agit du
point initial, le plus haut, du signal de précession libre) puis de laisser la relaxation longitudinale
débuter, ~ remontant alors le long de TD . Après un cours laps de temps, ~ est rebasculée dans le
plan transverse pour pouvoir être mesurée à nouveau, et ceci est répété plusieurs fois pour pouvoir
établir plusieurs points de mesure de la relaxation longitudinale, à partir desquels l'ordinateur pourra
retracer la courbe de relaxation T1. Le temps séparant deux impulsions à 90° est appelé temps de
répétition, noté TR. Il est choisi suffisamment court pour que la relaxation longitudinale n'ait pas le
temps de se terminer avant d'avoir pu mesurer plusieurs points.
En jouant sur les deux paramètres TE et TR, l'opérateur de l'IRM peut modifier la pondération de
l'image en accentuant l'effet d'une relaxation ou d'une autre et ainsi modifier son contraste. Pour
faire une analogie, la séquence peut s'apparenter à un point de vue particulier sur le signal, et la
pondération à l'éclairage qu'on lui apporte pour mieux le visualiser. Les choix de séquence et de
pondération définissent l'image finale observable.
Obtenir une image en pondération T1 signifie accentuer l'effet de la relaxation T1 sur l'image, par
le choix de TE et TR particuliers. Pour maximiser l'effet de T1 sur le signal, nous choisissons un temps
de répétition court, permettant de maximiser l'écart de signal entre deux tissus de relaxations T1
différentes. En effet, si nous attendons trop longtemps, les deux aimantations reviennent à un niveau
presque identique à l'état initial et sont donc égales, rendant impossible la distinction des tissus
selon T1. Si nous attendons très peu, le signal est trop faible pour être mesuré. Dans le même temps,
nous cherchons à minimiser l'effet de la relaxation T2. Pour cela, l'opérateur choisit un temps d'écho
court. Ainsi, le déphasage des spins ne dure que très peu de temps et nous ne pourrons pas encore
voir de différence de déphasage entre deux tissus.
En pondération T1, les tissus avec un temps de relaxation T1 court apparaissent en hypersignal,
car l'aimantation remonte vite sur l'axe longitudinal, générant un signal fort. Sur l'image du cerveau,
en pondération T1, la substance blanche (tissu peu hydraté donc avec un plus petit temps de
relaxation T1) apparaît donc blanche, la substance grise (plus hydratée, donc T1 est un peu plus
grand) apparaît grise et le liquide cérébrospinal (T1 très grand) apparaît noir.
Pondération T1 : TE et TR courts.
Pour obtenir une image en pondération T2, l'opérateur cherche le contraire de la pondération
T1. Pour maximiser les différences de relaxation T2, il choisit un temps d'écho long, laissant les spins
se déphaser, et par là, laissant le temps aux différences de déphasages d'apparaître entre des tissus
différents. Pour minimiser l'effet de la relaxation T1, il prend un temps de répétition long. Ainsi toutes
les aimantations macroscopiques ont le temps de remonter le long de TD quelle que soit leur vitesse
de relaxation, et les différences s'effacent.
En pondération T2, les tissus apparaissant en hypersignal sont ceux avec un temps de relaxation
élevé, dont l'aimantation transversale ne diminue que lentement et donnant donc un signal dans le
plan transverse. Ainsi, le liquide cérébrospinal apparaît clair, la substance grise est toujours de
couleur intermédiaire et la substance blanche apparaît noire (en hyposignal).
Pondération T2 : TE et TR longs.
Il est aussi possible de faire une pondération en densité de protons. Le but de cette pondération
est de minimiser à la fois l'effet de la relaxation T1 et l'effet de la relaxation T2, pour ne garder qu'un
signal qui serait uniquement dépendant du nombre de protons (pour rappel, ce sont les protons qui
fournissent le signal RMN). Nous choisissons alors, pour les mêmes raisons que dans les autres
séquences, un TE court et un TR long. L'image varie selon la quantité de protons dans les tissus, donc
globalement selon la quantité d'eau qui y est présente.
C. Séquence d'inversion-récupération
La séquence d'inversion-récupération repose globalement sur les mêmes principes que la
séquence de saturation-récupération (celle décrite jusqu'à présent). Pour principale différence, la
séquence d'inversion-récupération débute par une impulsion à 180°. Le principe de cette impulsion
est d'inverser l'aimantation macroscopique pour la rendre antiparallèle à T0 (nous inversons le
rapport n+/n-). Pour la relaxation T1, l'aimantation devra alors remonter depuis les valeurs négatives
au lieu de partir d'une valeur nulle. La relaxation T1 suit alors la loi :
*Ç
~¡ = ~D 1 − 2# Ñú
Après un temps TI, nous effectuons toutes les étapes d'une séquence d'écho de spin classique.
Ainsi, une séquence d'inversion-récupération peut elle aussi être pondérée selon T1, T2 ou en densité
de protons.
Séquence d'inversion-récupération.
Le choix du temps d'inversion est très intéressant pour l'opérateur. En effet, si nous choisissons
ce temps pour que l'impulsion à 90° ait lieu au moment où l'aimantation longitudinale d'un tissu
connu repasse par zéro sur l'axe TD , alors celle-ci ne sera pas mesurée. Par le choix du T1, nous
sommes donc en mesure d'exclure le signal d'un tissu de l'image IRM. Nous citerons deux exemples
de séquences d'inversion-récupération :
D. Du signal à l'image
Hormis les explications sur la transformée de Fourier données précédemment, la formation de
l'image à partir du signal récupéré par l'antenne n'est pas au programme du cours de PACES.
Néanmoins, voici quelques informations pour les plus curieux.
Des bobines de gradient permettent de créer des gradients de champs magnétiques. Il en existe
trois, un pour chaque axe du repère tridimensionnel utilisé. L'effet de ces gradients va être de
modifier soit la fréquence de résonance, soit la phase des spins (selon le même principe), ce qui
permettra ensuite d'identifier d'où provient le signal, en fonction de sa localisation sur l'axe.
Le gradient de coupe (Gz) est appliqué sur l'axe z (axe tête-pieds du patient) au moment de
l'émission RF. L'application simultanée d'un gradient Gz et d'une onde RF sélective en fréquence
(bande d'excitation large de quelques Hz) permet de sélectionner uniquement les fréquences de
résonance des protons de la coupe que l'on cherche à étudier.
Le gradient de phase (Gy) est appliqué sur l'axe y pendant le temps d'écho. Il permet de
déphaser les spins selon l'axe y. Ainsi, tous les spins d'une même possèdent la même phase. À
chaque répétition de la séquence (après le TR) nous changeons le gradient Gy afin de donner une
autre phase et d'enregistrer la ligne suivante (d'où les temps relativement longs d'un examen d'IRM
par rapport au scanner). Il faut donc répéter la séquence autant de fois qu'il y a de lignes sur l'image
(généralement 256 ou 512).
Le gradient de lecture (Gx) est appliqué pendant l'enregistrement du signal par l'antenne, sur
l'axe x. Il permet de modifier la fréquence de Larmor des spins en fonction de leur position sur une
colonne. Ainsi, selon la fréquence du signal reçu, nous sommes capables de replacer chaque spin au
bon endroit sur la ligne et la colonne dont il provient.
L'intégralité des signaux est récupérée sous forme de signaux acquis dans le domaine temporal,
dans un plan appelé plan de Fourier ou espace des K. Nous obtenons une image en appliquant une
double transformée de Fourier (2D) inverse selon des lignes (y) et des colonnes (x) permettant de
passe du domaine des fréquences spatiales au domaine spatial, celui de l'image réelle.
L'IRM est une méthode d'imagerie en évolution constante. Aujourd'hui, elle permet d'obtenir
des images de qualité d'une grande partie des tissus du corps humain (à l'exception des poumons,
excepté avec des techniques particulières d'IRM). Selon les paramètres utilisés pour l'expérience, les
images peuvent être très différentes. Voici quelques exemples :
Images d'IRM.
Mais à la différence du tomodensitomètre (scanner à rayons X), l'IRM n'est pas qu'une
technique d'imagerie structurelle. L'utilisation de techniques complexes permet d'en faire une
imagerie métabolique et/ou fonctionnelle. Par exemple, l'étude du déplacement des spins dans les
vaisseaux permet d'étudier les flux sanguins artériels ou la perfusion de certains organes (pour
information, la perfusion représente l'apport sanguin d'un organe). Les principes de spectroscopie
RMN (déplacement chimique δ sur le spectre) peuvent être appliqués pour acquérir un ou plusieurs
spectre(s) d'un organe et mesurer in vivo la concentration de certains métabolites comme les
neurotransmetteurs dans le cerveau ou l'ATP dans les muscles (ou même le pH). Des séquences
complexes contrastées en T2* comme la séquence de contraste BOLD permettent d'étudier
l'activation des aires cérébrales selon l'activité neuronale. Ce type d'imagerie fonctionnelle est très
utile en neurosciences par exemple.
Partie 5
DOMAINE DE
L'OPTIQUE
Optique géométrique
Rédigé à partir du cours du Pr SCHEIBER
I. Introduction
A. Définitions
L’optique est la branche de la physique qui traite de la lumière et de la vision. Son importance
est considérable dans divers domaines notamment dans les chirurgies LASERS, dans le monde de la
télécommunication (fibres optiques), etc.
¡ = ”ƒ
§ ¡ : énergie du photon,
§ ƒ : fréquence du photon,
§ ” : constante de Planck.
Selon De Broglie, à toute onde est associée une particule (et vice-versa) : c'est le principe de
dualité onde-particule.
H : indice de réfraction
√ √
Dans un milieu diélectrique amagnétique : yñ = 1, ∏¸ = = .
eŒ H
On note que la vitesse d’une OEM dans un matériau quelconque est toujours inférieure à sa valeur
dans le vide (c = 3.108 m.s-1), de sorte qu’un indice de réfraction est toujours ≥ 1.
Matière Indice n
Air 1
Eau 1,333
Verre léger CROWN 1,517
Verre lourd FLINT 1,647
Diamant 2,417
å È_ = H. E
Avec :
§ å(È_) : le chemin optique entre A et B ;
§ H : l’indice de réfraction du milieu ;
§ E : la distance entre A et B.
å È_ = å Èã + å ã_ = H» E» + Hé Eé
Principe de Fermat : le trajet emprunté par la lumière entre deux points A et B est tel que le
chemin optique entre ces deux points est extrémal (le plus souvent minimal). Pour aller du point A au
point B, la lumière emprunte donc le trajet prenant le moins de temps.
Premières conséquences :
§ Dans un milieu homogène et isotrope, la lumière se propage en ligne droite ;
§ Déviation de la lumière par un dioptre : se référer aux lois de Descartes ;
§ Principe du retour inverse de la lumière : le trajet suivi par la lumière pour aller d’un
point à un autre ne dépend pas du sens de propagation de la lumière ;
§ Indépendance des rayons lumineux : la trajectoire d’un rayon lumineux n’est pas
affectée par les rayons voisins. En termes corpusculaires, les photons n’interagissent
pas entre eux.
B. Lois de Descartes-Snell
Il s’agit de deux lois fondamentales :
1. Première loi
Attention. – Tous les angles sont mesurés par rapport à la normale ; sinon, cette loi n'est plus
vérifiée.
H» . ≈‹H ‹» = Hé . ≈‹H(‹é )
Quand un rayon traverse un dioptre, il change de direction. Le phénomène est aisément visible
si les indices n1 et n2 sont assez différents.
Quand le rayon passe d’un milieu 1 à un milieu 2 dans lesquels n1 < n2 le rayon réfracté se
rapproche de la normale et vice-versa.
H»
≈‹H ‹å =
Hé
Pour retrouver la valeur de iL, faire le calcul : arcsin (n1/n2), le résultat est ici de 48,6°. Cet angle
limite implique que tous les rayons provenant de l'air passant par le point O se propageant dans l'eau
seront obligatoirement dans le cône de 1/2 angle au sommet iL.
Angle critique.
Hé
≈‹H ‹1 =
H»
Remarque Que ce soit pour l’incidence rasante ou l’émergence rasante, on fait toujours « la plus
petite valeur divisée par la plus grande » ce qui dans les 2 exemples ci-dessus correspond à
nair/neau = 1/1,33 et nair/nverre = 1/1,5. Cela s’explique par le fait qu’on ne peut pas avoir un sinus
supérieur à 1 donc le rapport doit forcément être inférieur à 1.
Utilisation d’un prisme comme miroir : exemple d’un prisme à 45°. L'angle critique serait ici
d'environ 42°.
D. Loi de Kepler
Pour des petits angles d’incidence, on peut réaliser l’approximation NO0 O = O (O étant en
radians). Nous obtenons ainsi la loi de Kepler :
H » ‹» = H é ‹é
Les équations de Maxwell permettent de prédire les intensités réfléchies/réfractées. Notez que
nous nous référons à des rayons d'incidence normale : pour une incidence quelconque, les
coefficients de réfraction/réflexion seraient plus compliqués que ceux proposés ci-dessous.
1. Coefficient de réflexion
^ñ 0R − 0? R
=
^œ 0R + 0?
2. Coefficient de réfraction
^Ñ 40? 0R
=
^œ (0? + 0R )²
G. Phénomène de dispersion
L’indice de réfraction dépend de la longueur d’onde, donc les composantes d’un faisceau
polychromatique se propagent différemment. Ce phénomène est à l'origine de la formation d'arcs-
en-ciel par réfraction différente des longueurs d'onde de la lumière polychromatique émise par le
soleil dans les gouttes d'eau.
1. Conventions de signe
§ Mesures algébriques
- Valeur absolue BP : distance entre O et A
- Signe : selon orientation par rapport à l’axe optique
Par convention, l’axe optique est orienté dans le sens de propagation de la lumière.
Stigmatisme rigoureux. – Un système optique est dit rigoureusement stigmatique pour un couple
de points A et A’ si tous les rayons lumineux issus du point A passent par le point A’ après
passage à travers le système optique. Le seul exemple est représenté par le miroir plan.
Stigmatisme approché. – Beaucoup de systèmes optiques (ex. : dioptres sphériques) ne sont
stigmatiques que dans les conditions de Gauss.
Conditions de Gauss (ou approximation de Gauss). – On ne considère que les rayons
« paraxiaux » (rayons proches de l’axe optique convergents vers un même point). Même dans les
conditions de Gauss, certains systèmes (ex. : lentilles cylindriques ou toriques) sont astigmates
(non stigmatiques).
Le foyer image F’ est l’image d’un point situé à l’infini. Les rayons parallèles à l’axe (objet à
l’infini) passent par F’ après traversée du système optique.
Le foyer objet F est le point de l’axe optique dont l’image se trouve à l’infini. Les rayons passant
par F deviennent parallèles à l’axe optique (« focalisent à l’infini ») après traversée du système
optique.
Èï _ï
N=
È_
I. Dioptres sphériques
Le dioptre est stigmatique dans les conditions de Gauss.
§ xP : position de l’objet,
Ces 3 grandeurs sont reliées par la formule conjugaison du dioptre sphérique énoncée ci-après.
1. Formule de conjugaison
Hé H» Hé − H»
− =
XÈ′ XÈ X1
Ecriture abrégée :
Hé H» Hé − H»
− =
¬′ ¬
Avec :
§ p’ = xP′
§ p = xP
§ R = x`
Hé H»
− =’
¬′ ¬
H» π
!=−
Hé − H»
4. Vergence
H» Hé Hé − H»
^=− = ï =
! ! π
§ la vergence s’exprime en dioptrie (1 dioptrie δ = 1 m-1),
§ R en m.
5. Construction graphique
6. Lentilles
Lentille – Correspond à la combinaison de 2 dioptres de même axe optique (système centré).
Lentille mince – Lentille dont l'épaisseur est négligeable.
» » » »
− = ï=− =^
¬′ ¬ ! !
Avec :
§ p = BP § f’ = B_′
§ p’ = BP′ § D = vergence
§ f = B_
7. Construction graphique
§ Le rayon 2 parallèle à l’axe dans le milieu objet passe par F’ après traversée de la lentille.
«
^ = ^» + ^é − ^ ^
Hé » é
Avec :
§ ^» «ƒ ^é : vergence des faces (dioptrie),
§ « : épaisseur de la lentille (en m),
§ ^ : vergence vraie ou cardinale,
§ ^» + ^é : vergence sphérométrique.
Optique ondulatoire
Rédigé à partir du cours du Pr SCHEIBER
I. Historique
§ Huygens formule son principe décrivant la propagation de la lumière, assimilée à une onde.
§ L'expérience des fentes d'Young illustre le caractère ondulatoire de la lumière. Le principe
d'Huygens permet de l'expliquer.
§ Maxwell met au point son système de quatre équations (les équations de Maxwell) pour
décrire la propagation des ondes électromagnétiques. Il énonce clairement que la lumière
est une onde électromagnétique.
§ Louis de Broglie théorise la dualité onde-corpuscule ; toute onde de longueur d'onde e peut
”
être modélisée par une particule de quantité de mouvement . : Ö = (ℎ : cstante de Planck).
¬
Si la lumière est une onde électromagnétique, on peut également la décrire grâce à une
particule, le photon.
« Onde plane ». – Signifie grossièrement qu'à chaque instant les vecteurs de l'onde sont dans un
plan normal à l'axe de propagation. Plus rigoureusement, on dit que le front d'onde (ou surface
d'onde), qui est l'ensemble des points de phase égale (= même temps de parcours) depuis
l'émission à la source, est un plan orthogonal à l'axe de propagation.
« Monochromatique ». – Signifie que l'on considère une fréquence " donnée. On travaillera
plutôt avec des pulsations : s = 2[. " (rad.s-1).
Une onde plane est une onde dont les fronts d'onde sont des plans
orthogonaux à la direction de propagation, ici représentée par la flèche.
Pouce áU
Index z donc á@
Majeur T est selon á:
Remarque. – Va suivre une astuce pour mieux assimiler les notions de trièdre direct, produit
vectoriel et règle de la main droite.
Considérons que les trois directions de l'espace sont décrites par le trièdre direct usuel
(á@ ; á: ; áU ). Écrivons au brouillon : - Ó ï - Ó ï en respectant bien l'ordre du trièdre.
Si un produit vectoriel, ou si la règle de la main droite fait intervenir deux lettres côte à côte dans
le sens de lecture de gauche à droite, alors le troisième vecteur recherché est celui écrit à leur
droite.
Si un produit vectoriel, ou si la règle de la main droite fait intervenir deux lettres côte à côte dans
le sens inverse, c'est-à-dire de droite à gauche, le troisième vecteur recherché est celui écrit à leur
gauche, mais il doit être affublé d'un signe "−".
Exemples :
- =‚ ⋀=Ë = =£ , car ‚ → Ë → £ ;
Considérons une OEM plane polarisée linéairement selon =£ (donc ¡ est selon =£ ). L'axe de
propagation est selon =‚ .
Alors (=‚ ; ¡£ ∗ =n ; _) forme un trièdre direct. On a : Ë ← £ ← ‚, donc _ est selon −=Ë .
Équation d'onde :
°é ¡‚ °é ¡‚
= k’ . e’ .
°£é °ƒé
°é _Ë °é _Ë
= k’ . e’ .
°£é °ƒé
3. Mouvement harmonique
Considérons une masse { suspendue à un ressort de raideur l et de
longueur à vide oD dans le champ de pesanteur comme ci-contre.
_ = {. < = 0
Ü+ =0
La position o‘< est prise comme origine de l'axe y. À la longueur du ressort o‘< , la position de la
masse est en Ó = 0.
àRÓ
_ = {. .á
àS R :
àRÓ
{C. á: − l. (∆oD + Ó)á: = {. .á
àS R :
En projetant sur l'axe Ó :
àRÓ
{C − l. (∆oD + Ó) = {.
àS R
Or {C = l. ∆oD , d'où :
àRÓ
{. = −l. Ó
àS R
·é Ë 6
+ Ë=’
·ƒé …
6
§ On note Ã’ = . Avec sD la pulsation propre du ressort (rad.s-1).
…
é#
§ On associe à sD une période propre D (s) telle que : ç’ = .
Ã’
·é Ë
+ Ã’ é . Ë = ’
·ƒé
Ë(ƒ) = È. ≈‹H(Ã’ . ƒ + ¸’ )
Remarque. – D'autres ondes mécaniques telles que l'onde transversale d'une corde vibrante ou
les ondes longitudinales que sont les ondes sonores répondent à une équation différentielle de
cette forme.
J R z@ J R z@
= y .
D Df .
Jï R JS R
Solutions de l'équation d'onde :
¡ £; ƒ = È. √F≈ Ã − 6£ + à =‚
¡(£; ƒ) = È. √F≈ Ã + 6£ + à =‚
Dans un milieu autre que le vide mais amagnétique (la perméabilité magnétique est toujours
égale à yD ), la permittivité électrique est multipliée par la permittivité relative fñ : f = fD ×fñ .
La permittivité électrique relative est égale, par définition, au carré de l’indice de réfraction 0
du milieu : fñ = 0R .
La vitesse de propagation des ondes électromagnétiques dans ce milieu est donnée par :
1 1 1 Q
r= = × =
fD ×fñ ×yD fD ×yD fñ 0
√
=
H
§ La période spatiale des champs est appelée longueur d’onde, c'est le paramètre e.
§ Pour l’onde représentée ici, le champ électrique est toujours horizontal. Cela
correspond à un état de polarisation particulier : une polarisation rectiligne.
Description mathématique des champs électrique et magnétique dans le cas d'une OEM plane
polarisée linéairement selon l'axe -, la direction de propagation est selon +Uz.
§ La valeur du champ électrique varie à la fois avec le temps (S) et l’espace (ici ï, la
coordonnée intervenant est celle qui correspond à la direction de propagation).
Ici, la direction du vecteur électrique reste selon á@ : l’onde est polarisée linéairement selon á@ .
§ _ évolue en phase avec le champ électrique (même pulsation à et même phase Ã), avec
¡’
une amplitude égale à dans le vide.
√
é# é#
Ã= = é#. ƒ 6=
ç Ö
§ Ã désigne la pulsation (rad.s-1) § 6 est le nombre d'onde (rad.m-1)
§ ƒ désigne la fréquence (s-1) § Ö est la longueur d'onde (m)
§ ç désigne la période (s)
à Ö
Le lien entre les deux est donné par la vitesse de propagation de l'onde : = = .
6 ç
C. Ondes sphériques
Les ondes sphériques sont également solution des équations de Maxwell. Elles décrivent la
lumière émise dans toutes les directions par un point-source. Ce type d'onde va jouer un rôle dans
les phénomènes de diffraction et va intervenir dans l’énoncé du principe de Huygens.
¡’
¡(ƒ; Œ) = . √F≈(Ã. ƒ − 6. Œ + Ã)
Œ
Les détecteurs (comme l'œil, les caméras ou les photodiodes) sont sensibles au carré
du champ électrique, que l'on nomme intensité (notée À).
Considérons une onde plane monochromatique. En un point donné par exemple, les oscillations
en fonction du temps du champ électrique sont représentées par : z = zD . QBN(sS)á@ .
À = ¡. ¡ = ¡’ é ∗ √F≈é (Ã. ƒ)
Remarque. – Le "carré d'une grandeur vectorielle" correspond à son produit vectoriel avec lui-
même.
La valeur moyenne d'une fonction périodique :(S) de période est notée :(S) . On a :
$(Ñ
1
:(S) = :(S)àS
$
»
√F≈é (‚) =
é
»
À = ¡’ é ∗ √F≈é Ã. ƒ = ¡’ é ∗
é
¡’ é
À=
é
§ la diffraction : phénomène de déviation des ondes (peu importe leur nature, elles
peuvent être lumineuses comme acoustiques par exemple), lorsqu'elles passent au
voisinage d'un obstacle.
A. Interférences
1. Conditions pour qu'il y ait interférence
Les interférences sont un phénomène qui survient lorsqu’on met en présence plusieurs ondes
électromagnétiques différentes. Nous allons prendre l’exemple plus simple de deux ondes
superposées en un même point de l’espace :
Remarque. – La démonstration de la nécessité d'avoir la même fréquence pour les deux champs
peut être intéressante à comprendre pour savoir faire certains exercices.
Supposons que les deux champs en présence n'aient pas la même fréquence. Ils admettent pour
expression mathématique : z? = P. QBN(s? S)á@ et zR = P. QBN(sR S)á@ .
Nous avons :
§ ^Ñ„Ñ = zÑ„Ñ = z? R + zR R + 2. z? . zR
?
Or QBNP. QBNT = QBN(P − T) + QBN(P + T) × , d'où :
R
1
z? . zR = PR × × QBN( s? − sR ×S) + QBN( s? + sR ×S)
2
Ces cosinus correspondent à des variations rapides avec une moyenne nulle au cours du temps :
z? . zR = 0. Quand les pulsations w1 et w2 sont différentes : il n’y a pas d’interférences.
2. Effet du déphasage
Considérons que nos champs électriques ne sont pas synchrones mais qu'ils vibrent à la même
fréquence, l'un est en déphasage par rapport à l'autre :
*ó
§ z? = P. QBN(s. S)á@ avec ^? = z? R = PR × QBN R (s. S) =
R
*ó
§ zR = P. QBN(s. S + π)á@ avec ^R = zR R = PR × QBN R (s. S + π) =
R
On a ^Ñ„Ñ = ^? + ^R + 2. z? . zR , avec :
?
Or QBNP. QBNT = QBN(P − T) + QBN(P + T) × , d'où :
R
PR
z? . zR = × QBN(2. sS + π) + QBN(π)
2
PR
z? . zR = × QBN(2. sS + π) + QBN(π)
2
é. ¡» . ¡é = Èé ×√F≈(Ã)
Les champs sont en phase quand le déphasage Les champs sont en opposition de phase
est un multiple de 2[ : quand le déphasage est de la forme :
Les champs z? et zR passent par leurs minima Quand un champ est à son maximum, l'autre
et maxima aux mêmes moments. Si les est à son minimum. Si les amplitudes sont
amplitudes sont égales, z? = zR . égales, z? = −zR .
Dans ce cas : Dans ce cas :
¡çflç = ¡» + ¡é = é. ¡» ¡çflç = ¡» + ¡é = ’
Alors :
^Ñ„Ñ = z R Ñ„Ñ
B. Diffraction : prérequis
1. Principe d'Huygens
Surface d'onde : une surface d'onde (ou front d'onde) est l'ensemble des points situés à
chemins optiques égaux depuis le point source (même phase).
Illustration du principe d'Huygens. Chaque point d'un front d'onde va se comporter comme une source
ponctuelle. Les fronts d'ondes postérieurs résulteront de toutes ces nouvelles ondes sphériques.
Principe d’Huygens :
Chaque point d'une surface d'onde ΣD atteinte par la lumière à l'instant t D peut être considéré
comme une source secondaire qui émet des ondelettes sphériques.
À l’instant t postérieur à t D , la surface d’onde Σ est l’enveloppe des surfaces d’ondes émises par
les sources secondaires convenablement réparties sur ΣD .
Pour cela, chaque point de la surface d’onde est considéré comme un petit émetteur
(appelée « source secondaire ») émettant des ondelettes sphériques (dans un milieu
homogène). La surface d’onde à un instant ƒ postérieur à ƒ’ est alors l’enveloppe de toutes
ces ondelettes, c’est-à-dire la surface tangente à chacune d’entre elles.
2. Théorème de Malus-Dupin
Le théorème de Malus-Dupin fait la connexion entre les surfaces d’onde (vues en optique
ondulatoire) et les rayons lumineux (vus en optique géométrique).
Théorème de Malus-Dupin :
Remarque. – Dans l'exemple donné : 0R > 0? , la lumière se déplace moins vite dans le deuxième
milieu. Cependant un même laps de temps sépare les surfaces d'onde : pendant cette durée, la
lumière parcourt une longueur plus faible dans le deuxième milieu que le premier, d'où
l'inclinaison des surfaces d'ondes à l'interface à l'origine d'un rayon lumineux émergent dévié.
§ X : source de lumière
§ X» Xé : deux fentes minces (à égale distance de x), supposées ponctuelles.
§ L'écran est placé à grande distance de sorte que ] ≫ à et ] ≫ -
§ En un point ~ de l’écran, le signal résulte de l’interférence :
- de l’onde venant de x? (à une distance p? ).
- de l’onde venant de xR (à une distance pR ).
Selon le principe de Huygens, les deux points x? xR constituent des sources secondaires
émettant chacune une onde sphérique (ou, selon le théorème de Malus-Dupin, des rayons lumineux
dans toutes les directions). Le signal observé sur l’écran résulte alors de l’interférence de ces deux
ondes sphériques.
Remarque. – Puisque seule la largeur des fentes est responsable des franges lumineuses
observées sur l’écran, nous pouvons nous ramener à un problème à deux dimensions, dont les
données sont résumées par le schéma géométrique de droite.
2. Notion de phase/déphasage
Remarque. – Ces expressions sont obtenues via quelques simplifications : on considère que la
phase est nulle pour z? ; que l'amplitude est la même pour z? et zR ; que z? et zR ont la même
polarisation linéaire.
En toute rigueur, l’amplitude du champ électrique serait modifiée : pour une onde sphérique, plus
on est loin de la source, plus l’amplitude du champ électrique est faible.
Rk Rk
Considérons un champ électrique : z = zD . QBN(sS − . ï)á@ . Le terme . ï correspond au
Í Í
déphasage. À un temps donné, si on ne considère que la variation du champ en fonction de la
position sur l'axe ï :
Le déphasage entre deux ondes interférant va résulter de leur "différence de marche" : c'est-à-
dire de la différence de longueur entre leurs chemins optiques.
Œé *Œ»
∆à = é#.
Ö
La première étape consiste à utiliser le théorème de Pythagore dans deux triangles différents.
à à
p? R = ] R + (- − )R pR R = ] R + (- + )R
2 2
R R
-−à 2 -+à 2
p? = ]. 1 + pR = ]. 1 +
] ]
R
1 -−à 2
p? = ]. 1 + ×
2 ]
R
1 -+à 2
pR = ]. 1 + ×
2 ]
·
∆Œ = Œé − Œ» = ׂ
^
^Ñ„Ñ = zD R 1 + QBN(∆π)
∆œ
Or 2×QBN R (-) = 1 + QBN(2-), donc 1 + QBN(∆π) = 2×QBN R ( )
R
∆à é# ·
Àçflç = éס’ é √F≈é ( ) avec ∆à = × ‚
é Ö ^
#.·.‚
Àçflç = éס’ é √F≈é ( )
Ö.^
5. Interférences constructives/destructives
Les calculs étant terminés, nous allons utiliser la formule obtenue pour comprendre l’alternance
de franges lumineuses et sombres observées sur l’écran.
Les interférences peuvent être constructives (à gauche) et donner lieu à des maxima
d'intensités, ou destructivre (à droite) et donner lieu à des minima d'intensités.
Mathématiquement, la position - sur l'écran est Mathématiquement, la position - sur l'écran est
telle que : telle que :
#. ·. ‚ #. ·. ‚ è
=’ # = #
Ö. ^ Ö. ^ é
6. Interfrange
L'interfrange ∆- est la distance entre deux franges brillantes successives. Elle correspond à la
k.Å.∆@
périodicité spatiale observable sur l'écran et vérifie : =[
Í.S
Interfrange :
Ö.^
∆‚ =
·
L'interfrange ∆- :
§ augmente quand Ö ou ^ augmentent,
§ diminue lorsque · augmente.
Dispositif d'une fente étendue : une seule fente est considérée désormais.
§ On applique le principe d’Huygens en considérant que chaque point de la fente est une
source secondaire. On ne néglige plus la largeur de la fente.
§ Le signal observé sur l’écran résulte de l’interférence de toutes ces ondes secondaires.
Les démonstrations et étapes intermédiaires présentées dans cette partie sont plus difficiles et
plus exigeantes. Vous pouvez, dans un premier temps, chercher à comprendre les grands
principes en vous focalisant sur les résultats importants.
Pour exprimer le déphasage, il nous faut une expression de p, qui nous est donnée par le
théorème de Pythagore :
p R = ] R + (- − N)R
-−N R
p = ]. 1 +
]
¯ó
Avec les conditions : ] ≫ - ≫ N, le terme est négligeable. On ne le prend pas en compte
R.S
dans la suite des calculs. On obtient :
-R -. N
p≈]+ −
2. ] ]
@.¯
§ Dans cette expression, le terme est le seul faisant intervenir le paramètre N. C'est le
S
terme responsable des interférences.
Au point M, on a :
¡ = È. √F≈(Ã. ƒ − Ã(≈))
Avec :
é# ‚.≈
Ã(≈) = − .
Ö ^
On cherche l'intégrale d'une fonction de la forme :(-) = QBN(<. - + =) avec < et = des
?
constantes. Une primitive d'une telle fonction est _(-) = ×NO0(<. - + =).
$
$
2[. -. N R
NO0 sS +
e. ] *$
R
z(-; S) = P.
2[. -
e. ]
[. -. < [. -. <
NO0 sS + − NO0 sS −
z(-; S) = P. e. ] e. ]
2[. -
e. ]
$(& $*&
Or NO0(<) − NO0(=) = 2×QBN( )×NO0( )
R R
On multiplie par < au numérateur et au dénominateur pour retrouver quelque chose de la forme :
¯œ+a
qui correspond à la fonction sinus cardinal.
a
[. -. <
QBN(s. S) ∗ NO0( )
z(-; S) = P. <. e. ]
[. -. <
e. ]
^(-; S) = z R (-; S)
[. -. <
QBN R (s. S)×NO0R ( )
^(-; S) = PR . < R . e. ]
[. -. < R
e. ]
1 [. -. <
^(-; S) = PR . < R × R× QBN R (s. S) × NO0R ( )
[. -. < e. ]
e. ]
k.@.$ k.@.$ k.@.$
§ NO0R ( ) n'a pas de dépendance temporelle, donc NO0R ( ) = NO0R ( )
Í.S Í.S Í.S
?
§ QBN R (s. S) =
R
#.‚.∆
À(‚) ∝ ≈‹H√é ( )
Ö.^
≈‹H‚
Avec ≈‹H√(‚) = , ≈‹H√(’) = »
‚
4. Profil d'Airy
Le tracé de l'intensité lumineuse en fonction de la position sur l'écran s'appelle le profil d'Airy.
Comme pour les deux fentes ponctuelles, on observe sur l’écran une alternance de franges
lumineuses et sombres. Toutefois, à la différence des deux fentes, les franges ont des intensités
lumineuses variables, qui sont élevées au centre de l’écran et décroissantes à mesure qu’on s’en
éloigne.
§ l’intensité maximale est obtenue au centre de l’écran pour - = 0 : c’est là que les
interférences sont les plus constructives.
§ des intensités nulles sont obtenues lorsque l’argument du sinus cardinal est un multiple
de [ :
k.@.$
- = l. [ où l est un entier.
Í.S
- dans cette situation, le champ électrique total est nul : les interférences sont
destructives.
Pour une ouverture circulaire, le signal sur l’écran consiste en des franges concentriques
d’intensité décroissante à mesure qu’on s’éloigne du centre de l’écran. Le profil d’intensité :
§ ne dépend alors que de la distance Œ au centre de l’écran,
§ fait intervenir la fonction ≈‹H√é .
Pour une ouverture rectangulaire, le signal sur l’écran est fait de franges rectangulaires. Les
variations de l’intensité dans les directions horizontale ou verticale se font selon la fonction NO0Q R .
D'après le principe d'Huygens, la lumière arrivant d'un point source arrive sur la lentille en
donnant des sources ponctuelles secondaires dont les ondes sphériques interféreront et donneront
un profil d'Airy sur l'écran.
§ Dans le cas contraire, les images des deux objets seront confondues.
IV. Polarisation
A. Généralités
zD@ et zD: sont les amplitudes, π est le déphasage entre les deux projections suivant - et Ó.
Selon les valeurs de ces trois paramètres, trois états de polarisation vont être possibles :
rectiligne, circulaire (qui sont obtenus pour des valeurs bien particulières de ces paramètres), et
elliptique (cas le plus général).
B. Polariseurs
Un polariseur modifie l'état de polarisation de la lumière. La structure d’un polariseur possède
un axe privilégié et ne laisse passer que les composantes du champ électrique de la lumière incidente
selon cet axe.
Un polariseur permet notamment d’obtenir une polarisation rectiligne à partir d’un faisceau lumineux quelconque.
C. Loi de Malus
La loi de Malus décrit quantitativement le fonctionnement d'un polariseur dans le cas particulier
de la transmission d'une OEM de polarisation rectiligne.
Loi de Malus :
é
À∆¬Œè≈ = À∆ ∆Hƒ ×√F≈ (›)
D. Angle de Brewster
Les propriétés de polarisation de la lumière sont exploitées par plusieurs instruments de la vie
courante, tels que les lunettes et les appareils photo, le but étant dans les deux cas d’éliminer les
reflets des images formées.
L'angle de Brewster est un angle particulier pour lequel le rayon réfracté et le rayon
réfléchi sont orthogonaux. Le rayon réfléchi possède alors une polarisation rectiligne
totale que l'on peut facilement bloquer avec des polariseurs.
E. Phénomène de biréfringence
Les matériaux anisotropes ont un indice de réfraction dépendant de la polarisation des rayons.
§ si la polarisation suit les axes dits "ordinaires", l'indice est 0„ ,
§ si la polarisation suit l'axe dit extraordinaire, l'indice est 0‘ .
Un rayon lumineux de polarisation rectiligne présentant des composantes non nulles à la fois
selon les axes ordinaires et extraordinaire va se diviser en deux à la traversée d’un matériau
biréfringent : ses différentes composantes seront réfractées différemment à l’entrée et à la sortie du
cristal. Ceci explique la vision en « double » d’un objet à travers un cristal biréfringent.
LASER
Rédigé à partir du cours du Dr CRUT
Histoire
§ Description théorique de l’émission stimulée par Albert Einstein en 1917,
§ Invention du MASER en 1953 et idée de l’extension de la lumière par Charles Townes et
Arthur Schawlow,
§ LASER à rubis en 1960 par Maiman.
I. Amplification de la lumière
A. Processus d’interaction lumière / matière
L’interaction lumière-matière est au cœur du fonctionnement d’un LASER, nous allons décrire :
§ la quantification de l’énergie dans la lumière et dans la matière,
§ les mécanismes d’interaction entre la lumière et la matière.
1. La lumière
Pour interpréter les expériences mettant en jeu la lumière, on est obligé de la traiter tantôt
comme une onde, tantôt comme un ensemble de grains de lumière (les photons) : c’est la dualité
onde-particule.
¡ = ”– h = constante de Planck
2. La matière
Résultat (non intuitif !) de la physique quantique : il existe un ensemble discret d’états
accessibles, référencés par un indice n, correspondant chacun à une certaine énergie E(n).
er
Dans la formule ci-dessus, on voit que l’énergie dépend seulement de n (1 nombre quantique)
qui est un nombre entier : cette énergie est donc quantifiée.
L’absorption n’a lieu que si l’énergie du photon correspond à la différence d’énergie entre l’état
fondamental et l’état excité.
De même, l’énergie du photon émis correspond à la différence d’énergie entre l’état excité et
l’état fondamental. Le photon est émis dans une direction aléatoire de l’espace.
Pour cela, il est nécessaire d’obtenir une « inversion de population » : c’est-à-dire d’avoir plus
d’atomes dans un état excité que dans l’état fondamental. En effet, il faut que l’atome soit dans un
état initial excité pour obtenir une émission stimulée. En revanche, l’état initial d’une absorption est
l’état fondamental.
La probabilité d’un état à l’équilibre thermodynamique est donnée par le facteur de Boltzmann :
p : probabilité
*¡
E : énergie (Joule)
¬ ¡ ∝ « _ .ç
6
kB : constante de Boltzmann
T : température (Kelvin)
Nous pouvons voir que plus l’état demande de l’énergie, plus cet état est rare (moins il y a
d’atomes dans cet état). Donc à l’état d’équilibre thermodynamique, un état d’énergie élevée est
toujours moins peuplé que l’état fondamental. À l’état d’équilibre, il n’y a donc pas d’inversion de
population possible.
C. Modèles cinétiques
L’objectif est la prédiction (ou non) de l’inversion de population. Pour cela, nous allons décrire
quantitativement l’évolution de la population des états atomiques grâce à un modèle cinétique.
Équations cinétiques :
à∂‘ ∂‘
= s ∂“ − ∂‘ −
àS ‰‘
∂‘ + ∂“ = ∂
Ϋ Ã
= <1
Î! Ã + » Ï«
Ce résultat nous montre que le rapport « nombre d’atomes excités » sur « nombre d’atomes à
l’état fondamental » est inférieur à 1, il y a donc plus d’atome à l’état fondamental que d’atome à un
état excité : l’inversion de population est impossible pour un système à deux niveaux d’énergie.
Équations cinétiques :
à∂‘ ∂‘
= s ∂“ − ∂‘ −
àS ‰‘
à∂œ ∂‘ ∂œ
= +
àS ‰‘ ‰œ
∂‘ + ∂œ + ∂“ = ∂
∂‘ ‰‘
=
∂œ ‰œ
∂œ 1
= ≈ s‰œ
∂“ ‰‘ 1
+
‰œ s‰œ
Une inversion de population entre les états « i » et « f » est obtenue si le pompage est
suffisamment fort : s‰œ > 1.
Sur le même principe, les calculs montrent que l’inversion de population est automatiquement
réalisée sans condition sur le pompage. La plupart des LASERS fonctionnent sur ce principe.
Résumé :
§ L’émission stimulée est un phénomène qui permet potentiellement d’amplifier la lumière.
§ Pour obtenir effectivement cette amplification, il est nécessaire de réaliser une inversion de
population entre deux niveaux d’énergie.
§ Ceci nécessite un pompage (apport d’énergie). Une inversion de population ne peut être
obtenue qu’en utilisant au moins 3 (le plus souvent 4) niveaux d’énergie.
II. LASERS
A. Structure d'un LASER
B. Modes LASER
Nous allons voir que la/les longueur(s) d'onde émise(s) par un LASER résulte :
§ d'une condition reliant la longueur d'onde à la longueur de la cavité optique (optique
ondulatoire),
§ d'une condition sur le gain dans le milieu amplificateur (physique quantique).
1. Modes de cavité
Une cavité de longueur L ne permet que certains modes : 2L doit être un multiple de la longueur
d'onde du mode (de manière à obtenir une onde stationnaire).
Fréquences autorisées :
2o Q
e= =
0 :
√
!=H
éå
§ λ : longueur d'onde,
§ n : entier (en général grand),
§ 2L : longueur de la cavité (aller-retour),
§ c : vitesse de la lumière,
§ f : fréquence de la lumière (les fréquences autorisées sont les multiples de c / 2L).
Il existe une compétition entre l'amplification de la lumière au sein du milieu amplificateur et les
pertes qui ont lieu lors de la propagation de la lumière dans la cavité. En particulier, il existe
nécessairement des pertes au niveau du second miroir de la cavité, puisqu'on prélève une partie de
la lumière pour former un faisceau lumineux en sortie de LASER.
La lumière ne peut donc être amplifiée que si le gain dépasse les pertes (un résultat très intuitif,
mais que nous pouvons démontrer plus rigoureusement). Or, le gain dans le milieu amplificateur
dépend énormément de la longueur d'onde (comme nous l'avons vu précédemment, l'émission
stimulée requiert des photons d'énergie correspondant à celle de la transition atomique utilisée).
Pour cette raison, un LASER ne peut émettre que dans une gamme étroite de longueurs d'onde.
À∆¬Œè≈ = À∆ ∆Hƒ [é » − ç » − È
pertes)
3. Bilan : modes LASER
Les longueurs d'onde qu'un LASER peut émettre (ses « modes ») :
§ modes de cavité (2L = nλ) ;
§ longueurs d'onde dans la gamme étroite correspondant à un gain élevé : il existe des
LASERS monomodes et des LASERS multi-modes.
Un LASER émet dans une direction bien précise. De plus, le faisceau peut se propager sur de
longues distances sans diverger de manière significative.
Le dernier avantage de la lumière LASER est ce que nous appelons sa cohérence, c'est-à-dire le
fait qu'elle est la somme d'ondes qui ont toutes la même phase.
LASERS continus : le fonctionnement le plus courant d'un LASER est le fonctionnement continu
dans lequel le LASER délivre une puissance constante au cours du temps.
LASERS à impulsions : un LASER à impulsions permet de concentrer toute l'énergie lumineuse
pendant une très faible durée (environ 100 fs) ce qui permet d'atteindre des puissances très élevées.
Dans la vie courante, ils sont utilisés pour lire les codes-barres et les CD et leur aspect
esthétique est utilisé dans de nombreux spectacles.
La lumière LASER peut être utilisée pour le transport d'information sur de longues distances, et
a donc trouvé des applications importantes dans le domaine des télécommunications.
En recherche, les LASERS ont des applications innombrables : en biophysique, l'une d'elle est le
piégeage optique. Son principe consiste à utiliser un faisceau LASER fortement focalisé pour y piéger
des objets ; en effet, sous certaines conditions ces objets subiront une force tendant à les ramener
vers la région où un faisceau LASER est focalisé.
Cette propriété est très utilisée afin de manipuler de manière contrôlée des biomolécules
individuelles, par exemple des moteurs moléculaires. En général, les biomolécules ne sont pas
manipulées directement mais couplées à une bille qui est, elle, piégée par le faisceau LASER.
Le LASER est aussi bien utilisé à des fins d'imagerie et de contrôle, qu'à des fins de recherche ou
de soins proprement dits.
La chirurgie LASER permet des interventions moins lourdes et moins douloureuses pour les
patients, avec des temps d'hospitalisation réduits.
Exemple. – Il existe aujourd'hui des interventions LASER pour le traitement de la myopie. Dans un
œil myope, la lumière n'est pas focalisée sur la rétine. Avec un LASER, nous allons remodeler la
forme de la cornée pour que la lumière soit à nouveau focalisée sur la rétine.
Synthèse :
§ Un LASER est composé d'un milieu amplificateur inséré dans une cavité optique
Spectroscopie moléculaire
Rédigé à partir du cours du Pr SCHEIBER
Notes de la rédaction [NDLR]. – Ce cours reprend principalement les notes accompagnant les
présentations du professeur Scheiber : elles sont parfois remaniées, parfois accompagnées
d'éclaircissement ou simplement laissées telles quelles. Il est probable que ce cours soit plus
complet que les points abordés en amphithéâtre, néanmoins aucune notion exigible ne devrait en
être absente ou manquer d'explications. Ce cours fait appel à des notions complexes de physique
mais qui ne sont pas impossibles à comprendre. Travailler ce cours dans une optique de
compréhension et de mise en relation avec des notions d'autres cours devrait vous décharger
d’un travail fastidieux d'apprentissage par coeur (hormis les formules - dont peu sont nouvelles -
et certains exemples). Pour éviter toute confusion, nous attirons dès maintenant votre attention
sur le fait que le terme « lumière » dans ce cours fait parfois référence à une onde
électromagnétique quelconque (pas obligatoirement comprise dans le spectre visible).
I. Introduction
La spectroscopie moléculaire a pour but d’étudier les propriétés des molécules en utilisant leur
interaction avec les ondes électromagnétiques. En effet, les molécules sont capables d’absorber ou
d’émettre des radiations électromagnétiques dont les longueurs d’onde dépendent de leur nature.
§ l’émission de lumière dans toutes les directions de l’espace peut suivre l’absorption
d’une OEM (exemple de la fluorescence).
La longueur d’onde de l’OEM émise peut être différente de celle du rayonnement incident.
Remarque. – L’étude de ces différents processus permet d’obtenir des informations quantitatives
et qualitatives sur le système étudié.
Nous disposons tous d’un spectromètre naturel : l’oeil. Grâce aux cellules photoréceptrices qu’il
contient dans la rétine (cône et bâtonnets), il est capable de mesurer l’intensité et la couleur d’un
faisceau de lumière incident.
1 eV = 1,6.10-19 J
§ fréquence du photon (ƒ) : elle s’exprime en Hertz (1 Hz = 1 s−1). Elle est directement
reliée à l’énergie du photon par la relation :
¡ = ”ƒ
§ longueur d’onde dans le vide du photon (λ) : son unité SI est le mètre (m) mais elle est
plus souvent exprimée en μm ou nm pour les OEM dans le domaine de l’ultraviolet, du
visible et de l’infrarouge. Elle est reliée à fréquence par la relation :
√
ƒ=
Ö
Attention. – Cette relation n’est valable que dans le vide.
§ nombre d’onde du photon : en spectroscopie, il est défini comme 1/λ. Son unité SI est
donc le m-1, mais le cm-1 est plus communément utilisé.
Attention. – Cette définition diffère de la définition des physiciens du nombre d’onde, vue dans le
cours sur les OEM, pour lesquels :
é#
6=
Ö
Remarque. – Il existe une formule très utilisée en atomistique, permettant de relier facilement
une énergie en eV à une longueur d’onde en nm :
»éG’
¡ «∏ =
Ö(H…)
Chaque molécule possède un spectre d’absorption (ou d’émission) qui lui est propre et qui
constitue une véritable signature permettant de l’identifier en spectroscopie. Ce spectre résulte de la
quantification de l’énergie dans la matière, notamment au niveau des atomes et des molécules.
La physique classique est adaptée à l’étude des objets macroscopiques : les grandeurs
physiques y sont continues, c’est-à-dire qu’elles peuvent prendre des valeurs quelconques. Tandis
que l’étude de certaines propriétés microscopiques doit faire appel à la physique quantique, dont
l’un des résultats les plus spectaculaires est la quantification des grandeurs physiques (d’où elle tire
son nom) : ces grandeurs (par exemple l’énergie, le moment cinétique ou la quantité de mouvement
d’un électron) ne peuvent prendre que certaines valeurs bien particulières (on parle alors de
valeurs discrètes, par opposition à continues). Celles-ci font souvent intervenir la constante de
Planck (h = 6,63 x 10−34 J.s).
Exemple simplifié. – L’énergie mécanique d’une planète peut prendre n’importe quelle valeur
(dépendant uniquement des conditions initiales du mouvement) et il existe une infinité d’orbites
circulaires possibles autour d’une étoile. Au contraire, un électron, parce que son énergie est
quantifiée et restreinte à seulement certaines valeurs définies, n’a à sa disposition que des
orbites bien particulières pour tourner autour du noyau d’un atome.
Il existe deux conditions préalables à toute interaction entre une OEM et la matière.
L’absorption et l’émission sont dites résonantes : le terme marque le fait que l’énergie du photon
doit avoir exactement la valeur de la différence d’énergie entre les deux niveaux, initial et final, afin
que l’énergie totale du système matière + lumière soit conservée au cours du processus.
En outre, toute transition permise du point de vue énergétique n’est pas nécessairement possible : il
existe des règles de sélection (portant sur des critères non énergétiques) qui limitent les transitions
possibles. Ces règles ne seront rapidement abordées plus loin dans ce cours, il est important d’en
connaître l’existence (ces règles sont néanmoins à connaître parfaitement dans le cadre d’autres
cours d’UE3, cf. le cours « Rayonnements X et γ »).
En résumé, les deux conditions que doit remplir toute interaction lumière - matière sont le
respect des règles de sélection et la condition de résonance (conservation de l’énergie totale du
système) qui peut s’exprimer comme suit :
”ƒ = ¡” − ¡?
2. Effet Auger
L’effet Auger implique plus de deux niveaux d’énergie dans la matière. Si, dans un atome, une
couche électronique profonde dispose d’une case libre (par exemple suite à l’absorption d’une OEM
qui a éjecté l’électron initialement présent à ce niveau, ici E1), l’atome va se désexciter : un des
électrons d’une couche supérieure passe alors sur cette « orbite » (ici de E2 vers E1). Ce faisant,
l’énergie peut être libérée sous la forme d’un photon X (notamment pour les éléments légers), qui
pourra lui-même provoquer l’éjection d’un électron périphérique (ici sur le niveau E3). Cet électron
éjecté suite à une désexcitation s’appelle électron Auger. L’électron Auger emporte une énergie
cinétique égale à la différence entre l’énergie du photon X l’ayant éjecté (elle-même égale à la
différence d’énergie entre les niveaux E2 et E1, ici) et son énergie de liaison initiale (avant l’éjection,
E3 ici). La situation est résumée par les deux formules ci-dessous1 :
¡ = ”ƒ = ¡é − ¡»
» é
¡√ ≈ … = (¡é − ¡» ) − ¡/ = ”ƒ − ¡/
é
1
. – Les formules sont valables dans ce cas particulier. La numérotation des états énergétiques
étant susceptible de différer d’un énoncé à l’autre, il est recommandé de comprendre comment
sont obtenues ces deux formules pour être capable de les généraliser à toute situation.
La spectroscopie Auger consiste à collecter les électrons éjectés (on parle alors de
spectroscopie d’émission), et à analyser leur énergie cinétique, qui, comme vu ci-dessus, dépend des
différents niveaux énergétiques de la molécule étudiée. Les électrons Auger sont donc
caractéristiques des molécules qui les émettent.
Dans l’exemple ci-dessus, le spectre d’absorption montre 6 pics d’absorption différents, notés
de a à f. On construit à partir de ce spectre un diagramme d’énergie à 4 niveaux pour un élément ou
une molécule. Ces 4 niveaux, propre à l’espèce chimique, permettent 6 transitions énergétiques
différentes. Les photons de plus haute énergie (à droite du spectre) sont ceux émis lors des
transitions de plus grande différence énergétique (par exemple : f).
L’énergie de liaison (à savoir l’énergie positive à fournir pour séparer l’électron et le proton) la
plus grande est E0 = 13,6 eV.
L’expérience-type consiste à provoquer l’excitation des atomes par une décharge électrique
puis à analyser l’énergie des photons émis lors de la désexcitation, qui, pour rappel, correspondent
à des différences d’énergie entre niveaux.
Dans un état excité, l’électron occupe un des niveaux permis (à l’exception de l’état
fondamental) : n = 2, 3, 4 etc. La désexcitation, complète ou partielle, s’accompagne de l’émission
d’un photon dont l’énergie est égale à la différence d’énergie entre les états initial et final :
» »
”ƒH‹,H! = ¡’ −
Hé! Hé‹
Cette expression fait intervenir l’inverse de la constante de Rydberg (Ry), qui est une constante
associée à l’hydrogène et définie comme :
vÓ = zD /ℎQ ≈ 1, 097.107m-1
Dans le cas de l’hydrogène, ce photon émis peut être dans le domaine du visible.
Le grand succès du modèle de Bohr, malgré ses limitations, a été d’expliquer correctement ces
spectres atomiques qui avaient été découverts expérimentalement.
Le spectre d’émission d’atomes dotés d’un cortège électronique plus important que celui de
l’hydrogène montre que leur énergie ne dépend plus que du seul nombre quantique n. En effet, une
structure fine du spectre a été mise en évidence : les raies d’émission principales (entre différentes
couches électroniques, associées aux différentes valeurs de n) sont multipliées du fait de l’existence
de sous-couches (définies par le nombre quantique /) permettant de multiples transitions, et donc
l’émission de multiples OEM différentes.
Diagramme énergétique.
△ / = ±1
et
△ı=0
ou
△ ı = ±1
L’énergie totale de la molécule est donc la somme des énergies associées à l’état des électrons
et de l’énergie associée aux mouvements de rotation et de vibration qui sont également quantifiées.
En toute rigueur, il faudrait aussi prendre en compte l’énergie cinétique de translation (valable pour
les atomes et les molécules), mais celle-ci n’est pas quantifiée (elle est décrite en physique classique)
et ne joue donc pas de rôle important en spectroscopie moléculaire.
Cette énergie potentielle présente un minimum pour une distance interatomique r0 qui
correspond à la configuration d’équilibre (c’est-à-dire la plus stable possible) de la molécule. Au
voisinage de cette position d’équilibre, l’énergie potentielle varie proportionnellement au carré de
(r - r0), de manière similaire à un ressort dont la longueur d’équilibre serait r0. La force de rappel
exercée par un ressort s’écrit :
‡ = −6(Œ − Œ’ )
La zone encadrée correspond à l’intervalle (r - r0) pour lequel l’approximation du ressort est
valable.
Au voisinage de sa configuration d’équilibre, une molécule diatomique est donc décrite par un
simple oscillateur harmonique. Néanmoins, il est essentiel de traiter cet oscillateur de manière
quantique. En effet, du fait de la quantification de l’énergie aux échelles microscopiques, l’énergie
de l’oscillateur ne peut prendre que certaines valeurs particulières. Une démonstration quantique
(non abordée dans ce cours) montre que les niveaux d’énergie d’un oscillateur harmonique
dépendent d’un unique nombre quantique, noté v. Ces niveaux d’énergie sont espacés de manière
régulière, avec un niveau fondamental correspondant à une valeur légèrement supérieure à celle de
l’énergie potentielle associée à la position d’équilibre.
L’image ci-dessus illustre les niveaux énergétiques d’une molécule. Elle représente deux états
électroniques possibles pour une même molécule. Chaque état électronique possède une courbe
d’énergie potentielle propre. Comme vu précédemment, ces niveaux de vibration sont
régulièrement espacés. Chacun de ces états peut correspondre à différents états de vibration
(r = 0, 1, 2...). Contrairement aux états de vibration, les états de rotation sont espacés
irrégulièrement en termes d’énergie.
Le schéma n’est pas à l’échelle ! Les différences d’énergie entre états électronique, de vibration
et de rotation sont très différentes :
§ deux états électroniques correspondant à des valeurs successives de n sont séparés par
une énergie excédant généralement 1 eV.
§ deux niveaux vibrationnels successifs (△v = 1) sont séparés par une énergie de l’ordre
de 0,1 eV.
§ deux niveaux rotationnels successifs (△r = 1) sont séparés par une énergie de l’ordre
du meV(10−3 eV).
Tout ceci implique que l’étude spectroscopique de ces différents processus oblige à s’intéresser
à des photons d’énergies très différentes :
§ l’étude des états électroniques d’une molécule nécessite des photons d’énergie
avoisinant quelques eV : c’est le domaine du visible et de l’ultraviolet (UV) ;
§ l’étude des états de vibration d’une molécule nécessite des photons d’énergie de
l’ordre de 0,1 eV, ce qui correspond au domaine de l’infrarouge (IR) ;
§ l’étude des états de rotation d’une molécule nécessite des photons d’énergie de l’ordre
du meV, appartenant au domaine des micro-ondes.
Après avoir établi la correspondance entre l’énergie des photons et les phénomènes
moléculaires correspondant à ces photons, il faut aborder une nouvelle question, plus spécifique à la
spectroscopie d’émission : les niveaux d’énergie autres que le niveau fondamental sont-ils ou non
peuplés à une température donnée ? La question n’est pas anodine : si oui, il suffit de collecter les
photons émis spontanément par désexcitation de ces niveaux d’énergie élevée. En revanche, si non,
il est nécessaire d’exciter au préalable les molécules en leur apportant de l’énergie. La réponse à
cette question fait intervenir un résultat de physique statistique : la loi de Boltzmann, l’une des lois
les plus importantes et les plus générales de la physique dont le concept doit être intégré.
5. Loi de Boltzmann
La loi de Boltzmann indique qu’à l’équilibre thermodynamique, à une température T (en Kelvin),
la population d’un état (autrement dit sa probabilité d’occupation) varie proportionnellement au
facteur :
*△¡
« 6ç
D’après la loi de Boltzmann, plus un état a une énergie élevée, moins sa population est
importante à l’équilibre thermodynamique. Ceci se voit sur le graphe de droite ci-dessus : le niveau
3 est moins peuplé que le niveau 2, lui-même moins peuplé que le niveau 1, et cela selon une courbe
exponentielle.
Prenons l’exemple simple d’un système à deux niveaux d’énergie. Le rapport des populations
des deux niveaux est donné par le facteur :
*△û
# ∑Ñ
car on a en effet :
*ûD
0A # ∑Ñ *(û“ *ûD ) *△û
= *û“ = # ∑Ñ = # ∑Ñ
0ù
# ∑Ñ
Deux cas extrêmes peuvent alors se produire :
−△z *△û
△ z ≪ l ⟹ → 0 ⟹ # ∑Ñ → 1
l
Æ les populations des deux niveaux sont quasiment identiques.
−△z *△û
△ z ≫ l ⟹ → −∞ ⟹ # ∑Ñ → 0
l
0A ≈ 0
le niveau de haute énergie n’est presque pas peuplé, seul le niveau fondamental est occupé.
Pour terminer cette partie, nous allons appliquer la loi de Boltzmann pour des molécules à
température ambiante : T = 300K, ce qui correspond à une valeur de kT = 4 x 10−21 J = 25 meV.
L’écart typique entre les niveaux électroniques d’une molécule, généralement excédant 1 eV,
est très supérieur à kT : les électrons sont donc très peu susceptibles d’occuper des états autres que
l’état fondamental.
L’écart typique entre les niveaux de vibration d’une molécule étant de l’ordre de 0,1 eV
(supérieur à kT), l’état fondamental de vibration v = 0 sera donc très majoritairement peuplé.
L’écart typique entre les niveaux de rotation d’une molécule, de l’ordre de la dizaine de meV,
est lui très inférieur à kT : les populations des r = 0, r = 1, r = 2 etc. seront donc quasiment identiques.
Il sera donc possible, dans ce cas seulement, de collecter des photons (du domaine des micro-ondes)
correspondant à des transitions énergétiques sans avoir à exciter les molécules !
Pour les autres transitions, que ce soit les transitions électroniques (photons UV/visible) ou
vibrationnelles (photons IR), il sera nécessaire d’exciter les molécules avant de pouvoir observer les
photons.
En pratique, on explore les propriétés d’absorption (ou d’émission) d’une solution contenant
l’échantillon à analyser. Pour ne pas avoir à tenir compte des propriétés d’absorption (ou d’émission)
du solvant et de la cuve d’analyse, on fait la même expérience en parallèle dans une cellule identique
contenant uniquement du solvant pur : c’est la cellule de référence.
La source de lumière (où, plus généralement, d’OEM) est un corps noir (à savoir, un corps idéal
absorbant toutes les OEM qu’il reçoit et pouvant lui-même émettre des OEM polychromatiques,
dépendantes uniquement de sa température) ou, de plus en plus fréquemment, un LASER
monochromatique dont on connaît parfaitement le spectre d’émission. Dans le cas où une source
lumineuse polychromatique est utilisée, il est nécessaire de pouvoir sélectionner une longueur
d’onde particulière. Ceci est réalisé à l’aide d’un monochromateur (sélectionnant une étroite gamme
de longueurs d’onde) qui peut être soit un prisme ou un réseau de diffraction diffractant la lumière
dans des directions précises selon sa température. Le monochromateur est capable, de manière
automatisée, de changer à chaque mesure la longueur d’onde étudiée (permettant ainsi le balayage
d’une plage entière de fréquences pour obtenir un spectre).
Pour chaque longueur d’onde étudiée, on mesure alternativement les données en provenance
de l’échantillon et de la cellule de référence grâce au chopper (ou disque tournant, dernière étape
avant le détecteur sur le schéma). La lumière est ensuite enregistrée avec un détecteur (calorimètre,
cellule photoélectrique...).
B. Loi de Beer-Lambert
La loi de Beer-Lambert résume les propriétés d’absorption. Elle n’est applicable que pour des
solutions diluées (de faible concentration), il faut donc diluer les solutions trop concentrées pour
pouvoir utiliser la loi de Beer-Lambert. La loi de Beer-Lambert permet la détermination de la
concentration d’une solution via la mesure de l’absorption d’une OEM de longueur d’onde
spécifique.
Loi de Beer-Lambert.
Attention. – Pour cette formule, les unités utilisées ne sont pas toujours SI, il faut être très
vigilant à l’homogénéité des formules pour les calculs.
Remarque. – L’absorbance n’est pas un pourcentage de rayonnement atténué : par son
expression logarithmique, elle peut être supérieure à 1.
§ il s’agit d’une grandeur additive, c’est à dire que l’on peut additionner l’absorbance de
deux solutions successives pour calculer l’intensité d’un rayon ayant traversé les deux
solutions.
Àç
ç= = »’*È
À’
È = −EFGç
C. Ultra-violet (UV)
La spectroscopie UV-visible apporte des renseignements considérables sur la structure
électroniques des molécules comportant des systèmes conjugués. Un grand nombre de processus
dans le monde du vivant font appel à des transformations photochimiques : ces transformations
donnent souvent lieu à des réarrangements, donc les énergies sont de l’ordre de quelques eV (de 1,5
à 4 eV pour le spectre visible, au-delà pour l’UV).
L’absorption d’un photon provoque le passage d’un électron de l’état fondamental à un état
excité, avec pour conséquence d’augmenter la densité électronique dans certaines régions de la
molécule et de la diminuer dans d’autres. Lors de cette transition, les distances intermoléculaires
restent inchangées. Juste après, la modification électronique soumet les noyaux à un champ de force
et ils se mettent à vibrer.
Il existe de nombreux niveaux vibrationnels différents, c’est pourquoi les spectres UV-visibles
montrent toujours des raies larges (voir sur l’image ci-dessous) et non des pics d’absorption
concernant une seule longueur d’onde (comme en spectroscopie d’absorption). En effet, le spectre
UV reflète la contribution de tous les niveaux vibrationnels concernés pour une transition
électronique : on peut avoir, pour la même transition électronique, des photons d’énergies proches
mais différentes puisque de multiples niveaux vibrationnels de départ et d’arrivée multiplient les
transitions possibles.
1. Spectre UV
Biologiquement, les rayons UV ont un rôle important. Ils participent notamment à une étape
essentielle du métabolisme de la vitamine D (dérivée des stérols intervenant dans le métabolisme
phosphocalcique).
Les groupes organiques pouvant donner lieu à des transitions électroniques sont appelés
chromophores. Les plus importants sont les systèmes conjugués des groupements carbonyles. Par
exemple dans une double liaison C=C, l’absorption fait passer un électron d’une orbitale p liante à
une orbitale p anti-liante.
D. Spectre visible
La spectroscopie visible est très similaire à la spectroscopie UV puisqu’elle utilise également des
transitions entre états électroniques. D’ailleurs, ces deux domaines sont souvent regroupés puisque
l’on parle généralement de spectroscopie UV-visible.
Nous allons considérer un exemple dans le cadre de la vision en décrivant l’effet de l’arrivée
d’un photon sur la rétine (spectromètre « naturel » de l’homme).
Le 11-cis-retinal (le pourpre visuel) joue le rôle de chromophore. Il est composé de 6 chaînons
contenant une double liaison qui elle-même est reliée à une chaîne conjuguée se terminant par un
groupe aldéhyde porté par le carbone 11 (d’où son nom). Après avoir absorbé le photon, le cis-
rétinal subit une isomérisation en transrétinal.
E. Infrarouge (IR)
La spectroscopie IR s’intéresse à des longueurs d’onde supérieures au μm (jusqu’au mm). Ces
longueurs d’onde correspondent à des transitions entre états vibrationnels des molécules. Les
spectres des solutions aqueuses présentent donc de très nombreuses raies. Cependant, les
coefficients d’extinction étant assez faibles dans l’IR et l’eau absorbant fortement les parties
intéressantes du spectre, les mesures en spectroscopie IR sont limitées à quelques fenêtres où
l’absorption est faible.
Une molécule peut être considérée active dans l’IR si son moment électrique dipolaire change
quand les atomes se déplacent les uns par rapport aux autres. Les vibrations dépendent du type
d’atome impliqué dans la liaison, du type de liaison et de la proximité des atomes dans la molécule.
L’énergie de la vibration spécifique d’un type de liaison dépend peu de la molécule. Par
conséquent, elle est relativement spécifique de la liaison elle-même, d’où l’intérêt de la
spectroscopie IR pour identifier les liaisons au sein de molécules. En effet, en étudiant le spectre
d’une substance, on peut reconnaître des raies ou groupes de raies caractéristiques d’un type de
liaison donné ou d’un groupe chimique.
Pour la suite de cette partie, nous allons nous intéresser à l’évolution du spectre IR d’une
solution lorsque l’on remplace l’eau d’une solution (avec des noyaux 1H) par de l’eau deutérée (avec
des noyaux 2H, parfois notés D pour deutérium, plus lourds).
Les spectres IR obtenus dans l’eau et l’eau deutérée se ressemblent, mais les pics d’absorption
sont très clairement décalés de l’un à l’autre. On remarque au passage que l’eau absorbe fortement
le domaine infrarouge (attention, l’échelle des ordonnées est inversée).
Reprenons le modèle simple évoqué auparavant, en assimilant les vibrations d’une molécule
diatomique au mouvement d’un ressort harmonique reliant les deux atomes. Dans ce modèle, les
deux atomes bougent, les équations différentielles régissant le mouvement sont alors couplées : la
force subie par le premier atome dépend de la position du second, et vice-versa. Néanmoins, on peut
se ramener au mouvement d’une seule masse reliée par un ressort à un point fixe, en considérant
que l’un des atomes a une masse beaucoup plus importante que l’autre, et reste donc immobile
pendant que l’autre oscille : c’est le concept de masse réduite. La masse réduite mr se définit à partir
des masses respectives m1 et m2 des deux atomes.
» » »
= +
kŒ … » … é
˝
Ã=
kŒ
Pour la liaison HO :
˚
sA„ =
yA„
avec
1 1 1 1 1 17
= + = + =
yA„ {A {„ 1 16 16
Pour la liaison DO :
˚
sS„ =
yS„
avec
1 1 1 1 1 9
= + = + =
yS„ {S {„ 2 16 16
˚
sA„ yA„ ˚ yS„ 17 16 17
= = × = × = ≈ 1,37
sS„ ˚ yA„ ˚ 16 9 9
yS„
Ce calcul montre que la pulsation propre de la liaison H-O est 1,37 fois celle de la liaison D-O. A
partir de ce facteur, il devient possible d’estimer très rapidement les nombres d’onde attendus pour
les pics d’absorption de D-O, à partir de ceux de H-O. En effet, sachant que
s = 2["
et que
s
Q = e. " = e
2[
"
peut s’exprimer
s
"=
2[Q
Bien que basés sur un modèle mécanique « simple », ces résultats correspondent bien à la
position expérimentale des pics d’absorption IR de l’eau deutérée (cf image 23). Ce modèle est donc
utilisable pour prédire les décalages de spectre éventuels pour différents isotopes.
F. Fluorescence
La fluorescence correspond à l’émission d’une OEM lors du retour d’une molécule d’un état
excité à l’état fondamental après avoir été excitée par une première OEM. En effet, suite à
l’absorption d’un photon de grande énergie, il peut y avoir réémission de lumière. On parle de
fluorescence lorsque la durée de vie de l’état excité est relativement courte (avec des vies moyennes
inférieures à 1 x 10−5 s, souvent de l’ordre de la ns). Si la désexcitation est plus longue, pouvant être
de l’ordre de la seconde, voire même de plusieurs heures, on parle de phosphorescence (la lenteur
du processus relève de la mécanique quantique : le retour des électrons à leur état habituel concerne
un passage interdit, cf. supra). Les photons émis par fluorescence couvrent un large spectre : ils
peuvent appartenir aussi bien au domaine du visible qu’aux rayons X en passant par les UV.
1. Fluorescence de Stokes
L’illustration ci-dessous schématise le mécanisme de fluorescence par désexcitation d’une
molécule passant par une cascade d’états vibrationnels de plus en plus bas, jusqu’à faire une
transition vers un des états vibrationnels permis pour une transition électronique, émettant à ce
moment un photon d’énergie hn. Ce type de fluorescence est dit fluorescence de Stokes, qui aboutit
à l’émission d’un photon d’énergie plus faible que l’énergie du photon excitateur. On pourra aussi
citer la fluorescence résonante pour laquelle l’énergie du photon émis est égale à celle du photon
excitateur. Les autres types de fluorescence ne seront pas abordés dans ce cours.
Fluorescence de Stokes.
Après l’étape d’absorption, l’énergie captée par l’atome peut être restituée soit par une
émission de photons, soit par un processus non-radiatif, qui permet d’éliminer l’énergie accumulée
par transfert vers d’autres molécules ou par vibration-rotation jusqu’au niveau de vibration le plus
bas du niveau électronique fondamental (on a alors une ou plusieurs émissions IR, dissipant l’énergie
sous forme de chaleur). Dans le cas des processus radiatifs (émission photonique) le retour à l’état
électronique fondamental se fait sans changement du mode vibrationnel, avec l’émission d’un
photon dans le domaine de l’UV-visible. Ces processus sont la fluorescence et la phosphorescence,
qui diffèrent par la durée de vie de l’état excité (cf supra).
2. Désexcitation radiative
Pour information : lors du phénomène de phosphorescence, l’électron passe d’un état singulet
excité (somme des 2 spins des 2 électrons initialement appariés égale à 0) à un état métastable
triplet (somme des 2 spins des 2 électrons initialement appariés égale à 1). Ceci est représenté par la
flèche pointillée du schéma ci-dessous (récapitulant les mécanismes de fluorescence). Le retour au
niveau fondamental est alors fortement interdit (donc très peu probable) d’où un état métastable
relativement long.
Désexcitation radiative.
IV. Conclusion
La spectroscopie regroupe donc un ensemble de méthodes d’analyse puissantes, très utilisées
dans de nombreuses disciplines scientifiques aujourd’hui, reposant sur des mécanismes physiques
complexes et différents. Les différentes méthodes de spectroscopie permettent donc chacune
l’analyse de certaines propriétés des espèces chimiques.
Ce cours est très complet et complexe. Il est essentiel d’en retenir les mécanismes physiques
sous-jacents à la spectroscopie, développés dans la première partie, la loi de Beer-Lambert et les
grands principes des différents types de spectroscopie. Référez-vous au cours en amphithéâtre et
aux annales pour mieux cerner les notions que le professeur veut que vous reteniez.
Partie 6
RAYONNEMENTS ET
RADIOPROTECTION
Rayonnements X et γ
Rédigé à partir du cours du Pr LANCELOT
Une onde correspond à la propagation d’une variation de grandeur physique. C’est un transport
d’énergie sans transport de matière.
I. Nature et origine
Un rayonnement électromagnétique est constitué par un faisceau de photons. Les rayons X et γ
font partie des rayonnements électromagnétiques les plus énergétiques.
Un rayonnement ionisant est un rayonnement dont l'énergie est suffisante pour provoquer des
ionisations au sein d'un tissu biologique. Pour cela, E > 13,6 eV (correspondant à l'énergie nécessaire
pour arracher un électron d'une liaison covalente dans une molécule d'eau, les tissus biologiques
étant riches en eau).
Dans le domaine de la santé, on utilise les rayons X dans le cadre de la diffraction par
rayonnements X, de la spectrométrie à rayons X, du radiodiagnostic et de la radiothérapie. On utilise
les rayonnements γ en radio-analyse et en médecine nucléaire.
Les rayons X sont produits au niveau du nuage électronique des atomes ou au voisinage des
noyaux atomiques. Les rayons γ, quant à eux, proviennent :
§ soit directement de la désexcitation du noyau de certains atomes,
§ soit secondairement de l'annihilation d'antiparticules.
Exemple 01. – Certains RX cosmiques sont plus énergétiques que les RY mais ils ne sont pas
utilisés en santé. En médecine, les RY sont considérés comme plus énergétiques que les RX.
II. Rayonnement X
A. Caractéristiques générales
Le rayonnement X a été découvert par Röntgen en 1895. Il s'agit d'un rayonnement
électromagnétique de courte longueur d'onde lui conférant une grande énergie. Ces deux grandeurs
sont en effet liées par la formule :
”√
¡=
Ö
B. Production de rayons X
Lors du bombardement d'une cible matérielle (placée dans le vide) par un faisceau d'électrons,
nous observons une émission de rayonnements X par cette cible.
2) Accélération des électrons extraits du métal par une tension électrique U maintenue entre le
filament (cathode) porté à un potentiel négatif, et la cible métallique (anode ou anticathode) qui se
trouve à un potentiel positif.
3) Émission de rayons X, conséquence des interactions qui se produisent entre les électrons rapides
et la matière qui constitue l'anode.
Spectre continu
La haute tension appliquée entre la cathode et l'anode sert à contrôler la qualité énergétique
des photons X émis (= la tension appliquée permet de contrôler l'énergie du rayonnement qui est
élevée pour une tension élevée). En augmentant la tension, nous avons deux conséquences :
§ une augmentation du flux de photons X,
§ un durcissement du faisceau de rayons X (par augmentation de l'énergie) : le spectre se
déplace vers les basses longueurs d'onde c'est-à-dire les hautes énergies.
Origine du spectre continu : l'électron est accéléré sous l'effet d'une différence de potentiel U
entre la cathode et l'anticathode. Le rayonnement X émis par le bombardement d'électrons sur une
anticathode est dû à la transformation directe de l'énergie cinétique (Ec) des électrons en énergie
électromagnétique lors de l'interaction avec les noyaux des atomes de l'anticathode.
Les électrons interagissent avec les noyaux par la force d'attraction coulombienne. Lors de
l'arrivée d'un électron à proximité d'un noyau, nous observons une courbure de sa trajectoire et un
freinage de l'électron. Cette énergie cinétique Ec perdue par l'électron correspond à l'énergie du
photon de freinage émis.
L'énergie du photon X est égale à la perte d'énergie cinétique de l'électron freiné (règle de
conservation de l'énergie du système). L'électron poursuit sa trajectoire avec une énergie plus faible :
z–ï = z– − ℎ". Le rayonnement X émis est appelé rayonnement de freinage (« bremsstrahlung »).
Il y a conservation de l’énergie mécanique totale pour les électrons entre le filament et l’anode :
¡1 È = «∏È − «∏_ = «=
Si l'électron incident perd toute son énergie (choc frontal avec le noyau d'un atome), le photon
X émis possèdera l'énergie maximale et donc, encore une fois, la longueur d'onde minimale λ0.
”√
Ö’ =
«=
L'allure continue du spectre de l'intensité des rayons X en fonction de la longueur d'onde est
due au fait que chaque électron peu perdre n'importe quelle fraction de son énergie cinétique entre
0 et eU, la perte d'énergie étant fonction de la distance entre la trajectoire de l'électron et le noyau.
La perte d'énergie cinétique la plus probable correspond au maximum de photons X est IMAX :
”√ ”√ é
¡√ = = = «=
Ö…∆‚ / /
Ö
é ’
Les facteurs ayant influence sur l'allure du spectre continu sont les suivants :
Le rendement r d'émission X, correspondant au débit énergétique produit par le tube divisé par
la puissance électrique dépensée dans le tube, se traduit mathématiquement par la formule :
÷ ˛œ¡L²
Œ= = = ˝n= (la puissance électrique dépensée dans le tube étant P = i.U)
∫ œL
Spectre de raie
Soit un tube fonctionnant à courant constant et à U constante, le spectre observé est celui-ci :
§ les photons X de la raie Kβ sont plus énergétiques que les photons X de la raie Kα,
§ les photons X de la raie Kβ sont émis en moins grande quantité que ceux de la raie Kα.
Condition : z` > zO(0), autrement dit, l'énergie cinétique de l'électron incident doit être
supérieure à l'énergie d'ionisation de la couche n. Pour mémoire, l'énergie d'ionisation correspond à
l'énergie de liaison mais avec un signe opposé.
C'est un photon X qui est émis car les énergies de liaison des couches internes sont très grandes
(faibles longueurs d'onde).
Pour savoir si une transition est permise et pour pouvoir nommer les raies caractéristiques,
nous faisons appel aux nombres quantiques. Dans ce cours, nous utiliserons les nombres quantiques
suivants :
Les deux règles que nous venons de voir constituent les règles de quantification :
’ ≤ E ≤H−»
¶= E±≈
Nous retrouvons sur le schéma ci-dessous les différentes couches accompagnées de leurs
nombres quantiques. Nous pouvons observer que la couche n = 3 possède par exemple 5 niveaux, la
couche n = 2 en possède 3 et la couche n = 1 n'en possède qu'une. Nous utiliserons ce schéma pour
tous les exemples qui suivront.
Nous nous intéressons aux transitions entre ces différentes couches car ce sont elles qui
permettent l'émission de photons X. Parmi toutes les transitions que nous pourrions imaginer,
certaines sont permises à l'inverse d'autres qui sont interdites.
Les transitions permises respectent les règles de quantification et les règles de sélection :
∆E = ±»
∆¶ = ’ F⁄ ± »
§ s'il existe plusieurs transitions ayant une couche d'origine et une couche d'arrivée
identiques, nous notons (toujours en indice) « 1 » pour la transition la plus énergétique
(flèche la plus longue sur le schéma), « 2 » pour la deuxième la plus énergétique...
Loi de Moseley
Il s'agit d'une loi expérimentale exprimant la variation de l'inverse de la longueur d'onde λ des
raies X d'émission en fonction du numéro atomique de l'élément émetteur.
A : cste pour une raie donnée et une série donnée (différente pour Kα et Kβ)
»
= È(n − ≈)
Ö s : cste d'écran, dépend uniquement de la série donc même s pour Kα et Kβ
1 R
1 1 1 1
= o−N vA − → PR = −
e 0? R 0R R 0? R 0R R
Nous voyons que A dépend des couches de départ de d'arrivée (respectivement n2 et n1), A
dépend donc d'une raie particulière.
?
Intérêt de la loi de Moseley : d'après la loi de Moseley, il existe une relation linéaire entre et
Í
Z (numéro atomique). Cette relation permet de connaître la longueur d'onde du photon X diffusé
connaissant le numéro atomique de l'élément constituant l'anode émettrice.
?
La relation entre et Z est linéaire, nous pouvons tracer des droites ayant pour pentes la
Í
constante A. L'ordonnée à l'origine est (−P×N). Là encore, nous voyons que A est caractéristique
d'une série (la pente est différente entre les séries K et L).
Bilan
La partie continue du spectre résulte d’une interaction électron-noyau. Toutes les distances
électrons-noyaux sont possibles (à spectre continu).
La partie discrète du spectre résulte d’une interaction électron-électron. On est face à des
niveaux d’énergie quantifié (à raie spectrale).
III. Le rayonnement γ
L'émission γ correspond à un mécanisme qui se produit à l’intérieur du noyau, donc elle
accompagne généralement les transformations radioactives. Lorsqu'un noyau est dans un état excité
(à la suite d’une transformation radioactive), il y a retour à un état stable de façon spontanée (nous
parlons de désexcitation spontanée) par émission d'un photon γ d'énergie égale à la différence
d'énergie entre le niveau énergétique de départ et celui d'arrivée. Les énergies sont quantifiées, le
spectre d'émission des photons γ est donc discontinu (le rayonnement γ correspond à une
désexcitation électromagnétique du noyau).
A. Transformations isomériques
A et Z ne varient pas, seul change l'état énergétique du noyau de l'atome. Il s'agit d'une étape
de désexcitation nucléaire après une étape de désintégration.
1. Émission γ spontanée
Après désintégration, le noyau formé se trouve souvent dans un état excité. Nous observons
des étapes de désexcitation par émission d'un ou plusieurs photons γ (10-16 à 0,1 seconde après la
désintégration). Les états énergétiques des nucléons étant quantifiés, nous avons :
z• ≈ ∆z = zœ − z“
2. Isomères métastables
Parfois, la durée de vie de l'état excité est supérieure à 0,1 seconde (durée de vie de quelques
secondes à plusieurs mois). Dans ce cas, le nucléide excité est appelé métastable. Un bon exemple
99m
dans le milieu médical est le technétium métastable noté T très utilisé en scintigraphie.
Exemple du technétium.
Les rayonnements non électriquement chargés, tels que les photons X ou γ, sont dits
indirectement ionisants : les ionisations sont essentiellement produites par les particules chargées
secondaires (électrons) mises en mouvement au cours des interactions.
μ est la fraction de photons qui interagit par unité de longueur du milieu atténuateur, c'est-à-
dire que si μ vaut 0,01 cm-1, 1 % des photons interagit à chaque cm par absorption ou par déviation).
[Ñ] = L2. Le barn (b) est utilisé comme unité usuelle : 1 b = 10-28 m2 = 10-24 cm2.
Notions d'atténuation.
ln 2
˜Ç = ˜D #-. − 0-? = ˜D # *+ A+R
-? R
R
⁄’
⁄ƒ =
éH
4. Faisceau polychromatique
L'atténuation d'un faisceau transportant des photons d'énergies différentes résulte de
ÿ
l'atténuation de chacune des composantes. À chaque longueur d'onde correspond un μ ou un
Ω
différent.
§ Pour les courtes longueurs d'onde, les rayons X possèdent une grande énergie,
l'atténuation est donc faible : la pente de la courbe est faible ;
§ Pour les grandes longueurs d'onde, les rayons X possèdent un basse énergie,
l'atténuation est donc élevée : la pente de la courbe est importante.
§ l'absorption d'un rayonnement de photons par les tissus est déterminant pour le
contraste en radiologie,
§ nous n'avons pas de transfert d'énergie entre le faisceau et le milieu : les rayons X
diffusés sont émis à la même énergie que les rayons X incidents.
Effet Compton.
§ nous avons absorption d'une partie de l'énergie E du photon incident par un électron
atomique peu lié (situé dans les couches superficielles),
§ nous avons ionisation de l'électron qui emporte alors l'énergie perdue par le photon
sous forme d'énergie cinétique Ec (négligence de l'énergie d'ionisation de l'électron),
§ le photon incident ne perd pas toute son énergie mais est diffusé avec une énergie E'
plus faible en changeant de direction.
L'équation générale montre que les longueurs d'onde des photons incidents et diffusés sont
liées, de sorte que :
m : masse de l'électron
ℎQ
Energie du photon incident z = ℎ" =
¡ e
¡ï = » − √F≈€
¡
»+ ℎQ
…√² Energie du photon diffusé z′ = ℎ"′ =
e′
Constantes fondamentales
§ h = 6,6.10-34 J.s
§ m = 9,1.10-31 kg
§ c = 3,0.108 m.s-1
§ cas du choc tangentiel
- Φ = 90°
Nous retrouvons deux cas limites d'interaction : - θ = 0°
La probabilité d'atténuation par effet Compton est représentée par le coefficient d'atténuation
Compton noté σc :
§ il est indépendant de Z (nature de la matière irradiée),
§ il décroit en fonction de l'énergie du photon incident E.
‹›
: coefficient massique d'atténuation Compton (proportionnel à l'inverse de l'énergie) :
Ω
ÅÁ 1
=
} z
Dans les tissus biologiques, l'effet Compton prédomine dès 30 à 50 keV. Il est responsable
d'artefact en radiologie (il réduit le contraste) et d'irradiation subie par le patient du fait d'un champ
de radiation diffus.
Il s'agit d'une interaction entre les photons incidents et les électrons des couches internes des
atomes de la substance traversée :
Effet photoélectrique.
1
Energie cinétique de l'e- éjecté zQ = {r2
2
ℎQ
¡√ = ¡ − ¡‹ Energie du photon incident z = ℎ" =
e
Ei Energie d'ionisation de l'e-
Les photoélectrons (électrons émis par effet photoélectrique) ont donc une énergie bien
déterminée, nous obtenons un spectre de raie (contrairement à l'effet Compton).
Les photoélectrons vont à leur tour ioniser d'autres atomes pour perdre peu à peu leur énergie,
donnant des électrons secondaires et entraînant une ionisation du milieu : effet biologique.
La probabilité d'interaction présente des variations brutales avec des maxima (discontinuités)
lorsque l'énergie du photon incident est égale à l'énergie d'ionisation de l'électron.
En résumé, l'effet photoélectrique s'observe surtout pour des photons de faible énergie (10 à 50
keV) et pour des matériaux composés d'éléments à numéro atomique Z élevé.
En radiologie :
Le photon d'énergie ℎ" se matérialise au voisinage du noyau sous forme d'un négaton e- et d'un
positon e+ (phénomène inverse de l'annihilation). La matérialisation n'a pas d'application dans le
domaine médical.
Si l'énergie est supérieure à l'énergie seuil, le surplus d'énergie se traduit en énergie cinétique
pour les deux antiparticules (électron et positon).
Le positon, antiparticule de l'électron, va tout comme l'électron perdre son énergie cinétique
par chocs successifs en ionisant la matière, puis il s'annihile avec un électron du milieu avec émission
de deux photons de 0,511 MeV en direction opposée, qui diffusent hors du matériau.
Les énergies cinétiques des particules éjectées sont absorbées dans le milieu.
5. Réactions photo-nucléaires
Il est possible qu'un photon soit absorbé par un noyau atomique qui devient alors excité. Le
phénomène aboutit à la production de protons et neutrons. Ce type de réaction ne concerne pas les
applications médicales : les énergies sont supérieures à 10 MeV.
k
: coefficient massique total d'absorption,
Ä
Ï
: effet photoélectrique,
Ä
k Ï Ñ1 #
= + +
Ä Ä Ä Ä Ñ1
: diffusion Compton,
Ä
#
: création de paires.
Ä
k
dépend de Z du milieu absorbant et de ℎ" du rayonnement.
Ä
À FAIBLE ÉNERGIE
l'effet photoélectrique est prépondérant.
À ÉNERGIE MOYENNE
l'effet Compton est prépondérant.
E. Rayonnements secondaires
Les rayonnements secondaires cèdent leur énergie au milieu par ionisation.
F. Applications médicales
1. Rayonnement γ
§ Biologie
En biologie, nous utilisons in vitro des radio-isotopes (125I) émetteurs γ et X pour des dosages
sanguins d'hormones, marqueurs tumoraux ou médicaments (méthodes radio-immunologiques).
§ Médecine nucléaire
L'imagerie scintigraphique par émission de photon unique γ permet des explorations in vivo
après administration d’un médicament radiopharmaceutique :
ˆˆî ˆˆ
ÄâQ → ÄâQ + ¶ z• = 140 l#n
2. Rayonnement X
§ Méthodes analytiques
§ Radiothérapie externe
Un flux externe de rayons ionisants (surtout des rayons X) est dirigé sur les tumeurs en
préservant le plus possible les tissus sains et organes à risque.
§ Imagerie RX
§ Des dosimètres qui permettent de mesurer une dose (exposition aux RI),
§ Des compteurs qui permettent de dénombrer les RI,
§ Des spectromètres qui permettent de déterminer l’énergie des rayonnements émis.
A. Détecteurs à gaz
Les détecteurs à gaz contiennent :
Détecteur à gaz.
Le signal obtenu est uniquement dû aux électrons : la charge électrique recueillie sur les
électrodes constitue une impulsion électrique mesurable.
B. Détecteurs à semi-conducteurs
Les détecteurs à semi-conducteurs possèdent une chambre d'ionisation solide constituée de
matériaux à Z et r élevé (accolement de deux semi-conducteurs silicium ou germanium contenant
deux types d'impuretés) :
Au contact entre ces deux semi-conducteurs, il y a création d'une zone isolante (sans charge
mobile) : c'est une zone dépeuplée (jonction p/n) très mince (1 μm). Quand un rayonnement la
traverse, il crée des ionisations. La charge électrique recueillie est proportionnelle à l'énergie du
rayonnement.
L'efficacité est élevée et il y a une bonne résolution en énergie : l'énergie d'ionisation est faible
= 3 eV / paire d'ions (contre 34 eV / paire d'ions pour les détecteurs à gaz).
C. Compteurs à scintillateur
Ils utilisent les propriétés de certaines substances d'émettre de la lumière visible ou UV
(scintillations) lorsqu'elles sont soumises à des radiations ionisantes. Il y a une proportionnalité entre
l'énergie déposée et l'intensité du signal lumineux.
- Un scintallateur,
- Un photomultiplicateur,
- Un circuit électronique.
Le cristal scintillateur NaI (Tl) (iodure de sodium activé au thallium) / BGO (oxyde de germanium
et de bismuth) / LSO (oxyothosilicate de lutétium) / GSO (oxyorthosiilcate de gadolinium) :
Le spectromètre sélectionne des impulsions selon leur amplitude ce qui revient à sélectionner
les rayonnements selon leur énergie.
En pratique, le pic possède une certaine largeur centrée sur l'énergie d'émission caractéristique
du radioélément : c'est le pic d'absorption totale ou pic photoélectrique.
Nous observons également un fond continu Compton (d'énergie comprise entre 0 et EMAX) :
l'énergie du photon incident n'est que partiellement absorbée (échappement des photons γ ayant
subi une diffusion Compton).
En pratique, nous choisissons une fenêtre d'énergie (Sinf < E < Ssup) telle que le rapport signal /
bruit soit maximal (pic d'absorption totale).
Rayonnements particulaires
Rédigé à partir du cours du Pr KRYZA
I. Particules élémentaires
A. Dimensions
Les particules élémentaires s'inscrivent dans le domaine de l'infiniment petit par plusieurs de
leurs grandeurs :
§ leur taille
- 0,5.10-10 m < rayon atomique < 1,5.10-10 m
- 1.10-15 m < rayon nucléaire < 1.10-14 m
- Rayon du proton : 10-15 m
§ leur masse
- proton : 1,7.10-27 kg
- électron : 9,1.10-31 kg
- neutrino : presque nulle
B. Particules élémentaires
Historique. – L'électron a été découvert par Thompson en 1897, le proton par Rutherford en 1913
et le neutron par Chadwick en 1932. Nous devons la découverte de nombreuses autres particules
ème
à certains chercheurs au cours de la deuxième moitié du XX siècle.
1. Fermions
Les fermions sont les particules constitutives de la matière. Elles possèdent un spin demi-entier.
Le mouvement intrinsèque de toute particule se traduit par un moment cinétique intrinsèque de spin
x et un moment magnétique de spin µ¯ reliés par la formule : µ¯ = ¶¯ . x (γs étant le rapport
gyromagnétique de spin).
Toutes les particules élémentaires (chargées ou non), les ensembles de particules, les noyaux
des atomes possèdent un spin.
§ Les quarks
Les quarks n'existent pas à l'état isolé, ils existent seulement dans les noyaux. Nous distinguons
6 quarks caractérisés par :
- leur saveur : u (up), c (charm), t (top), d (down), s (strange) et b (bottom, beauty),
- leur charge électrique : 2/3 de e ou −1/3 de e (e étant la charge élémentaire),
- leur charge de couleur : bleu, vert ou rouge déterminant des interactions fortes.
Les quarks se combinent par deux ou par trois pour former des hadrons. Nous retrouvons :
- les mésons constitués de 2 quarks (µ + µ),
par exemple, ÷à = [ + (méson π ou pion), ÷à = [ -.
- les baryons constitués de 3 quarks,
par exemple, ÷÷à = proton et ÷àà = neutron.
§ Les leptons
2. Bosons
Les bosons possèdent un spin entier, ils sont associés à la transmission des interactions :
§ graviton ? (interaction gravitationnelle),
§ photon (interaction électromagnétique),
C. Interactions fondamentales
1. Gravitation
La gravitation est une force attractive entre des masses, elle est négligeable en physique
nucléaire. Sa particule associée est le graviton (son existence est supposée, elle n'a pas encore été
découverte). L'énergie transportée par le graviton est très faible.
2. Électromagnétisme
L'électromagnétisme concerne des forces entres des charges électriques. Sa particule associée
est le photon d'énergie : z = ℎ".
3. Interaction forte
Dans les noyaux, les protons (+e) se repoussent or les noyaux sont stables. La cohésion de
l'ensemble est assurée par l'interaction forte qui est une force attractive beaucoup plus intense.
L'interaction forte est une interaction entre quarks et chaque nucléon est formé de trois quarks
(c'est ce que nous nommons des baryons).
L'interaction forte agit, via la charge de couleur, par l'échange d'un quantum d'énergie : le
gluon. Dans le noyau atomique, les échanges de gluons sont confinés à l'intérieur des baryons
(neutrons et protons).
§ une force attractive quand la distance est à peu près égale à 1 - 2.10-15 m,
§ une force 100 à 1000 fois plus intense que l'interaction électromagnétique,
§ une force indépendante de la charge électrique donc identique pour les systèmes :
- n-n
- p-p
- n-p
4. Interaction faible
L'interaction faible conduit à la désintégration des quarks et des leptons. Il s'agit d'un processus
transmis par des bosons vecteurs intermédiaires W+, W- et Z0.
Proton Neutron
Symbole p N
Constitution (quarks) uud udd
Charge électrique +e 0
Masse (u) 1,007276 1,008665
Durée de vie moyenne
¥ » 1000 s
(particule libre)
B. Nucléides
1. Définition
Un nucléide est une espèce atomique définie par :
§ son nombre de masse A,
§ son numéro atomique Z,
§ son état énergétique nucléaire.
Il existe une différence entre le terme « élément » défini seulement par le numéro Z et le terme
« isotope » défini à la fois par les numéros Z et A.
2. Représentation symbolique
D. Modèles nucléaires
1. Modèle de la goutte liquide
Nous assimilons pour ce modèle le noyau à une goutte de liquide avec :
§ les nucléons représentés par les molécules du liquide,
§ les forces nucléaires représentées par les forces intermoléculaires du liquide.
zA = : zÉ , z¯ , z– , z¯: , z—
Symbole Terme Fonction
- Fonction de R3 donc de A
- Forces nucléaires de courte portée (interaction
zÉ Énergie de volume avec les nucléons voisins les plus proches)
- Saturation des forces nucléaires (devient instable
lorsqu'il y a trop de nucléons)
- Terme correctif de ¡ƒ car les nucléons possèdent
z¯ Énergie de surface une plus faible liaison entre eux lorsqu'ils sont situés
à la surface du noyau (et non au cœur)
- Répulsion électrostatique due aux protons chargés
z– Énergie coulombienne
positivement " diminution de la cohésion nucléaire
- Les noyaux légers sont plus stables quand N = Z et
z¯: Énergie de symétrie
deviennent instables quand N augmente
- Terme qui prend en compte la stabilité ou
z— Énergie d'appariement l'instabilité des noyaux selon la parité du nombre de
protons et de neutrons
N Z Noyaux stables
Pair » 152 (55 %)
Pair
Impair » 55 (20 %)
Pair » 52 (19 %)
Impair
Impair » 15 (6 %)
Exemples.
La masse M d'un noyau atomique est toujours inférieure à la somme des masses de ses
constituants pris isolément. En général, cette différence de masse (DM) est de l'ordre de 1 %.
Exemple.
Exemples
§ une mole de gaz He (» 4 g) : E = 28,3 x NA soit 1,7.1025 MeV (2 700 milliards de Joules).
§ pour les noyaux stables, B/A est environ égale à 8 MeV (sauf pour les noyaux légers),
Le graphe montre que dans la région I (noyaux légers), la stabilité nucléaire se rencontre pour
les nucléides dont le noyau est constitué d'un nombre entier de particules α : fusion nucléaire.
La région II est le domaine des noyaux de plus en plus lourds : fission nucléaire.
Les noyaux sont les plus stables pour 40 < A < 100 (exemples : Ca, Fe, Ni, Cu).
La fission nucléaire est un phénomène plus ou moins spontané qui se caractérise par la cassure
d'un noyau lourd, peu stable, en deux noyaux plus légers (produits de fission) et de quelques
neutrons (neutrons de fission).
Les neutrons vont à leur tour induire des fissions : nous parlons de réactions en chaîne (qu'il est
important de contrôler).
La fusion nucléaire correspond à l'union de deux noyaux légers en un noyau plus lourd.
Pour initier une réaction de fusion, il faut une énergie considérable ! C'est un phénomène
naturel que nous retrouvons au sein des étoiles. Le Soleil produit son énergie par fusion nucléaire.
Voici quelques équivalents énergétiques d'une tonne de pétrole (1 TEP = 11 600 kWh) :
Nous remarquons que l'énergie produite par la fusion est plus importante que l'énergie
produite par la fission, en effet, pour produire la même quantité d'énergie il faut 0,15 gramme de
deutérium pour la fusion ou 0,5 gramme d'uranium pour la fission.
F. Stabilité nucléaire
1. Définition
Un noyau stable ne subit aucune transformation ni dans sa structure, ni dans son état
énergétique sans apport d'énergie extérieure. Nous retrouvons :
§ 6 000 noyaux possibles,
§ 2 000 noyaux identifiés,
§ 274 noyaux stables.
2. Vallée de stabilité
Les noyaux légers possèdent une stabilité quand N » Z ; et lorsque N > 25, la stabilité est
présente lorsque N > Z (ceci s'explique par la répulsion des protons entre eux qui ne permet pas une
bonne cohésion). Lorsque N > 83, il n'existe pas de noyau stable (ils sont trop gros) : le dernier noyau
stable correspond au bismuth RD>>âTO .
Sur le graphique en trois dimensions ci-dessous, le fond de la vallée correspond aux nucléides
stables et les flancs de la vallée correspondent aux nucléides instables.
B. Transformations radioactives
1. Lois de conservation
Les transformations radioactives sont des réactions nucléaires spontanées qui obéissent à des
lois de conservation à savoir :
§ la conservation de la charge électrique,
§ la conservation du nombre baryonique B = conservation du nombre de nucléons,
§ la conservation du nombre leptonique,
§ la conservation de la quantité de mouvement,
§ la conservation de l'énergie totale,
§ la conservation du moment cinétique total.
2. Transformations isobariques
Les transformations isobariques sont des transformations radioactives au cours desquelles le
nombre de masse A du nucléide final est identique à celui du nucléide initial (A constant). Cela
concerne l'émission β+, β- et la capture électronique.
È È
nj → nï∆
§ Émission β-
La particule β- est un électron. Une émission β- s'opère lors d'une instabilité nucléaire due à un
nombre de neutrons trop important par rapport au nombre de protons. Par interaction faible, un
neutron se transforme donc en proton avec émission d'une particule β- et d'un antineutrino
électronique "‘ .
Énergie mise en jeu lors de l'émission β- : la transformation d'un nucléide X (dans son état
fondamental) en un nucléide Y (dans son état fondamental) met en jeu une énergie fl{. Q R
(conservation de l'énergie totale).
Convention.
§ m = masse de l'atome,
§ M = masse du noyau.
La transformation est possible si '§ > 0 : '§ = ~a *,¡ − ~b *,¡(? + {§* . Q R car {∏˘ ≈ 0.
L'énergie libérée '§ (« surplus d'énergie » de la transformation) est emporté sous forme d'énergie
cinétique par le couple (β-, "‘ ) : z§ö + z∏˘ = QS#.
Si z§ö = 0, alors z∏˘ est maximal et si z∏˘ = 0, alors z§ö est maximal.
z§·Qê
ö est le paramètre caractéristique d'une émission β-.
Le bilan énergétique à l'échelle de l'atome peut alors s'écrire de la manière suivante [nous
reprenons la relation (1) et nous négligeons l'énergie de liaison des électrons] :
Schéma de désintégration.
Exemple.
-
Représentation schématique d'une émission β .
§ Émission β+
La transformation d'un nucléide X (dans son état fondamental) en un nucléide Y (dans son état
fondamental) met en jeu une énergie ∆{. Q2 (conservation de l'énergie totale).
Si z§t = 0 , alors z∏˘ est maximal et si z∏˘ = 0 , alors z§t est maximal.
z§·Qê
t est le paramètre caractéristique d'une émission β+.
Le bilan énergétique à l'échelle de l'atome peut alors s'écrire de la façon suivante [nous
reprenons la relation (2) et nous négligeons l'énergie de liaison des électrons] :
Pour qu'il y ait désintégration β+, il faut que '§( > 0 , ou...
Exemple.
+
Schéma d'une désintégration β .
§ Capture électronique
Comme dans l'émission β+, le noyau possède un excès de protons par rapport à son nombre de
neutrons. Par interaction faible, un proton se transforme en un neutron par capture d'un électron du
cortège électronique et émission d'un νe.
È
nj + «* → È
n*»∆ + ’’ƒ«
H1¡ = ∆…. √é + ¡E
La probabilité de capture électronique : K > L > M... La capture électronique prédomine pour les
atomes lourds, où se produit surtout la capture K (car électrons + proches du noyau).
Émissions secondaires :
§ nous observons un transfert d'énergie (DE) à un électron des couches supérieures ce qui
entraîne l'émission d'un électron Auger mono-énergétique : z–˘ = ∆z − zœ .
Emissions secondaires.
§ Émission α
L'émission α ne survient que pour des noyaux lourds, la plupart de numéro atomique supérieur
à celui du plomb, c'est-à-dire supérieur à Z = 82.
La particule α émise est en fait un noyau de 4He avec deux neutrons et deux protons. Il s'agit
donc de la transformation d'un élément père (Z) en un élément fils (Z-2) plus une particule α.
0 = .Ö + .† ↔ { u ru = { v rv ↔ … 5 ¡5 = … π ¡π
Exemple.
§ Fission spontanée
La fission spontanée n'intervient que pour certains noyaux lourds. Le noyau lourd se scinde
généralement en deux noyaux de masses différentes et nous retrouvons une émission de neutrons.
Les noyaux concernés par la fission spontanée sont par exemples le 235U, le 238U ou le 252Cf.
4. Transformations isomériques
Lors des transformations isomériques, le numéro atomique (Z) et le nombre de masse (A) ne
changent pas : seul l'état énergétique du noyau change. Nous observons une étape de désexcitation
nucléaire après une étape de désintégration.
§ Émission γ spontanée,
§ Isomères métastables,
§ Conversion interne.
Le principe de conversion interne réside dans le fait que l'énergie de désexcitation nucléaire ΔE
est directement transférée à un électron du cortège électronique de l'atome engendrant une
émission de cet électron de conversion mono-énergétique.
L'émission d'un électron de conversion est compensée par la capture d'un électron libre du
milieu pour maintenir la neutralité électrique de l'atome.
C. Décroissance radioactive
1. Constante radioactive
La désintégration spontanée des noyaux radioactifs est un phénomène aléatoire.
Soit une population Nt de noyaux radioactifs d'un même isotope présents au temps t et dN le
nombre de noyaux radioactifs qui se désintègrent pendant l'intervalle de temps dt, nous avons :
·Î = −‚. ΃ . ·ƒ
λ est la constante radioactive exprimée en s-1. Elle est caractéristique d'un radionucléide et
Å°/°Ô
reflète la probabilité de désintégration d'un noyau radioactif par unité de temps : e = − . Elle
ÅÇ
est indépendante des conditions physiques et chimiques du milieu.
Exemple. – Si λ (15O) = 5,64.10-3 s-1, la probabilité pour un noyau de 15O de se désintégrer en une
seconde est de 0,564%.
3. Période radioactive
La période radioactive, ou demi-vie, est le temps au bout duquel le nombre de noyaux d'une
population d'un radionucléide donné a diminué de moitié.
Si au temps t0, nous sommes à N0 : pour tout t = T (ou T1/2) nous serons à Nt = N0/2 (avec T
exprimé en seconde dans le système international SI).
°Ì ?
= ∂D . # *Í.Ñ et = # *Í.Ñ donc on en déduit :
R R
EH(é) = ‚. ç
»
Ï=
Ö
Exemples.
13 60
N T = 10 min Co T = 5,27 ans
111 14
In T = 2,83 jours C T = 5730 ans
125 40
I T = 2 mois K T = 1,28.109 ans
» ƒ/ç »
΃ = Î’ . «*Öƒ = Î’ . = Î’ . (avec n = τ/t)
é éH
Exemple Ù 64Cu se désintègre par β+, β- et C.E. Il possède 3 constantes radioactives partielles Iβ+, Iβ- et ICE.
Ö = ‚‹
‹
» » »
= +
ç«!! ç?‹FE 笔Ë≈
Exemple. – Pour l'iode 131, la période physique est de 8 jours, la période biologique est de 4
jours. Il possède donc une période effective de 8/3 soit 2,67 jours.
5. Définition de l'activité
Par définition, l'activité At représente le nombre de transformations nucléaires spontanées d'un
radionucléide par unité de temps. C'est la valeur absolue du rapport dN/dt.
L'activité est exprimée en Bq (becquerel) ou en s-1 (parfois en dps). Le curie (Ci) = 3,7.1010 Bq ne
doit plus être utilisé (il est hors système international SI).
΃ = Î’ . «*Ö.ƒ
ȃ = È’ . «*Ö.ƒ
Calcul de N1(t) :
Expression de N2(t) :
Pas de calcul de N3(t). Nous remarquerons, qu'à tout instant, N1(t) + N2(t) + N3(t) = N1(t0).
§ Cas général :
Ö» . λ = Öé . Îé
L'approvisionnement de ce type de produits est délicat car leur disparition est possible par
désintégration pendant les étapes de préparation, de mise en forme, de contrôle de qualité et
d'acheminement. Une solution intéressante, quand elle est possible, est d'utiliser un générateur
d'isotopes à vie courte : la filiation radioactive qui produit des radionucléides de courte période se
trouve alors sur le site même d'utilisation.
2. Spectre énergétique
Il s'agit d'un spectre de raies (l'énergie cinétique des particules α est bien déterminée : Eα1, Eα2).
Il y a une interaction avec les électrons du milieu à l'origine d'une très forte ionisation.
L'ionisation du milieu est encore plus importante en fin de parcours.
Nous appelons transfert linéique d'énergie, noté TLE, la quantité d'énergie cédée par unité de
longueur :
z : charge de la particule,
çå¡ = −·¡/·‚
ï R Z : numéro atomique du milieu,
oz ∝ . 0o
r v : vitesse de la particule,
-1
(unité usuelle :keV.μm )
n : nombre d'atomes de matière traversée par unité de volume.
Nous appelons densité linéique d'ionisation (DLI) le nombre de paires d'ions créées par unité de
longueur :
çå¡ = ^åÀ × ÿ
◊ : énergie moyenne nécessaire pour créer une paire d'ions dans le milieu (32 eV pour l'eau,
statistiquement 3 excitations pour une ionisation et 34 eV pour l'air).
Exemple Ù 218Po.
Eα = 5,3 MeV, TLE = 130 keV / μm
R dans l'eau (tissus) = 40 μm (R dans l'air = 40 mm)
Conséquences :
§ dans le cadre de l'irradiation externe, il est facile de se protéger contre le rayonnement
α (une feuille de papier suffit),
§ dans le cadre d'une irradiation interne, le danger est réel (cas du 222Rn au niveau des
alvéoles pulmonaires).
B. Rayonnement β
1. Principales caractéristiques
2. Spectre énergétique
Les particules β émises par les noyaux d'une population d'un même radionucléide n'ont pas
toutes la même énergie cinétique Ec.
Pour les électrons dont l'énergie cinétique Ec est inférieure à 100 MeV, les pertes d'énergie dans
l'air et dans l'eau se font essentiellement par ionisation (collision).
Cas particulier des particules β+ : après perte d'Ec par les interactions ci-dessus, nous avons un
phénomène d'annihilation avec un électron libre du milieu entraînant l'émission de deux photons γ à
180° l'un de l'autre.
La trajectoire est en ligne brisée dans la matière car la particule est légère.
Le parcours des particules β est plus long que celui des particules α mais la trajectoire en ligne
brisée limite la pénétration dans la matière.
Dans l'eau :
§ TLE(β) = 0,25 keV/μm,
§ DLI(β) = 8 paires d'ions / μm (250/32).
Exemple – Pour diminuer de 99% l'intensité d'un faisceau de photons γ de 1 MeV, il faut 85
centimètres d'eau. D'où des valeurs de TLE et DLI beaucoup plus faibles que pour les particules α
et les particules β.
§ capture radiative,
Radioprotection
Rédigé à partir du cours du Pr PINA-JOMIR
Note de la rédaction. – Les points clés de chapitre sont les différences entre les grandeurs de
dosimétrie, entre effets stochastiques et déterministes ainsi que sur la radioprotection vis-à-vis
de l’irradiation. C’est sur ce dernier point qu’on peut vous demander des calculs.
I. Introduction
La radioprotection est la discipline qui coordonne les techniques, recherches et travaux sur les
moyens de protection contre les rayonnements ionisants et éventuellement la réparation de leurs
effets néfastes. Elle s’exprime à plusieurs niveaux : celui de populations lors d’événements de grande
ampleur tel que l’accident de Tchernobyl ou la bombe d’Hiroshima, celui des travailleurs exposés
dans leur sphère professionnelle, on cherche alors à protéger d’une exposition chronique et celui des
patients pour qui on minimisera le risque d’accidents et les conséquences à long terme. On évaluera
quantitativement les rayonnements ionisants par dosimétrie.
A. Dosimétrie
La dosimétrie correspond à l’étude quantitative de l’énergie absorbée. Cela est fait en
radioprotection dans le but de mesurer l’énergie qui est déposée dans les tissus et de définir les
normes de protection.
1. Origines de l’énergie
L’énergie mesurée en dosimétrie provient de sources radioactives, émettrices de rayonnement
particulaires via des particules α et des électrons, ou photoniques, X ou γ selon l’énergie du dit
rayonnement. Ces rayonnements se comporteront différemment : les particules α auront un trajet
court mais libéreront beaucoup d’énergie ; pour les rayonnements photoniques, les coefficients
d’absorption seront dépendant de leur énergie intrinsèque. On mesure l’activité de ces sources
radioactives qui est le nombre de désintégration par seconde en Bequerel (Bq). En radioprotection
on s’intéresse à des sources de l’ordre de du MegaBequerel : MBq.
On notera dEe l’énergie entrant dans la boule élémentaire de masse dm, et dEs l’énergie en
sortant. On a alors l’énergie transférée sous forme d’énergie cinétique dEtr = dEe - dEs. Le KERMA,
noté K, est l’énergie cinétique des électrons transférée rapportée à la masse (Kinetic Energy
Released per MAss unit en anglais).
·¡ƒŒ
˝=
·…
La dose absorbée D est, quant à elle, l’énergie effectivement absorbée par l’unité de masse dm.
Cette énergie est la résultante de tous les échanges d’énergie dans la boule élémentaire choisie. Ces
échanges à l’échelle microscopique sont de nature stochastique (c’est-à-dire aléatoire), on utilise
donc une valeur moyenne de l’énergie absorbée : àz.
·¡
^=
·…
Ces deux grandeurs K et D sont homogènes à une énergie sur une masse soit L2.T-2. Elles ont la
même unité dans le système international : le Gray (Gy). Le gray caractérise une grandeur physique :
on peut mesurer directement et précisément une dose absorbée.
La différence est entre le KERMA et la dose absorbée est fine : pour le KERMA on s’intéresse au
transfert d’énergie qui se déroule strictement dans la sphère tandis que pour la dose absorbée on
s’intéresse à l’énergie entrant ou sortant de l’unité quelle que soit le lieu du transfert d’énergie
initial. Si une interaction entre le rayonnement et le milieu a lieu en dehors de la sphère choisie mais
qu’une partie de l’énergie libérée va dans l’unité de volume choisie alors cette énergie sera prise en
compte dans la dose absorbée mais pas dans le KERMA. De même, si une interaction a lieu dans la
sphère et libère de l’énergie en dehors, cette énergie ne sera prise en compte pour la dose absorbée.
Dans un état d’équilibre électronique ces deux phénomènes se compensent et on a KERMA = Dose
absorbée. En pratique médicale c’est toujours le cas.
Si on rapporte cette dose absorbée à un temps, on obtient le débit de dose, D point (]),
exprimé en gray par seconde (Gy.s-1).
Les sources d’irradiation fonctionnent à débit de dose constant dans le monde médical, ainsi la
dose est directement proportionnelle au temps d’exposition.
£= -ñœ ]œ
Wr Rayonnement
1 Rayons X, γ et électrons
5 Proton (E>20 MeV)
5 à 20 selon Ec Neutrons
20 Particules α
La dose efficace, notée E, prend en compte les différences de radiosensibilité des différents
organes. À chaque organe on associe un facteur de pondération tissulaire sans dimension Wt, plus ce
facteur est grand plus le tissu associé sera sensible aux rayonnements, sachant que la somme des Wt
de tous les tissus de l’organisme est égale à 1. On la calcule à partir de la dose équivalente : on fait la
somme sur les organes des doses équivalentes associées à leur facteur de pondération tissulaire :
z= -Ç ×£Ç
Ç
Organe Wt
Gonades 0.2
Moelle osseuse, poumons, estomac, côlon 0.12 (chacun)
Vessie, foie, œsophage, thyroïde, seins 0.05
Peau 0.01
Surface des os 0.01
Autres tissus 0.05
Total 1
Les facteurs de pondération Wr et Wt sont sans dimension les doses équivalente et efficace ont
donc la même dimension que la dose absorbée, soit une énergie sur une masse L2T-2.
Néanmoins, E et H ne sont pas exprimés en Gray mais en Sievert (Sv) ! Le sievert est donc la
grandeur utilisée en radioprotection, elle permet de comparer les irradiations naturelle et artificielle
mais aussi les différents examens entre eux. On ne peut pas la mesurer directement comme une
dose absorbée, il faut la calculer grâce à l’outil informatique et à des modèles du corps humain
appelés fantômes anthropomorphiques.
Le débit de dose a une importance capitale : plus il sera élevé, plus on observera d’effets
délétères : les dommages à l’ADN sont plus rapprochés dans le temps et la cellule a, par conséquent,
moins de temps pour les réparer.
Les effets déterministes concernent la mort cellulaire, ils sont prévisibles et proportionnels à la
dose à débit équivalent. Ils sont réversibles : les cellules mortes seront remplacées et l’atteinte est
ainsi limitée dans le temps. De plus il faut une dose seuil pour observer macroscopiquement des
effets, ils sont en effet proportionnels à la dose. Cliniquement on observe un syndrome d’irradiation
aiguë : brûlures ou érythème (rougeurs), nausée, vomissements diarrhée...
Les effets stochastiques sont, quant à eux, aléatoires ; quel que soit la dose on ne peut être sûr
de leur expression. Ils correspondent au retentissement sur l’organisme de la présence de cellules
mutées, dont l’ADN a été modifié. Ces cellules mutantes peuvent soit perdre leur capacité à se
multiplier, soit être prises en charges par le système immunitaire (il n’y aura pas de retentissement
macroscopique dans ces deux cas) ; soit survivre et se multiplier provoquant des effets génétiques
comme des cancers. Les effets stochastiques voient leur probabilité augmenter avec la dose mais pas
leur gravité : une irradiation faible pourra être létale par ses effets dits aléatoires ! Il n’y a ainsi pas de
seuil pour observer des effets néfastes de l’irradiation, celle-ci ne présentant pas de seuil au niveau
des atteintes stochastiques.
De plus, ces effets sont irréversibles ; l’augmentation du risque est définitive : les cellules
mutées se multiplient et perdurent dans l’organisme, on aura des effets à long terme.
Remarque. – Les effets, qu’ils soient à court ou long terme, peuvent survenir après une
exposition ponctuelle ; un effet à long terme n’implique pas une exposition chronique !
La radiolyse de l’eau : c’est-à dire de son ionisation. Elle est contemporaine de l’exposition et à
très court terme provoquera des morts cellulaires et à des années d’intervalle pourra induire des
cancers.
§ Cosmique : les radiations cosmiques ionisent des molécules de gaz, ainsi plus on est en
altitude plus le gaz sera source d’irradiation car lui-même soumis à plus de
rayonnements cosmiques. On estime sa participation à l’exposition totale à une hauteur
de 10.5 %.
§ Radon : il s’agit de la plus grande source d’exposition aux radiations d’origine naturelle.
C’est un gaz noble, isotope radioactif libéré par les roches en particuliers dans les
massifs granitiques ou volcaniques. Il représente à lui seul 37 % de l’exposition totale
annuelle en moyenne. Cette proportion dépend de la géographie : la Bretagne,
l’Auvergne et la Corse sont particulièrement exposées.
L’exposition artificielle est, hors catastrophe industrielle telle que Fukushima ou Tchernobyl,
quasi-intégralement due à la pratique médicale. On lui donne une moyenne d’1 mSv mais ce chiffre
est en réalité très variable. De plus les examens d’imagerie ne sont pas homogènes en termes
d’irradiation.
Ainsi si dans la prise en charge d’un traumatisme du bassin, on fait deux radios du bassin avant
et après intervention chirurgicale et un scanner : on a été exposé en quelques mois à l’équivalent de
6 ans d’exposition naturelle.
Cela se traduit par la loi de l’inverse du carré de la distance : le débit de dose (et donc la dose)
sont proportionnels à l’inverse du carré de la distance à la source. C’est-à-dire que si on double la
distance on divise par 2 x 2 = 4 la dose reçue, si on triple la distance on divise par 3 x 3 = 9 la dose
reçue et ainsi de suite.
On peut aussi diminuer la dose reçue en atténuant le nombre de rayons. Pour cela, on place des
écrans entre la source et la surface exposée.
On peut alors relier N le nombre de rayons émergeant de l’écran n’ayant subi aucune
interaction au nombre N0 de rayons incidents par la relation suivante :
Î = Î’ «*k‚
Ou x est l’épaisseur de l’écran et Mu une constante liée à la fois à l’énergie des photons incidents
et aux caractéristiques de l’écran. Mu est appelé le coefficient linéique global d’atténuation, on
l’exprime souvent en cm-1 et sa dimension est L-1. On note l’existence d’une épaisseur d’écran
particulière nommée couche de demi-atténuation (CDA) pour laquelle la moitié des rayons passent
°Ì
l’écran. Autrement dit : ∂ = ∂D exp −y`]P = . Pour se protéger de l’irradiation, on a donc trois
R
éléments clefs : le temps d’exposition - la distance à la source - l’utilisation d’écrans adapté au
rayonnement.
§ La contamination externe
Il s’agit de la présence d’agents radioactifs au contact du patient, sur sa peau. Elle ne concerne
pas les rayonnements α qui ne passent pas la couche cornée. Les risques associés sont la brûlure
radiologique en cas de contact prolongé, la contamination interne secondaire si internalisation et le
transfert de contamination. Il existe donc un risque significatif pour l’entourage mais aussi le
personnel soignant. On se protège donc en recouvrant sa surface corporelle avec une combinaison,
des gants, masques, charlottes et lunettes jetables. On fait le diagnostic de contamination externe
avec des compteurs externes qui sont des détecteurs de radiations.
§ La contamination interne
Il s’agit de la présence d’une source radioactive dans le corps. Elle peut y pénétrer par
inhalation, par ingestion ou par blessure. On s’en protège en évitant de manger, de boire de fumer et
de se blesser ou bien en protégeant les organes cibles : par exemple, on sature la thyroïde d’iode
stable pour ne pas qu’elle capte d’iode radioactif et soit irradiée.
Dans le cas d’une contamination interne l’activité de la source diminue de deux façons : par
décroissance radioactive physique et par élimination biologique : le corps va l’éliminer. L’élimination
biologique se fait selon le même modèle mathématique que la décroissance radioactive habituelle,
selon une période ou demi-vie appelée période biologique. C’est le temps nécessaire à l’organisme
pour éliminer la moitié de la masse d’une substance. La période « réelle », dite effective, sera donc
une combinaison de la période physique et de la période biologique.
» » »
= +
ç«!! ç?‹F 笔Ë≈‹;⁄«
On introduit, dans le cas d’une contamination interne, la notion de dose engagée. C’est la dose
reçue par l’organisme tout au long de la présence du radionucléide dans le corps.
Pour cela, trois principes ont été inscrits dans le code de la santé publique : la justification -
l’optimisation - la limitation de doses. Les procédures exposant à des rayonnements ionisants
doivent être justifiées, elles doivent exposer le patient à un minimum de rayonnements à des doses
limitées.
Pour les travailleurs de santé exposés dans le cadre de leur emploi des limites annuelles ont été
mises en place. Leur respect est contrôlé par contrôle dosimétrique. De plus, ces limites sont
inférieures aux seuils démontrés d’effets délétères sur l’organisme.
Remerciements et Remarques
§ Un grand merci aux personnes qui ont donné de leur temps à la rédaction du contenu :
- Anthony DESTOUCHES
- Violaine RANNOU
- Joel CHHIM Responsable de la matière : Morgane CHOVET
- Juliane PIC-GRENIER
- Julien CHABAUD-SASSOULAS
Pour toutes suggestions, remarques et corrections, vous pouvez vous rendre sur le forum dédié
aux Polys dans le module Spiral du Tutorat.
Il s'agit de la troisième année d’existence des Polys du Tutorat. Ce poly sera bien sûr amélioré
dans son contenu et dans sa forme au cours des années à venir.
Les Polys du Tutorat sont rédigés à partir des cours de l'année précédente. Ils n'ont aucune
valeur de référence de cours. Ils ne peuvent en aucun cas servir de référence opposable au concours
PACES, à une épreuve majeure ou au concours blanc du Tutorat. La seule référence qui fait foi pour
le concours PACES est le cours magistral donné en amphithéâtre par l'enseignant.
Le Tutorat déconseille fortement de se fier uniquement aux polys et de négliger les cours
magistraux. Une écoute active associée à une prise de notes efficace, puis un recopiage au propre
reste la méthode la plus appropriée à l'apprentissage des cours.