Vous êtes sur la page 1sur 63

Pr.

Filali Mohammed

Université Sidi Mohamed Ben Abdellah A.U 2019-2020

Faculté des Sciences Dhar El Mahraz Fès

Département de Physique

FILIERE SMP

COURS DE PHYSIQUE STATISTIQUE


S5

Prof. Filali Mohammed

1
Pr. Filali Mohammed
Pr. Filali Mohammed

PROGRAMME

Chap 1 : Distributions de probabilité (Binomiale,


Gaussienne, Poisson)

Chap 2 : Description statistique des systèmes de


particules- Ensemble microcanonique

Chap 3 : Entropie statistique

Chap 4 : Distribution de Boltzmann- Gibbs


Ensemble Canonique
Ensemble Grand canonique
Distribution de Maxwell
Ensemble Isobare-Isotherme
Grandeurs Thermodynamiques

2
Pr. Filali Mohammed
Pr. Filali Mohammed

Chap1 : Distributions de probabilité


(Binomiale, Gaussienne, Poisson)

Introduction
Nous révisons ici quelques unes des distributions fréquemment
rencontrées : Binomiale, Gaussienne et Poisson.

I- Distribution binomiale

En physique statistique, la distribution binomiale est une expérience à deux


événements possibles qui s’applique { des problèmes très divers : réseau
de spin linéaire, chaine de polymère idéale, marche au hasard…

Nous allons traiter le probléme de la marche au hasard, à chaque étape, le


systéme avance d’une longueur 𝑙 donnée dans l’une ou l’autre direction de
l’espace avec une probabilité 𝑝 ou 𝑞 /

𝑝+𝑞 =1 (1)

On peut citer l’exemple d’un ivrogne :

* la probabilité d’aller { droite est 𝑝 .

* la probabilité d’aller { gauche est 𝑞 .

On considère que le système se déplace suivant l’axe des x. 𝐴 𝑡 = 0, le


système se trouve à 𝑥 = 0 et les pas sont indépendants. Après N pas, nous
voulons calculer la probabilité 𝑃(𝑥) pour que le système soit à la distance x
de l’origine. Chaque pas a une longueur 𝑙

⇒ 𝑥 = 𝑚𝑙 (2) où m est un entier, 𝑚 ∈ −𝑁, 𝑁

Calculer 𝑃(𝑥) revient à calculer 𝑃(𝑚).

Soit n le nombre de pas vers la droite.

Soit n’ le nombre de pas vers la gauche.


3
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑁 = 𝑛 + 𝑛′ et 𝑚 = 𝑛 − 𝑛′ = 2𝑛 − 𝑁.

Une séquence particulière de n pas vers la droite et n’ vers la gauche :


𝑑, 𝑔, 𝑑, 𝑑, 𝑑, 𝑔, 𝑑, … / 𝑑 = 𝑛 et 𝑔 = 𝑛′ . En physique statistique, cette
séquence représente un microétat. Par contre, 𝑥 = 𝑚𝑙 représente un
macroétat.

Exemple : 𝑛 = 2; 𝑛′ = 1

𝑑, 𝑑, 𝑔 ; 𝑑, 𝑔, 𝑑 ; 𝑔, 𝑑, 𝑑 ⇒ 3 séquences différentes ⇒ 3 combinaisons ⇒


3 microétats.

𝑥 = 𝑚𝑙 ⇒ 𝑥 = 𝑙 .

La séquence particulière de n pas vers la droite ⇔ un problème de tirer n


boules parmi N boules identiques :
𝑁! 𝑁!
𝐶𝑁𝑛 = =
𝑛! 𝑁 − 𝑛 ! 𝑛! 𝑛′ !

⇒ la probabilité d’avoir n pas { droite et n’ pas { gauche :

𝑃 𝑛 = 𝐶𝑁𝑛 𝑝𝑛 𝑞 𝑛′ (3)

L’expression(3) représente la distribution binomiale.

a- Normalisation de la probabilité P(n)

le nombre de pas n varie de 0 à N ⇒ 𝑁


𝑛=0 𝑃 𝑛 = 𝐶𝑁𝑛 𝑝𝑛 𝑞 𝑛′

⇒ 𝑁
𝑛=0 𝑃 𝑛 = 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑝𝑛 𝑞 𝑁−𝑛 (4)

Or le développement d’un binôme :


𝑁

(𝑎 + 𝑏)𝑁 = 𝐶𝑁𝑛 𝑎𝑛 𝑏 𝑁−𝑛


𝑛=0

⇒ 𝑁
𝑛=0 𝑃 𝑛 = 𝑝+𝑞 𝑁
=1 (5)

C’est pour cette raison que l’on appelle l’expression (3) la distribution
𝑁+𝑚
binomiale. Or, on s’intéresse à P(m) : 𝑚 = 2𝑛 − 𝑁 ⇒ 𝑛 =
2
𝑁 +𝑚 𝑁 −𝑚
𝑁! ( ) ( )
⇒ 𝑃 𝑚 = 𝑁 +𝑚 𝑁 −𝑚 𝑝 2 𝑞 2 (6)
! !
2 2

4
Pr. Filali Mohammed
Pr. Filali Mohammed

1
Dans le cas ou 𝑝 = 𝑞 =
2

𝑁! 1 𝑁
𝑃 𝑚 = 𝑁 +𝑚 𝑁 −𝑚 (7)
! ! 2
2 2

b- Valeurs moyennes : 𝒏 ; 𝒏′ ; 𝒎

∗ 𝒏 :

On utilise la probabilité 𝑃 𝑛 ⇒ 𝑛 = 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑛 𝑝𝑛 𝑞 𝑁−𝑛 .

On suppose que p et q deux variables indépendantes et continues. On


𝜕 𝜕
remarque que 𝑛𝑝𝑛 = 𝑝 𝑝𝑛 ⇒ 𝑛 = 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑝 𝑝𝑛 𝑞 𝑁−𝑛
𝜕𝑝 𝜕𝑝

𝜕
=𝑝 𝑁 𝑛
𝑛 =0 𝐶𝑁 𝑝𝑛 𝑞 𝑁−𝑛 (8)
𝜕𝑝

Or 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑝𝑛 𝑞 𝑁−𝑛 = 𝑝 + 𝑞 𝑁

𝜕
(8) ⇒ 𝑝 𝑝+𝑞 𝑁
= 𝑝 𝑁(𝑝 + 𝑞)𝑁−1 (9)
𝜕𝑝

Ceci est valable pour toute valeur de p et q, or p+q =1

⇒ 𝑛 = 𝑝𝑁 (10)

La relation (10) exprime la valeur moyenne du nombre de pas à droite sur


un total de N est p N

∗ 𝒏′ :

On a : 𝑁 = 𝑛 + 𝑛′ ⇒ 𝑁 = 𝑁 = 𝑛 + 𝑛′ ⇒ 𝑛′ = 𝑁 − 𝑛 = 𝑁 − 𝑝𝑁

= 𝑁 (1 − 𝑝) ⇒ 𝑛′ = 𝑞𝑁 (11)

∗ 𝒎 :

𝑚 = 𝑛 − 𝑛′ ⇒ 𝑚 = 𝑛 − 𝑛′ ⇒ 𝑚 = 𝑝−𝑞 𝑁 (12)

Cas particulier:

Si p=q ⇒ 𝑚 =0

5
Pr. Filali Mohammed
Pr. Filali Mohammed

c- Variance : 𝝈𝟐𝒏 ; 𝝈𝟐𝒎

Dans une distribution de probabilité, il existe une dispersion autour de la


valeur moyenne. L’ampleur de celle-ci est mesurée { l’aide de la variance
𝜍2 .

* 𝝈𝟐𝒏 :

𝜍𝑛2 = (𝑛 − 𝑛 2
= 𝑛2 + 𝑛 2
− 2𝑛 𝑛 ⇒ 𝜍𝑛2 = 𝑛2 − 𝑛 2
(13)
𝜕
𝑛 2
= 𝑁
𝑛=0 𝑛
2
𝑃 𝑛 = 𝑁 𝑛
𝑛 =0 𝐶𝑁 𝑛2 𝑝𝑛 𝑞 𝑁−𝑛 or 𝑛2 𝑝𝑛 = 𝑛 𝑝 𝑝𝑛 =
𝜕𝑝
𝜕 𝜕
(𝑝 )2 𝑝 𝑛 ⇒ 𝑛 2
= (𝑝 )2 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑝𝑛 𝑞 𝑁−𝑛
𝜕𝑝 𝜕𝑝

or d’aprés (4): 𝑁 𝑛
𝑛=0 𝐶𝑁 𝑝𝑛 𝑞 𝑁−𝑛 = (𝑝 + 𝑞)𝑁
𝜕 𝜕
⇒ 𝑛 2
= (𝑝 )2 (𝑝 + 𝑞)𝑁 = (𝑝 ) Np (𝑝 + 𝑞)𝑁−1 =
𝜕𝑝 𝜕𝑝

𝑝 𝑁 𝑝+𝑞 𝑁−1
+ 𝑁 𝑁 − 1 𝑝 (𝑝 + 𝑞)𝑁−2 ; or 𝑝+𝑞 =1

⇒ 𝑛 2 = 𝑁𝑝 1 + 𝑁𝑝 − 𝑝 = 𝑁𝑝 𝑞 + 𝑁𝑝 = 𝑁𝑝 2
+ 𝑁𝑝𝑞 =
2
𝑛 + 𝑁𝑝𝑞

⇒ 𝜍𝑛2 = 𝑛2 − 𝑛 2
= 𝑁𝑝𝑞 (14)

d- L’écart type 𝚫𝒏 :

L’écart type Δ𝑛 = 𝜍𝑛 est proportionnel à la largeur de la distribution 𝑃(𝑛)


autour de 𝑛 . La mesure relative de cette largeur :

Δ𝑛 𝑁𝑝𝑞 𝑞 1
= = (15)
𝑛 𝑁𝑝 𝑝 𝑁

1 Δ𝑛 1
Si 𝑝 = 𝑞 = ⇒ = (16)
2 𝑛 𝑁

c- Variance : 𝝈𝟐𝒎

𝜍𝑚2 = 𝑚2 − 𝑚 2
; On a : 𝑚 = 2𝑛 − 𝑁 ⇒ 𝑚2 = 4𝑛2 − 4𝑛𝑁 + 𝑁 2

et 𝑚 = 2 𝑛 − 𝑁 ; 𝑚2 = 4 𝑛2 − 4𝑁 𝑛 + 𝑁 2
2 2
et 𝑚 =4 𝑛 − 4 𝑁 𝑛 + 𝑁2
6
Pr. Filali Mohammed
Pr. Filali Mohammed

⇒ 𝑚2 − 𝑚 2
= 4 ( 𝑛2 – 𝑛 2
) ⇒ 𝜍𝑚2 = 4 𝜍𝑛2 = 4𝑁𝑝𝑞 (17)
1
Dans le cas 𝑝 = 𝑞 = ⇒ 𝜍𝑚2 = 𝑁.
2

II- Distribution de Gauss

La distribution Gaussienne est une excellente approximation de la


distribution binomiale lorsque N >> 1 et 𝑝 , 𝑞 ne sont pas très petits.

Soit 𝑛 et 𝑃( 𝑛 ) le maximum de la distribution binomiale et


𝑃 𝑛 + 1 − 𝑃(𝑛) ≪ 𝑃(𝑛) ⇒ 𝑃(𝑛) est une fonction continue.

log 𝑃(𝑛) a le même comportement que 𝑃(𝑛).

Développement de Taylor de log 𝑃 𝑛 au voisinage de 𝑛 = 𝑛 à l’ordre 2


𝑑𝑙𝑜𝑔𝑃 𝑛 1 𝑑 2 𝑙𝑜𝑔𝑃 𝑛
log 𝑃 𝑛 = log 𝑃(𝑛) + 𝑛 − 𝑛 + 𝑛 − 𝑛 2( )𝑛=𝑛 +
𝑑𝑛 2 𝑑𝑛 2
3
Θ( n − n ).
𝑑𝑙𝑜𝑔𝑃 𝑛
Par hypothése, 𝑃(𝑛) est maximum pour 𝑛 = 𝑛 ⇒ = 0 (18)
𝑑𝑛 𝑛 =𝑛

𝑃(𝑛 ) 1 𝑑 2 𝑙𝑜𝑔𝑃 𝑛
Au second ordre, on peut écrire :log = (𝑛 − 𝑛)2 ( )𝑛=𝑛
𝑃(𝑛 ) 2 𝑑𝑛 2

1 𝑑 2 𝑙𝑜𝑔𝑃 𝑛
⇒ 𝑃 𝑛 = 𝑃 𝑛 exp( (𝑛 − 𝑛 )2 ( ( )𝑛=𝑛 )
2 𝑑𝑛 2

𝑑 2 𝑙𝑜𝑔𝑃 𝑛
comme 𝑃 𝑛 est maximum en 𝑛 = 𝑛 ⇒ ( )𝑛=𝑛 < 0
𝑑𝑛 2

𝑑 2 𝑙𝑜𝑔𝑃 𝑛 −1
On pose ( )𝑛=𝑛 =
𝑑𝑛 2 𝜍2

1 (𝑛 −𝑛 )2
⇒ 𝑃 𝑛 = 𝑃 𝑛 exp(− ) (19)
2 𝜍2

a- Calcul de 𝒏 :
𝑁!
D’après (3), on a : 𝑃 𝑛 = 𝑝𝑛 𝑞 𝑁−𝑛
𝑛 ! 𝑁−𝑛 !

⇒ log 𝑃 𝑛 = log 𝑁! − 𝑙𝑜𝑔𝑛! − log 𝑁 − 𝑛 ! + 𝑛𝑙𝑜𝑔𝑝 + 𝑁 − 𝑛 𝑙𝑜𝑔𝑞

Formule de Stirling : 𝑙𝑜𝑔𝑁! ≈ 𝑁𝑙𝑜𝑔𝑁 − 𝑁 (20)

7
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑑𝑙𝑜𝑔 𝑛! 𝑑 𝑛𝑙𝑜𝑔𝑛 −𝑛 𝑑𝑙𝑜𝑔 𝑃 𝑛


= = 𝑙𝑜𝑔𝑛 ⇒ = −𝑙𝑜𝑔𝑛 + log 𝑁 − 𝑛 + 𝑙𝑜𝑔𝑝 −
𝑑𝑛 𝑑𝑛 𝑑𝑛
𝑑𝑙𝑜𝑔 𝑃 𝑛 𝑁−𝑛 𝑝
𝑙𝑜𝑔𝑞 ⇒ = log .
𝑑𝑛 𝑞𝑛

Pour satisfaire la condition du maximum (18) :


𝑑𝑙𝑜𝑔 𝑃 𝑛 𝑁−𝑛 𝑝 𝑁−𝑛 𝑝
= 0 = log⁡
( )⇔ = 1 ⇒ 𝑁 − 𝑛 𝑝 = 𝑞𝑛
𝑑𝑛 𝑛 =𝑛 𝑞𝑛 𝑞𝑛

⇔ 𝑝 + 𝑞 𝑛 = 𝑁𝑝 ⇔ 𝑛 = 𝑁𝑝 (21) car 𝑝 + 𝑞 = 1

Or d’après la distribution binomiale 𝑛 = 𝑁𝑝 ⇒ 𝑛 = 𝑛 = 𝑛 (22)


1 (𝑛 −𝑛 )2
⇒ 𝑃 𝑛 = 𝑃 𝑛 exp(− ) (23)
2 𝜍2

L’expression (23) représente la distribution gaussienne


+∞
𝑃 𝑛 est determiné à partir de la normalisation : −∞
𝑃 𝑛 𝑑𝑛 = 1
1
⇒ 𝑃 𝑛 =
2𝜋 𝜍 2

P(n)

Distribution gaussienne avec 𝒏 = 𝝁

III- Distribution de Poisson

La distribution de Poisson est une limite intéressante de la distribution


binomiale dans le cas où 𝑁 ≫ 1 et 𝑝 ≪ 1. La distribution de Poisson
s’applique { des événements rares (𝑛 ≪ 𝑁), par exemple, le nombre de
personne qui entrent dans un supermarché / minute.

8
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑁! 𝑁 𝑁−1 𝑁−2 …….(𝑁−𝑛+1) 𝑁𝑛


On a : 𝐶𝑁𝑛 = = ≈
𝑛! 𝑁−𝑛 ! 𝑛! 𝑛!

On a n termes au numérateur car 𝑁 − 𝑁 − 𝑛 = 𝑛 car 𝑛 ≪ 1.

D’autre part : log 𝑞 𝑁−𝑛 = log(1 − 𝑝)𝑁−𝑛 = 𝑁 − 𝑛 log 1 − 𝑝 ≈ −𝑁𝑝

car (𝑝 ≪ 1 et 𝑛 ≪ 𝑁) ⇒ 𝑞 𝑁−𝑛 = 𝑒 −𝑁𝑝 (24)

D’après la distribution binomiale :


𝑁! 𝑛 𝑁−𝑛
𝑁 𝑛 𝑛 −𝑁𝑝
𝑃 𝑛 = 𝑝 𝑞 ≈ 𝑝 𝑒
𝑛! 𝑁 − 𝑛 ! 𝑛!
𝜆𝑛
On pose 𝜆 = 𝑁𝑝 ⇒ 𝑃 𝑛 = 𝑝𝑛 𝑒 −𝜆 (25)
𝑛!

L’expression (24) représente la distribution de Poisson.

a- P(n) est normalisée :


𝑛 −𝜆 𝑛 𝑛
𝑁 𝑁 𝜆 𝑒 𝑁 𝜆 𝑁 𝜆
𝑛=0 𝑃 𝑛 = 𝑛=0 𝑛 ! = 𝑒 −𝜆 𝑛 =0 𝑛! or 𝑛=0 𝑛 ! = 𝑒𝜆

⇒ 𝑁
𝑛=0 𝑃 𝑛 ≈ 𝑒 −𝜆 . 𝑒 𝜆 = 1 ⇒ P(n) est normalisée.

b- La valeur moyenne 𝒏
𝑁 𝑁 𝑁 𝑁
𝜆𝑛 −𝜆 𝜆𝑛 𝜆 𝜆𝑛−1
𝑛 = 𝑛𝑃 𝑛 = 𝑛 𝑒 = 𝑒 −𝜆 𝑛 = 𝑒 −𝜆 𝑛 =
𝑛! 𝑛! 𝑛(𝑛 − 1)!
𝑛 =0 𝑛 =0 𝑛 =0 𝑛 =1

𝑁 𝜆 𝑛 −1 𝑁−1 𝜆
𝑚
𝜆𝑒 −𝜆 𝑛=1 𝑛−1 ! = 𝜆𝑒 −𝜆 𝑚 =0 𝑚 ! ( on pose 𝑛 − 1 = 𝑚 )

⇒ 𝑛 =𝜆 (26)

b- La variance 𝝈𝟐 :

𝜍 2 = 𝑛2 − 𝑛 2

𝑁 𝑁 𝑁
2 2 2
𝜆𝑛 −𝜆 𝜆𝑛
𝑛 = 𝑛 𝑃 𝑛 = 𝑛 𝑒 = 𝑒 −𝜆 𝑛 2
𝑛! 𝑛!
𝑛 =0 𝑛 =0 𝑛=0
𝑁 𝑁
−𝜆
𝜆𝑛−1 𝜆𝑛 −1
= 𝜆𝑒 𝑛 = 𝜆𝑒 −𝜆 (𝑛 + 1 − 1)
𝑛−1 ! 𝑛−1 !
𝑛=1 𝑛=1

9
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑁 𝜆 𝑛 −1 𝑁 𝜆 𝑛 −1
𝑛2 = 𝜆𝑒 −𝜆 𝑛=1(𝑛 − 1) + 𝑛=1 𝑛 −1 !
𝑛 −1 !

𝑛2 = 𝜆𝑒 −𝜆 𝜆𝑒 𝜆 + 𝑒 𝜆 = 𝜆 𝜆 + 1

⇒ 𝑛2 = 𝜆2 + 𝜆 (27)

⇒ 𝜍 2 = 𝑛2 − 𝑛 2
= 𝜆2 + 𝜆 − 𝜆2

⇒ 𝜍2 = 𝜆 (28)

Quelques distributions de Poisson pour différentes valeurs de 𝝀

Remarque :

La distribution de Poisson est asymétrique ⇒ la valeur la plus probable est


différente de la valeur moyenne.

10
Pr. Filali Mohammed
Pr. Filali Mohammed

Chap2 : Description statistique des systèmes de


particules- Ensemble micro canonique

Introduction
Les systèmes physiques que nous étudions contiennent un très grand
nombre de particules. Par conséquent, il est impossible de suivre leurs
mouvements individuels dans le temps.

En mécanique quantique, un microétat caractérisé par un ket 𝜓 est


complétement préparé. Par contre, un macroétat est mal connu. Donc, une
loi de probabilité de tous les kets possibles 𝜓𝑘 .

En mécanique classique, un microétat est caractérisé par la connaissance de


la position et de l’impulsion des particules formant le système. Un
macroétat est imparfaitement connu ce qui nécessite une mesure de
probabilité sur l’espace de ces positions ou impulsions.

I- Description des systèmes quantiques

I-1 Description d’un système par un vecteur d’état ( état pur ou


microétat)

Considérons un système décrit par le vecteur d’état 𝜓(𝑡) :

𝜓(𝑡) = 𝐶𝑛 𝑡 𝑈𝑛
𝑛

où les 𝑈𝑛 > forment une base orthonormée de l’espace des états


supposée discréte. Les coefficients 𝐶𝑛 (𝑡) satisfont la relation :

2
𝐶𝑛 (𝑡) =1
𝑛

qui exprime que 𝜓(𝑡) est normé.

11
Pr. Filali Mohammed
Pr. Filali Mohammed

Observable

Soit A une observable d’élément de matrice :

𝑈𝑛 𝐴 𝑈𝑝 = 𝐴𝑛𝑝

La valeur moyenne de A { l’instant est :

𝐴(𝑡) = 𝜓(𝑡) 𝐴 𝜓(𝑡) = 𝜓(𝑡) 𝑈𝑛 𝑈𝑛 𝐴 𝑈𝑝 𝑈𝑝 𝜓(𝑡)


𝑛 𝑝

= 𝜓 𝑡 𝑈𝑛 𝑈𝑛 𝐴 𝑈𝑝 𝑈𝑝 𝜓 𝑡
𝑛,𝑝

⟹ 𝐴(𝑡) = 𝐶𝑛∗ 𝑡 𝐶𝑝 𝑡 𝐴𝑛𝑝


𝑛 ,𝑝

Enfin, l’équation de l’évolution de 𝜓(𝑡) est l’équation de Schrödinger :

d 𝜓(𝑡)
𝑖ħ = 𝐻 𝑡 𝜓(𝑡)
dt
a- Description par un opérateur densité

Soit A une observable quelconque ( Energie moment cinétique,…) ;


calculons la valeur moyenne de A, sachant que l’état du système est
𝜓(𝑡) :

𝐴(𝑡) = 𝜓(𝑡) 𝐴 𝜓(𝑡) = 𝐶𝑛∗ 𝑡 𝐶𝑝 𝑡 𝐴𝑛𝑝


𝑛 ,𝑝

= 𝑛,𝑝 𝜓(𝑡) 𝑈𝑛 𝑈𝑝 𝜓(𝑡) 𝐴𝑛𝑝 = 𝑛 ,𝑝 𝑈𝑝 𝜓(𝑡) 𝜓(𝑡) 𝑈𝑛 𝑈𝑛 𝐴 𝑈𝑝

= 𝑝 𝑈𝑝 𝜓(𝑡) 𝜓(𝑡) 𝐴 𝑈𝑝

⟹ 𝐴(𝑡) = 𝑝 𝜓(𝑡) 𝜌𝐴 𝜓(𝑡) (1)

12
Pr. Filali Mohammed
Pr. Filali Mohammed

avec 𝑛 𝑈𝑛 𝑈𝑛 = 𝕀 et 𝜌 𝑡 = 𝜓(𝑡) 𝜓(𝑡) (2) est l’opérateur


densité.

L’opérateur densité est représenté dans la base 𝑈𝑛 par une matrice,


appelée matrice densité dont les élements sont :

𝜌𝑝𝑛 𝑡 = 𝑈𝑝 𝐴 𝑈𝑛 = 𝐶𝑛∗ 𝑡 𝐶𝑝 𝑡

𝜌𝑛𝑛 𝑡 = 𝑈𝑛 𝐴 𝑈𝑛 = 𝐶𝑛∗ 𝑡 𝐶𝑛 𝑡 = 𝐶𝑛 𝑡 2

2
⟹ 𝐶𝑛 𝑡 = 𝜌𝑛𝑛 𝑡 = 𝑇𝑟𝜌 𝑡 = 1
𝑛 𝑛

D’après la relation (1) : 𝐴(𝑡) = 𝑝 𝑈𝑝 𝜌𝐴 𝑈𝑝 ⟹ 𝑇𝑟𝜌 𝑡 𝐴 = 𝐴(𝑡)

avec la trace d’un opérateur A : 𝑇𝑟𝐴 = 𝑖 𝑈𝑖 𝐴 𝑈𝑖 .

b- Evolution dans le temps de l’opérateur 𝝆 𝒕


𝑑𝜌(𝑡) 𝑑 𝑑 𝑑
= 𝜓(𝑡) 𝜓(𝑡) = ( 𝜓𝑡 )𝜓𝑡 + 𝜓𝑡 ( 𝜓𝑡 )
𝑑𝑡 𝑑𝑡 𝑑𝑡 𝑑𝑡
d 𝜓(𝑡)> d<𝜓(𝑡)
or 𝑖 ħ = 𝐻 𝑡 𝜓(𝑡) > et −𝑖 ħ = 𝜓(𝑡) 𝐻
dt dt

𝑑𝜌(𝑡) 1 1
⟹ = 𝐻 𝜓(𝑡) 𝜓(𝑡) + 𝜓 𝑡 >(− 𝜓(𝑡) 𝐻)
𝑑𝑡 𝑖ħ 𝑖ħ
1
= 𝐻 𝜓(𝑡) 𝜓(𝑡) − 𝜓(𝑡) 𝜓(𝑡) 𝐻)
𝑖ħ
1 1
= 𝐻 , 𝜓(𝑡) 𝜓(𝑡) = 𝐻 , 𝜌(𝑡)
𝑖ħ 𝑖ħ
𝑑𝜌(𝑡) 1
⟹ = 𝐻 , 𝜌(𝑡)
𝑑𝑡 𝑖ħ
Equation de Schrödinger en fonction du temps

On rappelle que le commutateur 𝐴 , 𝐵 = 𝐴𝐵 − 𝐵𝐴

13
Pr. Filali Mohammed
Pr. Filali Mohammed

c- Calcul de probabilité à partir de 𝝆(𝒕)

Soit A une observable et an ces valeurs propres non dégénérées. Chacune


d’elles est associée au vecteur propre 𝑈𝑛 et un seul :

𝐴 𝑈𝑛 = 𝑎𝑛 𝑈𝑛

𝑈𝑛 constitue une base dans l’espace ℰ𝑛 . Soit 𝜓(𝑡) = 𝑛 𝐶𝑛 𝑈𝑛 . On


postule que la probabilité 𝑃(𝑎𝑛 ) de trouver la probabilité an dans la mesure
de A est :
2 2
𝑃 𝑎𝑛 = 𝐶𝑛 = 𝑈𝑛 𝜓 = 𝑈𝑛 𝜓 𝜓 𝑈𝑛

𝐶𝑛 . 𝐶𝑛∗

𝜓 𝑈𝑛 𝑈𝑛 𝜓 = 𝜓 𝑃𝑛 𝜓 = 𝑃𝑛

avec 𝑃𝑛 = 𝑈𝑛 𝑈𝑛 : 𝑃𝑛 est un projecteur


𝑃 𝑎𝑛 = 𝑃𝑛 = 𝑇𝑟𝜌 𝑡 𝑃𝑛 (3)

Remarque :

Contrairement au vecteur ket 𝜓(𝑡) , l’opérateur 𝜌(𝑡) n’est pas défini {


aucune phase arbitraire prés. En effet, la transformation de phase
𝜓 > → 𝑒 𝑖𝜃 𝜓 > et < 𝜓 → 𝑒−𝑖𝜃 < 𝜓 ne modifie pas l’opérateur densité
𝜌 = 𝜓 𝜓.

d- Propriétés de 𝝆(𝒕) dans le cas pur

D’après la formule 𝜌(𝑡) = 𝜓(𝑡) 𝜓(𝑡) , l’opérateur densité a les


propriétés suivantes :
+
1- 𝜌+ 𝑡 = 𝜌(𝑡) car ( 𝜓 𝑡 𝜓 𝑡 ) = 𝜓(𝑡) 𝜓(𝑡) = 𝜌(𝑡) ⟹ 𝜌(𝑡) est
hermétique.

𝟐- 𝜌2 𝑡 = 𝜌(𝑡) car 𝜌2 𝑡 = 𝜌 𝑡 . 𝜌 𝑡 = 𝜓(𝑡) 𝜓(𝑡) 𝜓(𝑡) 𝜓 𝑡

=1

= 𝜓(𝑡) 𝜓(𝑡) = 𝜌(𝑡)

14
Pr. Filali Mohammed
Pr. Filali Mohammed

3- 𝑡𝑟 𝜌2 𝑡 = 𝑡𝑟 𝜌 𝑡 = 1 .

Les propriétés (2) et (3) découlent du fait que 𝜌(𝑡) est un projecteur, ne
sont vraies que dans un cas pur.

I-2 Mélange statistique ou macroétat

Nous désirons décrire des situations plus générales où l’état du système est
mal connu. Pour un état de ce type, ou macroétat, le ket représentatif n’est
pas entièrement déterminé ; tout ce que l’on peut se donner, c’est la
probabilité pour que l’état soit préparé dans tel ou tel état : on est dans un
mélange statistique. un macroétat du système peut ainsi être décrit par
l’ensemble des kets possibles 𝜓𝑘 avec des probabilités de préparation
respectives pk. Ces probabilités sont positives et normalisées selon :
0 ≤ 𝑝1 , 𝑝2 , … , 𝑝𝑘 ≤ 1
𝑝𝑘 = 1
𝑘

Comment calculer dans ces conditions la probabilité P(an) pour qu’une


mesure de l’observable A donne le résultat an ?

𝑃𝑘 (𝑎𝑛 ) = 𝜓𝑘 𝑃𝑛 𝜓𝑘

c’est la probabilité que l’on aurait de trouver an, si le vecteur d’état était

𝜓𝑘 . Pour obtenir la probabilité cherchée P(an), il faut pondérer les 𝑃𝑘 (𝑎𝑛 )


par pk, puis sommer sur k :

𝑃 𝑎𝑛 = 𝑘 𝑝𝑘 𝑃𝑘 (𝑎𝑛 ) (4)

Or d’après (3), on a : 𝑃𝑘 𝑎𝑛 = 𝑡𝑟 𝜌𝑘 𝑃𝑛 (5)

où 𝜌𝑘 = 𝜓𝑘 𝜓𝑘 est l’opérateur densité correspondant { l’état 𝜓𝑘 .


Reportons { l’état (5) dans (4) :

𝑃 𝑎𝑛 = k pk tr 𝜌𝑘 𝑃𝑛 = tr k pk 𝜌𝑘 𝑃𝑛 ⟹ 𝑃 𝑎𝑛 = tr ρ𝑃𝑛

où 𝜌 = 𝑘 𝑝𝑘 𝜌𝑘 ; 𝜌 est une moyenne des opérateurs densité 𝜌𝑘 .

𝑡𝑟𝜌 = 𝑡𝑟 k pk 𝜌𝑘 = k pk 𝑡𝑟𝜌𝑘 . Or 𝑡𝑟𝜌𝑘 = 1 ⟹ 𝑡𝑟𝜌 = k pk =1

15
Pr. Filali Mohammed
Pr. Filali Mohammed

a- Calcul de la valeur moyenne de l’observable A

𝐴 = 𝑛 𝑎𝑛 𝑃(𝑎𝑛 ) or 𝑃 𝑎𝑛 = 𝑘 𝑝𝑘 𝜓𝑘 𝑃𝑛 𝜓𝑘

⟹ 𝐴 = 𝑛 𝑎𝑛 𝑘 𝑝𝑘 𝜓𝑘 𝑃𝑛 𝜓𝑘 ⟺ 𝐴 = 𝑘 𝑝𝑘 𝜓𝑘 𝑛 𝑎𝑛 𝑃𝑛 𝜓𝑘

avec 𝐴 = 𝑛 𝑎𝑛 𝑃𝑛 ⟹ 𝐴 = 𝑘 𝑝𝑘 𝜓𝑘 𝐴 𝜓𝑘 or

𝜓𝑘 𝐴 𝜓𝑘 = 𝐴 𝑘 = 𝑡𝑟𝜌𝑘 𝐴 ⟹ 𝐴 = 𝑘 𝑝𝑘 𝑡𝑟𝜌𝑘 𝐴 ⟹ 𝐴 = 𝑡𝑟𝜌𝐴

b- Propriétés de mélanges statistiques

1- 𝜌 est hermétique ⟺ 𝜌+ = 𝜌
+
En fait ( 𝑘 𝑝𝑘 𝜓𝑘 𝜓𝑘 ) = 𝑘 𝑝𝑘 𝜓𝑘 𝜓𝑘 = 𝑘 𝑝𝑘 𝜌𝑘 = 𝜌

2- 𝜌2 ≠ 𝜌 ⟺ ( 𝑘 𝑝𝑘 𝜓𝑘 𝜓𝑘 ) 2 = 𝑘,𝑘′ 𝑝𝑘 𝑝𝑘′ 𝜓𝑘 𝜓𝑘 𝜓𝑘′ 𝜓𝑘′

𝜓𝑘 est normé mais n’est pas forcément orthogonale. Même s’il est
orthogonale, on aura pour les éléments diagonaux pour 𝜌 les 𝑝𝑘 et pour 𝜌2
les 𝑝2 𝑘 .

3- 𝑡𝑟𝜌2 ≤ 1 car les 𝑝𝑘 < 1 ⟹ 𝑘 𝑝2 𝑘 ≤ 1

4- 𝜌 est un opérateur positif : 𝑈 𝜌 𝑈 = 𝑘 𝑝𝑘 𝑈 𝜓𝑘 𝜓𝑘 𝑈

= 𝑘 𝑝𝑘 𝑈 𝜓𝑘 2
avec 𝜌𝑘 = 𝜓𝑘 𝜓𝑘 . On a 𝑝𝑘 ≥ 0 ; 𝑈 𝜓𝑘 2
≥0

⟹ 𝑈𝜌 𝑈 ≥0 ∀ 𝑈 .

c- Les éléments de matrice de 𝝆

*Considérons l’élément diagonal 𝝆𝒏𝒏 :

𝜌= 𝑘 𝑝𝑘 𝜌𝑘 ⟺ 𝜌𝑛𝑛 = 𝑘 𝑝𝑘 𝜌𝑘 𝑛𝑛 avec 𝜌𝑘 = 𝜓𝑘 𝜓𝑘 .

𝐶𝑛 (𝑘) = 𝑈𝑛 𝜓𝑘 avec 𝑈𝑛 forme une base orthonormée dans l’espace


des états ℰ𝑛 .

𝜌𝑛𝑛 = 𝑝𝑘 𝜌𝑘 𝑛𝑛 = 𝑝𝑘 𝑈𝑛 𝜓𝑘 𝜓𝑘 𝑈𝑛
𝑘 𝑘

2
⟹ 𝜌𝑛𝑛 = 𝑝𝑘 𝐶𝑛 (𝑘)
𝑘

16
Pr. Filali Mohammed
Pr. Filali Mohammed

2
𝐶𝑛 (𝑘) est un nombre réel positif dont l’interprétation est la suivante : c’est
la probabilité, si l’état du systéme est 𝜓𝑘 , de trouver lors d’une mesure, ce
système dans l’état 𝑈𝑛 . 𝜌𝑛𝑛 représente, compte tenue de
l’indétermination sur l’état avant la mesure, la probabilité moyenne de
trouver le systéme dans l’état 𝑈𝑛 . 𝜌𝑛𝑛 est appelée ˝population de l’état
𝑈𝑛 ˝.
2
 𝜌𝑛𝑛 = 0 si tous les 𝐶𝑛 (𝑘) = 0.

*Considérons l’élément diagonal 𝝆𝒏𝒑 :

𝜌𝑛𝑝 = 𝑘 𝑝𝑘 𝜌𝑘 𝑛𝑝

𝜌𝑘 𝑛𝑝 = 𝑈𝑛 𝜓𝑘 𝜓𝑘 𝑈𝑝 = 𝐶𝑛 (𝑘) 𝐶𝑝 𝑘 ∗

⟹ 𝜌𝑛𝑝 = 𝑝𝑘 𝐶𝑛 (𝑘) 𝐶𝑝 𝑘 ∗

𝐶𝑛 (𝑘) 𝐶𝑝 𝑘 ∗ est un terme croisé. 𝜌𝑛𝑝 est une moyenne des termes croisés,
prise sur tous les états possibles du mélange statistique. 𝜌𝑛𝑝 est une somme
de nombres complexes. Les 𝜌𝑛𝑝 sont désignés sous le nom de cohérence.

*Evolution avec le temps de 𝝆𝒏𝒏 et de 𝝆𝒏𝒑

Si les kets 𝑈𝑛 sont vecteurs propres de l’Hamiltonien H, supposé


indépendant du temps : 𝐻 𝑈𝑛 > = 𝐸𝑛 𝑈𝑛 >
𝑑𝜌(𝑡)
On a: 𝑖ħ
𝑑𝑡
= 𝐻 , 𝜌(𝑡)

- Population

𝑑𝜌(𝑡)
𝑈𝑛 𝑖 ħ 𝑈𝑛 = 𝑈𝑛 𝐻 , 𝜌(𝑡) 𝑈𝑛
𝑑𝑡

𝑑𝜌𝑛𝑛 (𝑡)
⟹ 𝑖ħ = 𝑈𝑛 𝐻𝜌 − 𝜌𝐻 𝑈𝑛 = 𝑈𝑛 𝐸𝑛 𝜌 − 𝜌𝐸𝑛 𝑈𝑛
𝑑𝑡
= 𝐸𝑛 𝑈𝑛 𝜌 𝑈𝑛 − 𝐸𝑛 𝑈𝑛 𝜌 𝑈𝑛 = 𝜌𝑛𝑛 𝐸𝑛 − 𝐸𝑛 = 0

⟹ 𝜌𝑛𝑛 𝑡 = 𝐶𝑡𝑒

17
Pr. Filali Mohammed
Pr. Filali Mohammed

- Cohérence

𝑑𝜌𝑛𝑝 (𝑡) 𝑑𝜌(𝑡)


𝑖ħ = 𝑈𝑛 𝑖 ħ 𝑈𝑝 = 𝑈𝑛 𝐻 , 𝜌(𝑡) 𝑈𝑝 =
𝑑𝑡 𝑑𝑡

𝑈𝑛 𝐻𝜌 − 𝜌𝐻 𝑈𝑝 = 𝑈𝑛 𝐸𝑛 𝜌 − 𝜌𝐸𝑝 𝑈𝑝 = 𝐸𝑛 𝑈𝑛 𝜌 𝑈𝑝 − 𝐸𝑝 𝑈𝑛 𝜌 𝑈𝑝
𝑑𝜌 𝑛𝑝 (𝑡) 1
= 𝜌𝑛𝑝 𝐸𝑛 − 𝐸𝑝 . ⟹ = 𝐸𝑛 − 𝐸𝑝 𝜌𝑛𝑝
𝑑𝑡 𝑖ħ

𝑑𝜌𝑛𝑝 (𝑡) 1 𝑖
⟺ = 𝐸𝑛 − 𝐸𝑝 𝑑𝑡 ⟺ 𝑙𝑜𝑔𝜌𝑛𝑝 = 𝐸𝑝 − 𝐸𝑛 𝑡 + 𝐶𝑡𝑒
𝜌𝑛𝑝 𝑖ħ ħ

𝑖
𝐸𝑝 −𝐸𝑛 𝑡
⟹ 𝜌𝑛𝑝 𝑡 = 𝜌𝑛𝑝 0 𝑒 ħ

Les populations 𝜌𝑛𝑛 sont constantes et les cohérences 𝜌𝑛𝑝 oscillent aux
𝐸𝑝 −𝐸𝑛
fréquences de bohr du systéme avec 𝜔 = .
ħ

𝝆𝒏𝒏
𝝆𝒏𝒑

I-3 L’opérateur densité d’un sous système

Considérons un système formé de deux sous systèmes (1) et (2). Soit


(1) (1) (2)
𝑈𝑛 une base dans l’espace de Hilbert ℰ𝐻 et 𝑉𝑝 une base dans
(2)
l’espace de Hilbert ℰ𝐻 .

18
Pr. Filali Mohammed
Pr. Filali Mohammed

L’espace de Hilbert, ℰ𝐻 , du systéme global est naturellement le produit


(1) (2) (1) (2)
tensoriel des sous espaces ℰ𝐻 et ℰ𝐻 : ℰ𝐻 = ℰ𝐻 ⨂ ℰ𝐻 de base tensorielle
(1) (2)
𝑈𝑛 , 𝑉𝑝 .

La question qui se pose : comment construire { partir de l’opérateur densité


du système global (1)+(2), un opérateur densité d’un sous système
(𝜌1 𝑜𝑢 𝜌2 )?

a- Calcul de 𝝆𝟏 𝒐𝒖 𝝆𝟐

On introduit l’opérateur densité 𝜌1 dont les élements de matrice sont :

𝑈𝑛1 1
𝜌1 𝑈𝑛′ 1
= 𝜌𝑛𝑛 1
′ = 𝑈𝑛 𝜌1 𝑈𝑛1′ . 𝑡𝑟2 (𝜌2 ) car 𝑡𝑟2 𝜌2 = 1

= 𝑈𝑛1 𝜌1 𝑈𝑛1′ 𝑝 𝑉𝑝2 𝜌2 𝑉𝑝2 = 𝑝 𝑈𝑛1 𝜌1 𝑈𝑛1′ 𝑉𝑝2 𝜌2 𝑉𝑝2

= 𝑈𝑛1 , 𝑉𝑝2 𝜌1 ⨂𝜌2 𝑈𝑛1, , 𝑉𝑝2


𝑝

car 𝑈1 𝐴 𝑈1 . 𝑉2 𝐴 𝑉2 = 𝑈1 , 𝑉2 𝐴⨂𝐵 𝑈1 , 𝑉2

⟹ 𝜌1𝑛𝑛′ = 𝑈1𝑛 , 𝑉2𝑝 𝜌 𝑈1𝑛, , 𝑉2𝑝


𝑝

Les éléments de matrice de 𝜌1 sont obtenus à partir de 𝜌 par la trace


partielle sur (2) : 𝜌1 = 𝑡𝑟2 𝜌
De même, les éléments de matrice de 𝜌2 sont obtenus à partir de 𝜌 :

𝜌2 = 𝑡𝑟1 𝜌
et a pour éléments de matrice :

2
𝜌𝑝𝑝 ′ = 𝑉𝑝
2
𝜌1 𝑉𝑝2′ = 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛1 , 𝑉𝑝′2
𝑛

La trace totale de 𝜌 s’écrit :

19
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑡𝑟𝜌 = 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛1 , 𝑉𝑝2


𝑛 𝑝

b- Calcul de 𝑨(𝟏)
(1)
Soit A(1) une observable agissant dans l’espace ℰ . 𝐴 1 = 𝐴(1)⨂𝕀(2)
(1) (2)
son prolongement dans ℰ =ℰ ⨂ℰ .

𝐴 1 = 𝑡𝑟 𝜌𝐴 1 = 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝐴 1 𝑈𝑛1 , 𝑉𝑝2


𝑛 𝑝

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈1𝑛′ , 𝑉2𝑝′ 𝑈1𝑛′ , 𝑉2𝑝′ 𝐴 1 𝑈𝑛1 , 𝑉𝑝2


𝑛 𝑝 𝑛′ 𝑝′

car 𝑛′ 𝑝′ 𝑈1𝑛′ , 𝑉2𝑝′ 𝑈1𝑛′ , 𝑉2𝑝′ = 𝕀

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛′


1
, 𝑉𝑝′2 𝑈𝑛′
1
, 𝑉𝑝′2 𝐴 1 𝑈𝑛1 , 𝑉𝑝2
𝑛 ,𝑝 𝑛 ′ ,𝑝′

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛′


1
, 𝑉𝑝′2 𝑈𝑛′
1
, 𝑉𝑝′2 𝐴(1)⨂𝕀(2) 𝑈𝑛1 , 𝑉𝑝2
𝑛 ,𝑝 𝑛 ′ ,𝑝′

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛′


1
, 𝑉𝑝′2 𝑈𝑛′
1
𝐴(1) 𝑈𝑛1 𝑉𝑝′2 𝕀(2) 𝑉𝑝2
𝑛 ,𝑝 𝑛 ′ ,𝑝′

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛′


1
, 𝑉𝑝′2 𝑈𝑛′
1
𝐴(1) 𝑈𝑛1 𝛿𝑝𝑝 ′
𝑛 ,𝑝 𝑛 ′ ,𝑝′

car 𝑉𝑝′2 𝕀(2) 𝑉𝑝2 = 𝑉𝑝′2 𝑉𝑝2 = 𝛿𝑝𝑝 ′

= 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛1′ , 𝑉𝑝2 𝑈𝑛′


1
𝐴(1) 𝑈𝑛1
𝑛 ,𝑝 𝑛 ′

= ( 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛1′ , 𝑉𝑝2 ) 𝑈𝑛′


1
𝐴(1) 𝑈𝑛1
𝑛 ,𝑛′ 𝑝

or 𝑝 𝑈𝑛1 , 𝑉𝑝2 𝜌 𝑈𝑛1′ , 𝑉𝑝2 ) = 𝑡𝑟𝑝 𝜌 = 𝜌(1)


20
Pr. Filali Mohammed
Pr. Filali Mohammed

= 𝑈𝑛1 𝜌(1) 𝑈𝑛1′ 1


𝑈𝑛′ 𝐴(1) 𝑈𝑛1
𝑛,𝑛′

= 𝑈𝑛1 𝜌(1) 𝑈𝑛1′ 1


𝑈𝑛′ 𝐴(1) 𝑈𝑛1
𝑛 𝑛′

or 𝑛′ 𝑈1𝑛′ 𝑈1𝑛′ = 𝕀

= 𝑈𝑛1′ 𝜌(1)𝐴 1 𝑈𝑛1


𝑛

⟹ 𝐴 1 = 𝑡𝑟1 𝜌 1 𝐴 1

Conclusion

Nous remarquons que la trace partielle 𝜌 1 permet de calculer toutes les


valeurs moyennes 𝐴 1 comme si le sous systéme (1) était seul et avait
𝜌 1 comme opérateur densité.

II- Systèmes Classiques

Les degrés de liberté internes des atomes (mouvement des électrons) ou


des molécules (vibrations relatives des atomes d’une même molécule et
rotation) ne peuvent se décrire que par la mécanique quantique, alors que
les degrés de liberté de translation des molécules d’un gaz ou d’un liquide
sont décrits avec une très bonne approximation par les lois de la mécanique
classique.

II-1 Microétat classique

Un microétat ( état parfaitement connu) est caractérisé par la donnée des


6N coordonnées et impulsions des particules ( 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 ) avec
𝑥 𝑝𝑥
𝑟 𝑦 et 𝑝 𝑝𝑦 . L’espace { 6N dimensions ( 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 ) est
𝑧 𝑝𝑧
appelé espace de phase ℰ𝑝 .

21
Pr. Filali Mohammed
Pr. Filali Mohammed

Un microétat se déplace au cours du temps dans ℰ𝑝 et son mouvement est


repéré par les 6N équations de Hamilton :
𝑑𝑞𝑖 𝜕𝐻
= 𝑞𝑖 =
𝑑𝑡 𝜕𝑝𝑖
𝑑𝑝𝑖 𝜕𝐻
= 𝑝𝑖 = −
𝑑𝑡 𝜕𝑞𝑖

où l’on désigne par 𝑞𝑖 les 3N variables d’espace ( 𝑟1 , 𝑟2 , … , 𝑟𝑁 ) et par les 𝑝𝑖


les 3N coordonnées d’impulsion ( 𝑝1 , 𝑝2 , … , 𝑝𝑁 ) et par H l’Hamiltonien.

Exemple :

Soit un oscillateur harmonique de masse m et de pulsation 𝜔, susceptible de


se mouvoir dans un espace à une dimension. Ses microétats (𝑞, 𝑝), où 𝑞 est
la position et 𝑝 est l’impulsion, sous-tendent un espace de phase à deux
dimensions.

Supposons que l’oscillateur harmonique possède une énergie fixée E :

𝑃2 𝑚𝜔2 2 𝑚𝜔2 2 𝑃2
𝐸= + 𝑞 = 𝑞 + =1
2𝑚 2 2𝐸 2𝑚𝐸
𝑞 2 𝑃2
+ =1
𝑎2 𝑏 2
2𝐸
C’est une équation d’une ellipse avec 𝑎 = et 𝑏 = 2𝑚𝐸
𝑚𝜔2
p

𝑏 = 2𝑚𝐸
2𝐸
𝑎=
𝑚𝜔 2

Les microétats appartiennent { la ligne de l’ellipse.

22
Pr. Filali Mohammed
Pr. Filali Mohammed

II-2 Macroétat classique

Définition

‘’Pour un système macroscopique classique, les points qui le représentent


dans l’espace de phase ℰ𝑝 sont distribués d’une manière aléatoire. Ces
point (évenements) constituent un macroétat classique’’.

a-Densité en phase

Un macroétat classique est caractérisé par la donnée d’une loi de


probabilité sur l’ensemble des microétats possibles. Donc, un macroétat
classique peut être représenté par une mesure de probabilité sur l’espace
de phase ℰ𝑝 : 𝑑𝑃 = 𝜌( 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 )𝑑𝜏𝑁 (1)

𝜌( 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 ) est la densité en phase.

𝑑𝑃 : représente la probabilité pour que le point représentatif de N


particules se trouve dans l’élément de volume 𝑑𝜏𝑁 de l’espace de phase

1 𝑁 𝑑𝑟 𝑖 𝑑𝑝 𝑖
𝑑𝜏𝑁 = 𝑖=1 ( ) (2)
𝑁! 𝑕3
1
𝑑𝜏𝑁 est sans dimension. h est la constante de Planck et est un facteur
𝑁!
associé { l’indiscernabilité des particules.

b-Propriétés de la densité en phase

1- 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁 = 1 car 𝑑𝑃 = 1

Cette proprièté remplace 𝑡𝑟𝜌 = 1 ; ( 𝑡𝑟 ≡ ).

2- 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 est réelle. Cette proprièté est analogue de


l’hermeticité de 𝜌 (𝜌 = 𝜌+ ).

3- 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 > 0. Cette proprièté remplace la positivité de


𝜌.

Toute grandeur physique est représentée par une fonction


𝐴 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 des coordonnées et des impulsions. La valeur

23
Pr. Filali Mohammed
Pr. Filali Mohammed

moyenne de 𝐴 dans un macroétat représenté par la densité en phase


𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 vaut :

𝐴 = 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝐴 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁

𝑁
1 𝑑𝑟𝑖 𝑑𝑝𝑖
𝐴 = 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝐴 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 ( )
𝑁! 𝑕3
𝑖=1

II-3 Evolution dans le temps

Pour déterminer l’équation d’évolution temporelle de la densité en phase.


Pour cela, nous rappelons qu’en Mécanique Quantique, nous avons déduit
l’équation d’évolution de l’opérateur densité { partir de l’évolution des
microétats :
𝑑𝜌 (𝑡) 𝑑 𝑘 𝑝𝑘 𝜌𝑘
𝜌= 𝑘 𝑝𝑘 𝜌𝑘 ; 𝑖 ħ 𝑑𝑡
= 𝐻 , 𝜌(𝑡) ⟹ 𝑖 ħ
𝑑𝑡
= 𝐻 , 𝑘 𝑝𝑘 𝜌𝑘 .

𝑑𝑝 𝑘
Les probabilités 𝑝𝑘 étaient supposées indépendantes du temps =0
𝑑𝑡

De même, on suppose que la probabilité 𝑑𝑃 de trouver le point


représentatif du systéme dans l’élement de volume de l’espace de phase
𝑑𝜏𝑁 est conservée dans le temps le long des trajectoires de phase suivies
par les microétats :
𝑑(𝑑𝑃) 𝑑
= 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁 = 0
𝑑𝑡 𝑑𝑡
Cette équation montre clairement qu’écrire l’équation d’évolution de la
densité en phase, il faudrait aussi saisir l’évolution de l’élément de volume
de l’espace de phase 𝑑𝜏𝑁 . Pour cela, nous utiliserons l’important théoréme
de Liouville :

a-Théorème de Liouville

‘’ Le volume d’une région de l’espace de phase reste constant au cours du


temps ‘’.

24
Pr. Filali Mohammed
Pr. Filali Mohammed

Pour démontrer le théorème, il suffit de considérer une translation


infinitésimale dans l’espace de phase ℰ𝑝 :

𝑞𝑖 ⟶ 𝑞′𝑖 = 𝑞𝑖 𝑡 + 𝑑𝑡 ≃ 𝑞𝑖 + 𝑞𝑖 𝑑𝑡 (3)
𝑝𝑖 ⟶ 𝑝′𝑖 = 𝑝𝑖 𝑡 + 𝑑𝑡 ≃ 𝑝𝑖 + 𝑝𝑖 𝑑𝑡 (4)
(𝑖 = 1, … … … … . ,3𝑁) qui fait passer la position du point représentatif à
l’instant t { sa position { l’instant t+dt et de montrer que le Jacobien associé,
𝐽, est égale 1.

Au cours de cette transformation, l’élément de volume 𝑑𝜏 se transforme


comme : 𝑑𝜏 ⟶ 𝑑𝜏 ′ = 𝐽 𝑑𝜏

Le Jacobien 𝐽 est par définition le déterminant de la matrice Jacobienne, M,


qui est carrée d’ordre 6N :

𝜕(𝑞 ′ 1, … … … . , 𝑞 ′ 3𝑁, 𝑝′ 1, … … … . , 𝑝′ 3𝑁 )
𝑀=
𝜕(𝑞1 , … … … , 𝑞3𝑁 , 𝑝1 , … … … , 𝑝3𝑁 )
Nous avons : 𝐽 = 𝑑𝑒𝑡𝑀
La forme infinitésimale de la matrice Jacobienne M peut s’écrire en vertu
des relations (3) et (4) sous la forme :

𝑀 ≃ 𝐼 + 𝐾𝑑𝑡 (5)
où 𝐼 est la matrice identité et K est la matrice carrée d’ordre 6N, définie par :

𝜕(𝑞1, … … … . , 𝑞3𝑁, 𝑝1, … … … . , 𝑝3𝑁 )


𝐾=
𝜕(𝑞1 , … … … , 𝑞3𝑁 , 𝑝1 , … … … , 𝑝3𝑁 )
Nous avons la matrice M (5), { l’ordre 1 en dt :

𝐽 ≃ det 𝐼 + 𝐾𝑑𝑡 ≃ 1 + 𝑡𝑟𝐾 𝑑𝑡 (6)


Explicitement :
3𝑁
𝜕𝑞𝑖 𝜕𝑝𝑖
𝐽 ≃1+ ( + ) 𝑑𝑡
𝜕𝑞𝑖 𝜕𝑝𝑖
𝑖=1

En tenant compte des équations de Hamilton :

25
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑑𝑞𝑖 𝜕𝐻
= 𝑞𝑖 =
𝑑𝑡 𝜕𝑝𝑖
𝑑𝑝𝑖 𝜕𝐻
= 𝑝𝑖 = −
𝑑𝑡 𝜕𝑞𝑖
3𝑁
𝜕 𝜕𝐻 𝜕 𝜕𝐻
𝐽 ≃1+ ( − )=1
𝜕𝑞𝑖 𝜕𝑝𝑖 𝜕𝑝𝑖 𝜕𝑞𝑖
𝑖=1

⟹ 𝑑𝜏 ′ = 𝐽 𝑑𝜏 ⟹ 𝑑𝜏 ′ = 𝑑𝜏.

Donc, l’élément de volume de l’espace de phase 𝑑𝜏 est conservé dans le


temps.

b-Evolution dans le temps de la densité en phase


𝑑(𝑑𝑃) 𝑑
On a : =0⟺ (𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁 ) = 0
𝑑𝑡 𝑑𝑡

𝑑𝜏 𝑁 𝑑
or =0⟹ 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁 = 0
𝑑𝑡 𝑑𝑡

Cette relation exprime le fait que la densité en phase reste la même,


lorsqu’on se déplace le long de la trajectoire de phase.

Considérons la densité en phase 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 , sa derivée


3𝑁 𝜕𝜌 𝜕𝜌 𝜕𝜌
totale : 𝑑𝜌 = 𝑖=1( 𝜕𝑞 𝑑𝑞𝑖 + 𝑑𝑝𝑖 ) + 𝑑𝑡
𝑖 𝜕𝑝 𝑖 𝜕𝑡

En utilisant les équations de Hamilton, nous obtenons :


𝑑𝜌 3𝑁 𝜕𝜌 𝜕𝐻 𝜕𝐻 𝜕𝜌 𝜕𝜌
= 𝑖=1( 𝜕𝑞 𝜕𝑝 − 𝜕𝑞 )+ (7)
𝑑𝑡 𝑖 𝑖 𝑖 𝜕𝑝 𝑖 𝜕𝑡

Définition
˝Le crochet de Poisson de deux grandeurs F et H est la quantité :

3𝑁 𝜕𝐹 𝜕𝐻 𝜕𝐻 𝜕𝐹
𝐹 ,𝐻 = 𝑖=1( 𝜕𝑞 𝜕𝑝 − 𝜕𝑞 ) ˝
𝑖 𝑖 𝑖 𝜕𝑝𝑖

En terme du crochet de Poisson, la relation (7) se réécrit :

26
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑑𝜌 𝜕𝜌
= 𝜌,𝐻 + (8)
𝑑𝑡 𝜕𝑡
𝑑𝜌
or 𝑑𝑡 = 0 ⟹ l’équation régissant l’évolution temporelle de la densité en
𝑑𝜌
phase : = 𝜌 , 𝐻 (9)
𝑑𝑡

connue sous le nom de l’équation de Liouville.

Remarque

L’équation de Liouville peut être retrouvée en assimilant l’espace de phase


à un fluide incompressible et les trajectoires de phase aux lignes
d’écoulement du fluide :

𝜕𝜌
+ ∇ ρv = 0
𝜕𝑡
c-Densité en phase réduites

Les observables physiques qu’on rencontre, sont soit { un corps, { deux


corps où à trois corps ( et plus).
𝑁
 Les observables physiques à un corps sont de la forme : 𝑖=1 𝑓(𝑟𝑖 , 𝑝𝑖 ).

𝑃𝑖 2
Par exemple, l’énergie cinétique s’obtient pour 𝑓 𝑟𝑖 , 𝑝𝑖 = .
2𝑚

 Les observables { deux corps, on peut citer l’énergie d’interaction de la


forme : 𝑖>𝑗 𝑈( 𝑟𝑖 − 𝑟𝑗 .

Pour calculer les valeurs moyennes de ces observables, nous n’avons pas
besoin de connaitre la forme complète de la densité en phase 𝜌, qui englobe
en plus, l’information sur les interactions entre 3,4,…, N particules ( si on
considère les observables à 1 et à 2 corps). De même, nous avons défini
pour les systèmes quantiques, des opérateurs densité des sous systèmes
(𝜌 = 𝜌1 ⨂𝜌2 ) que nous définissons ici des densités en phase réduites :

Densité en phase à un corps


1
𝑓1 𝑟 , 𝑝 = 𝜌 𝑟, 𝑝, 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁−1
𝑕3

27
Pr. Filali Mohammed
Pr. Filali Mohammed

Densité en phase à 2 corps


1
𝑓2 ( 𝑟 , 𝑝, 𝑟 ′ , 𝑝′ ) = 𝜌 𝑟, 𝑝, 𝑟 ′ , 𝑝′ , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁−2
𝑕6
Dans ces définitions, 𝑑𝜏𝑁−𝑘 représente l’élement de volume de l’espace de
phase à N-k particules (𝑘 = 1,2).
𝑁
1 𝑑𝑟𝑖 𝑑𝑝𝑖
𝑑𝜏𝑁−𝑘 = ( )
(𝑁 − 𝑘)! 𝑕3(𝑁−𝑘)
𝑖=𝑘+1

Exemple

Essayons de calculer la valeur moyenne de la fonction de Hamilton d’un


système à N particules en interaction mutuelle et soumises en plus à un
potentiel extérieur V. Nous avons :

𝐻 = 𝐻0 + 𝐻𝐼

𝑁 𝑃𝑖2
avec 𝐻0 = 𝑖=1 2𝑚 + 𝑉(𝑟𝑖 ) et 𝐻𝐼 = 𝑖>𝑗 𝑈 ( 𝑟𝑖 − 𝑟𝑗 )

Le premier terme, 𝐻0 , est à un corps et le second, 𝐻𝐼 , à deux corps. Nous


montrons que :

𝐻 = 𝐻0 + 𝐻𝐼
𝑃2
avec : 𝐻0 = 𝑓1 𝑟, 𝑝 + 𝑉(𝑟 ) 𝑑𝑟𝑑𝑝
2𝑚

1
et 𝐻𝐼 = 𝑓2 ( 𝑟 , 𝑝, 𝑟′ , 𝑝′ ) 𝑈 ( 𝑟 − 𝑟′ 𝑑 𝑟𝑑𝑝 𝑑𝑟′ 𝑑𝑝′
2

III- Postulats de la physique statistique

Nous distinguons deux types d’état : microscopique et macroscopique. Les


états microscopiques sont la donnée de tous les nombres quantiques,
exemple (n, l, m, S, Sz ). Par contre, les états macroscopiques sont basés sur
la mesure de certaines grandeurs physiques ( Pression, aimantation,
polarisation). Exemple, une mole de gaz parfait, constituée de particules de
spin nul dans une boite cubique : un macroétat est complètement
déterminé s’il l’on connait 2 paramètres macroscopiques ( P et T par

28
Pr. Filali Mohammed
Pr. Filali Mohammed

exemple ) alors qu’il faudrait connaitre 3N nombres quantiques pour


déterminer un microétat particulier.

III-1 Définition des états accessibles

Etats possibles :

Ce sont des états que le système peut atteindre sans restriction ou


condition.

Exemple : un système ayant 4 spins

Le nombre d’états possibles : 42= 16 états possibles

++++ ; +++− ; ++−− ; +−−− ;…

Etats accessibles :

Ce sont des états qui ne violent aucune condition imposée par l’information
disponible sur le système.

Exemple :

Considérons un système isolé formé de 4 particules de spin ½ sans


interaction, d’énergie donnée = −2𝜇𝐵 ; 𝐵 = 𝐵 .

Ici, l’information disponible est la valeur fixe de l’énergie. Les états


accessibles conformes à cette énergie : 𝐸 = −𝑀𝐵 avec 𝑀 = 𝜇𝐵 =
−2𝜇𝐵 𝐵 = −(3 − 1)𝜇𝐵 𝐵.

Donc, on a 4 états possibles : + + + − ; + + − + ; + − + + ; − + + + ;

III-2 Postulats statistiques

Postulat 1 : ˝Si tous les états accessibles d’un système isolé sont
équiprobables, alors le système est en équilibre˝.

 Pour un système quantique, toutes les probabilités 𝑝𝑘 sont les mêmes,


1
càd que pour tout état 𝜓𝑘 , l’on a 𝑝𝑘 = où W est le nombre d’états
𝑊
accessibles. Dans ces conditions, l’opérateur densité est donné par :

29
Pr. Filali Mohammed
Pr. Filali Mohammed

1
𝜌= 𝑝𝑘 𝜓𝑘 𝜓𝑘 = 𝜓 𝑘 𝜓𝑘
𝑊
𝑘 𝑘

1
⟹ 𝜌= 𝕀 (1)
𝑊

où 𝕀 étant l’opérateur identité.


𝑑𝜌
L’égalité (1) entraine = 0 ou 𝐻 , 𝜌 = 0 ⟹ le systéme est en équilibre
𝑑𝑡
statistique.

 Pour un système classique, l’équiprobabilité des états accessibles signifie


que la densité en phase est uniforme dans l’espace de phase ℇ𝑝 :

𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 = 𝐶𝑡𝑒
𝜕𝜌
⟹ = 0 ou 𝐻 , 𝜌 = 0 ⟹ le systéme est en équilibre statistique.
𝜕𝑡

Postulat 2 : ˝Si tous les états accessibles d’un système isolé ne sont pas
équiprobables à un instant donné, càd que celui-ci n’est pas en équilibre, le
système tendra vers une situation où ses états accessibles sont
équiprobables c{d vers l’équilibre’’.

Pour justifier ce postulat, on utilise le théorème H de Boltzmann :

Considérons un système isolé hors équilibre. Désignons par 𝑚 un de ses


états et par 𝑝𝑚 (𝑡) la probabilité pour que le systéme soit { l’instant t { l’état
𝑚 . Soit 𝑊𝑚𝑛 = 𝑊𝑛𝑚 = 𝑚 𝑛 2 , la probabilité de transition de l’état 𝑚 à
l’état 𝑛 par unité du temps :

t+dt 𝑛 Pn

t 𝑚 Pm(t)
L’équation maîtresse gouvernant le système hors équilibre :
𝑑𝑃𝑚
= 𝑛 𝑊𝑚𝑛 (𝑃𝑛 − 𝑃𝑚 ) (2)
𝑑𝑡

30
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑑𝑃𝑚 représente la variation de probabilité entre t et t+dt seulement sur


l’état 𝑚 .

𝑃𝑚 𝑊𝑚𝑛 𝑑𝑡 est la probabilité d’observer le systéme { la fois { l’état 𝑚 au


temps t et { l’état 𝑛 au temps t+dt. Boltzmann a défini le paramètre H :

𝐻 = log 𝑃𝑚 = 𝑚 𝑃𝑚 𝑙𝑜𝑔𝑃𝑚 (3)


Remarque : H n’est pas un Hamiltonien

Or l’entropie s’écrit comme : 𝑆 = −𝑘 log 𝑃𝑚 = −𝑘 𝑚 𝑃𝑚 𝑙𝑜𝑔𝑃𝑚 (4)


⟹ la variation de H est dans le sens contraire de S.
𝑑𝐻 𝑑 𝑑 𝑑𝑃𝑚
On a : = 𝑚 𝑃𝑚 𝑙𝑜𝑔𝑃𝑚 = 𝑚 ( 𝑑𝑡 (𝑃𝑚 )𝑙𝑜𝑔𝑃𝑚 + )
𝑑𝑡 𝑑𝑡 𝑑𝑡

𝑑𝐻 𝑑 𝑑𝑃𝑛
= ( (𝑃𝑛 )𝑙𝑜𝑔𝑃𝑛 + )
𝑑𝑡 𝑑𝑡 𝑑𝑡
𝑛

𝑑𝑃𝑚
or = 𝑛 𝑊𝑚𝑛 (𝑃𝑛 − 𝑃𝑚 )
𝑑𝑡

𝑑𝐻
⟹ = 𝑊𝑚𝑛 (𝑃𝑛 − 𝑃𝑚 )(𝑙𝑜𝑔𝑃𝑚 + 1)
𝑑𝑡
𝑚,𝑛

𝑑𝐻
𝑒𝑡 = 𝑊𝑚𝑛 (𝑃𝑚 − 𝑃𝑛 )(𝑙𝑜𝑔𝑃𝑛 + 1)
𝑑𝑡
𝑚,𝑛
𝑑𝐻 1

𝑑𝑡
=
2 𝑚,𝑛 𝑊𝑚𝑛 (𝑙𝑜𝑔𝑃𝑛 − 𝑙𝑜𝑔𝑃𝑚 )(𝑃𝑚 − 𝑃𝑛 ) (5)

𝑑𝐻
Pour tout couple (m,n) : 𝑙𝑜𝑔𝑃𝑛 − 𝑙𝑜𝑔𝑃𝑚 𝑃𝑚 − 𝑃𝑛 ≤ 0 ⟹ ≤0
𝑑𝑡
𝑑𝐻
et = 0 si 𝑃𝑚 = 𝑃𝑛
𝑑𝑡
𝑑𝐻
 ≤ 0 ⟺ le systéme n’est pas en équilibre. Il évoluera vers l’équilibre
𝑑𝑡
𝑑𝐻
jusqu’{ =0
𝑑𝑡

31
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑑𝐻
 = 0 ⟺ le systéme est en équilibre ⟹ toutes les probabilités sont
𝑑𝑡
identiques (𝑃𝑚 = 𝑃𝑛 )

Postulat 3 : ˝Si un système isolé est en équilibre alors tous ses états
accessibles sont équiprobables’’.

III-3 Expression de la densité

a- Cas des systèmes quantiques

Soit un système quantique isolé en équilibre. Donc, d’après le 3éme


postulat, ses états accessibles sont équiprobables. On a l’opérateur densité :
1
𝜌= 𝕀
𝑊
𝕀 est l’opérateur identité.

Exemple :

Soit un système de spin ½ d’énergie 𝐸 = −𝑀𝐵 avec 𝑀 = 𝜇𝐵 = 2𝜇𝐵 𝐵 =


3 − 1 𝜇𝐵 𝐵. Donc, les états possibles − − − + ; − − + − ; − + − − ;
1
+ − − − + − + + ⟹ 𝑊 = 4 et 𝑃𝑘 =
4

b- Cas des systèmes classiques

Considérons un système isolé classique en équilibre. La densité en phase


associée est donc uniforme : 𝑑𝑃 = 𝜌( 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 )𝑑𝜏𝑁

⟹ 𝑑𝑃 = 1 = 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁 = 𝜌 𝑟1 , 𝑝1 , 𝑟2 , 𝑝2 , … , 𝑟𝑁 , 𝑝𝑁 𝑑𝜏𝑁

On pose Ω = 𝑑𝜏𝑁 où "Ω" est le volume du sous éspace des états


accessibles ℰ 𝑊 . Donc, la densité en phase est donnée par :
1
𝑠𝑖 𝑞1 , … , 𝑞3𝑁 , 𝑝1 , … , 𝑝3𝑁 ∈ ℰ 𝑊
𝜌 𝑞1 , … , 𝑞3𝑁 , 𝑝1 , … , 𝑝3𝑁 = Ω
𝑠𝑖 𝑞1 , … , 𝑞3𝑁 , 𝑝1 , … , 𝑝3𝑁 ∉ ℰ 𝑊
0

32
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑞1 𝑝1
avec 𝑟1 𝑞2 et 𝑝1 𝑝2
𝑞3 𝑝3

Exemple : oscillateur harmonique

Soit un oscillateur harmonique de masse m et de pulsation 𝜔 se meut dans


un espace { 1 dimension. L’oscillateur posséde une energie fixée :

𝑃2 𝑚𝜔2 2 𝑃2 𝑚𝜔2 2 𝑞2 𝑝2
𝐸= + 𝑞 ⟹ + 𝑞 = 1 ⟺ 𝑎2 + =1
2𝑚 2 2𝑚𝐸 2𝐸 𝑏2

2𝐸
C’est l’équation d’un ellipse avec 𝑎 = et 𝑏 = 2𝑚𝐸
𝑚𝜔2

𝑏 = 2𝑚𝐸
2𝐸
𝑎=
𝑚𝜔 2

2𝐸
π 2𝑚𝐸
S πab 𝑚𝜔2 E
Ω= = = ⟹ Ω= ⟺ le nombre d’états
h h h ħω
accessibles.

III-4 Indépendance statistique

Considérons deux sous systèmes A et B d’un même système. Nous


désignons par (𝑞𝑖𝐴 , 𝑝𝑖𝐴 ) et (𝑞𝑗𝐵 , 𝑝𝑗𝐵 ) leurs états respectifs et par 𝑑𝜏𝐴 et 𝑑𝜏𝐵
les élements de volume des espaces de phase correspondants. Les
interactions sont très faibles entre les deux sous sytémes A et B ⟹ les deux
sous systémes sont statistiquement indépendants.
1 3𝑁𝐴 1 3𝑁𝐵
𝑑𝜏𝐴 = 𝑖=1 𝑑𝑞𝑖𝐴 𝑑𝑝𝑖𝐴 et 𝑑𝜏𝐵 = 𝑖=1 𝑑𝑞𝑖𝐵 𝑑𝑝𝑖𝐵
𝑁𝐴 !𝑕 3𝑁 𝐴 𝑁𝐵 !𝑕 3𝑁 𝐵

33
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑁𝐴 et 𝑁𝐵 sont les nombres de molécules des sous systémes A et B en


contact.

Les deux sous systèmes (A+B) sont décrit par l’état (𝑞𝑖𝐴 , 𝑝𝑖𝐴 , 𝑞𝑗𝐵 , 𝑝𝑗𝐵 )
appartenant { l’espace de phase composé. L’élément de volume de cet
espace est :
3𝑁𝐴 3𝑁𝐵
1
𝑑𝜏𝐴𝐵 = 𝑑𝑞𝑖𝐴 𝑑𝑝𝑖𝐴 𝑑𝑞𝑗𝐵 𝑑𝑝𝑗𝐵
𝑁𝐴 ! 𝑁𝐵 ! 𝑕3𝑁𝐴 +3𝑁𝐵
𝑖=1 𝑗 =1

⟹ 𝑑𝜏𝐴𝐵 = 𝑑𝜏𝐴 . 𝑑𝜏𝐵 (6)


Soit 𝜌𝐴𝐵 (𝑞𝑖𝐴 , 𝑝𝑖𝐴 , 𝑞𝑗𝐵 , 𝑝𝑗𝐵 ) la densité en phase de l’ensemble. D’après l’indépendance
statistique 𝜌𝐴𝐵 = 𝜌𝐴 . 𝜌𝐵 (7) ou encore 𝑙𝑜𝑔𝜌𝐴𝐵 = 𝑙𝑜𝑔𝜌𝐴 + 𝑙𝑜𝑔𝜌𝐵 (8)

Cette égalité suggère que le logarithme de la densité en phase est une


grandeur additive.

D’après le 1er postulat, l’équiprobabilité des états accessibles se traduit par


𝜕𝜌
la densité en phase uniforme (𝜌 = 𝐶𝑡𝑒) ⟹ =0 ⟹ 𝜌 ne contient que
𝜕𝑡
des combinaisons de p et q constantes dans le temps. Autrement dit, 𝜌 ne
contient que des integrales premieres ⟹ 𝑙𝑜𝑔𝜌 est une intégrale
première.

En mécanique classique, il n’ya que 7 intégrales premières additives qui sont


l’énergie H, les 3 composantes du moment cinétique 𝜍 et les 3 composantes de
l’impulsion 𝑝. Nous écrivons : 𝑙𝑜𝑔𝜌 = 𝛼 − 𝛽𝐻 + 𝛾. 𝜍 + 𝛿. 𝑃 (9)

avec les vecteurs 𝛾 (𝛾𝑥 , 𝛾𝑦 , 𝛾𝑧 ) et 𝛿 (𝛿𝑥 , 𝛿𝑦 , 𝛿𝑧 ) ∈ ℝ3 . Les coefficients


𝛼, 𝛽, 𝛾𝑖 𝑒𝑡 𝛿𝑖 (i=x,y,z) sont des constantes réelles. La constante 𝛼 peut être
déterminée par la condition de normalisation de la densité en phase 𝜌. Il est

possible de se placer dans un référentiel où 𝑝 = 0 et 𝜍 = 0 (systéme rigide).

La relation (9) devient 𝑙𝑜𝑔𝜌 = 𝛼 − 𝛽𝐻 (10) ou encore


1
𝜌 𝑝, 𝑞 = exp −𝛽𝐻 𝑞, 𝑝 (11)
𝑍(𝛽 )

34
Pr. Filali Mohammed
Pr. Filali Mohammed

avec 𝑍 𝛽 = 𝑒 −𝛼 = 𝑑𝜏 exp −𝛽𝐻 𝑞, 𝑝

La quantité 𝑍 𝛽 recevera le nom de fonction de partition.

III-5 Distribution microcanonique classique

Considérons un système isolé d’énergie donnée E. Si 𝐻(𝑞, 𝑝) est la fonction


de Hamilton, alors nous écrivons : 𝐻 𝑞, 𝑝 = 𝐸.

Nous supposons que le système est en équilibre et la densité en phase est


uniforme. Nous écrivons :
1
𝜌(𝑞, 𝑝) = 𝛿 𝐻 𝑞, 𝑝 − 𝐸 (12)
Ω

où Ω = dτ 𝛿 𝐻 𝑞, 𝑝 − 𝐸 en accord avec la condition de normalisation à


l’unité de 𝜌. Ici, 𝛿(𝑥) représente la distribution de Dirac.

Distribution de Dirac

Soit x une variable réelle, on définit la distribution 𝛿 comme étant une


entité mathématique ayant les propriétés suivantes :
𝛿 𝑥 − 𝑥0 = 0 𝑝𝑜𝑢𝑟 𝑥 ≠ 𝑥0
+∞
𝛿 𝑥 − 𝑥0 𝑑𝑥 = 1
−∞
+∞
𝛿 𝑥 − 𝑥0 𝐹 𝑥 𝑑𝑥 = 𝐹(𝑥0 )
−∞
(x)

x0 x

La forme particulière de la densité en phase (12) constitue la distribution


1
microcanonique classique. L’équilibre se traduit par le fait que est le
Ω
même pour tous les états accessibles avec 𝐻 𝑞, 𝑝 = 𝐸.
35
Pr. Filali Mohammed
Pr. Filali Mohammed

III-6 Distribution microcanonique quantique

Considérons un système quantique isolé. C’est un système conservatif ce


qui signifie que le Hamiltonien 𝐻 est independant du temps :
1
𝑙𝑜𝑔𝜌 = 𝛼𝐼 − 𝛽𝐻 ⟹ 𝜌= 𝑒−𝛽𝐻
𝑍(𝛽)

⟹ 𝑍 𝛽 = 𝑡𝑟 𝑒−𝛽𝐻 (13)

en accord avec la condition de normalisation de 𝜌 : 𝑡𝑟 𝜌 = 1 .


Il nous reste { déterminer la forme de l’opérateur densité d’un système
isolé, d’énergie donnée. Soit 𝐸𝑛 cette énergie, valeur propre de
l’Hamiltonien 𝐻 :

𝐻 𝑈 𝑖 𝑛 = 𝐸𝑛 𝑈 𝑖 𝑛

Les vecteurs propres 𝑈 𝑖 𝑛 sont les W états accessibles (i=1,……..,W).

A l’équilibre, ces états sont équiprobables et l’opérateur densité est donné


par :
1
𝜌= 𝐼𝑊 (14)
𝑊

où 𝐼𝑊 = 𝑊
𝑖=1 𝑈𝑖𝑛 𝑈𝑖𝑛 est l’opérateur identité relatif au sous-espace
des états propres associés à la valeur propre 𝐸𝑛 . La relation (14) définit la
distribution microcanonique quantique.

III-7 Calcul du nombre d’états accessibles 𝚪(𝑬)

Soit un système isolé dont l’énergie E est connue avec une incertitude Δ𝐸.
On considére que l’erreur expérimentale sur l’énergie Δ𝐸 est bien
supérieure à la différence entre les niveaux d’énergie successifs δ𝐸
(Δ𝐸 ≫ δ𝐸).

Soit Γ(𝐸) ‘’ le volume normalisé’’ des sous espaces de phase ou le nombre


d’états accessibles. Nous avons la condition définissant l’énergie :

𝐸 ≤ 𝐻 𝑞, 𝑝 < 𝐸 + ∆𝐸

36
Pr. Filali Mohammed
Pr. Filali Mohammed

 𝐻 𝑞, 𝑝 = 𝐸𝑖  
1
A l’équilibre : 𝜌 𝑞, 𝑝 = Θ 𝐻 𝑞, 𝑝 − 𝐸 Θ 𝐸 + ΔΕ − 𝐻 𝑞, 𝑝
Γ(𝐸)

où Θ(𝑥) est la fonction de Heaviside.

Fonction de Heaviside
0 𝑥<0 Θ 𝑥
Θ 𝑥 =
1 𝑥>0

0 x

Γ 𝐸 = 𝑑𝜏
𝐸 ≤𝐻 𝑞,𝑝 =𝐸𝑖 <𝐸+∆𝐸

Une façon pratique de calculer Γ 𝐸 est de considérer la fonction Φ 𝐸 ∶

Φ 𝐸 = 𝑑𝜏
𝐻 𝑞,𝑝 <𝐸

Φ 𝐸 est le ‘’ le volume normalisé’’ de l’espace de phase ou le nombre


d’états accessibles d’énergie inferieure { E.

Γ 𝐸 = Φ 𝐸 + ΔΕ − Φ 𝐸 (15)
𝑑Φ 𝐸
⟹ Γ 𝐸 ≃ ΔΕ (16)
𝑑𝐸

37
Pr. Filali Mohammed

0
𝚪 𝑬 Pr. Filali Mohammed

Φ 𝐸 + ΔΕ

Φ 𝐸

Remarque :

La connaissance de Φ 𝐸 suffirait pour la détermination de Γ 𝐸 .

Exemple : Particule dans une boite à une dimension

Soit une particule confinée dans une boite à une dimension(1D) :

0 L

Ψ 0 =0 Ψ 𝐿 =0

Ψ 𝑥 = 𝐴𝑠𝑖𝑛𝑘𝑥 est la solution de l’équation de Schrödinger : 𝐻𝜓 𝑥 = 𝐸𝜓(𝑥)


ħ2 𝜕2
avec 𝐻 = − . Conditions limites : Ψ 𝐿 = 0 = 𝐴𝑠𝑖𝑛𝑘𝐿
2𝑚 𝜕𝑥 2
𝑛𝜋
⟹ 𝑘𝐿 = 𝑛𝜋 ⟹𝑘= avec 𝑛 > 0
𝐿

𝑃2 ħ2 𝑘 2 ħ2 𝜋 2 2
𝐸= = = 𝑛
2𝑚 2𝑚 2𝑚𝐿2
𝐿 1
⟹𝑛= (2𝑚𝐸)2
𝜋ħ
1
2𝑚 𝐿2
⟹Φ 𝐸 = 𝑛=( ) 𝐸2 (17)
𝜋 2ħ 2

Φ 𝐸 est le nombre d’états accessibles pour une énergie 𝐻 𝑞, 𝑝 < 𝐸

38
Pr. Filali Mohammed
Pr. Filali Mohammed

1
𝑑Φ 𝐸 1 2𝑚𝐿2 −2
Γ 𝐸 = ΔΕ ⟹ Γ 𝐸 = 𝐸 ΔΕ
𝑑𝐸 2 𝜋 2 ħ2

Si la boite est tridimensionnelle (3D) :


ħ2 𝜋 2
𝐸= (𝑛2 𝑥 + 𝑛2 𝑦 + 𝑛2 𝑧 ) avec 𝑛𝑥 , 𝑛𝑦 , 𝑛𝑧 > 0
2𝑚 𝐿2

Le nombre d’états ayant une énergie inferieure { E est le 1/8 du volume


d’une sphère de rayon R :

ħ2 𝜋 2 2 2 2 2𝑚𝐿2
𝐸=
2𝑚 𝐿2
(𝑛 2
𝑥
+𝑛 2
𝑦 + 𝑛 𝑧) 2
⟹ 𝑛 𝑥 +𝑛 𝑦 +𝑛 𝑧 == 𝐸
𝜋2 ħ2

le 1/8 d’une sphère : 𝑛𝑥 , 𝑛𝑦 , 𝑛𝑧 > 0 ⟹ 0 ≤ 𝑟 ≤ 𝑅; 0 ≤ 𝜃 ≤


𝜋
2
; 0 ≤ 𝜑 ≤ 𝜋2 .
2𝑚 𝐿2 1 1
C’est une équation d’une sphère de rayon 𝑅 = ( ) 2 𝐸 2
𝜋 2 ħ2

1 4𝜋 𝜋 2𝑚 𝐿2 3 3
Or 𝑛𝑥 , 𝑛𝑦 , 𝑛𝑧 > 0 ⟹ Φ 𝐸 = ( 𝑅3 ) ⟹ Φ 𝐸 = ( ) 2 𝐸 2
8 3 6 𝜋 2 ħ2

𝐿3 3 1
Γ 𝐸 = (2𝑚) 2 𝐸 2 ΔΕ
4𝜋 2 ħ3

39
Pr. Filali Mohammed
Pr. Filali Mohammed

Ch II: Entropie Statistique

Définition

'' L’entropie statistique mesure le manque d’information ou le désordre


dans le système ''

Considérons un ensemble de M événements, de probabilités respectives


𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀 ∶ 𝑀
𝑖=1 𝑃𝑖 = 1. L’entropie statistique s’écrit comme :

𝑀
𝑆 𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀 = −𝑘 𝑖=1 𝑃𝑖 𝑙𝑜𝑔𝑃𝑖 (1) ; 𝑘 > 0

Un cas particulier où les M événements sont équiprobables :


1 1 1 1 1 1
𝑃𝑖 = ⟹𝑆 ,… , ,…, = −𝑘(𝑀. 𝑙𝑜𝑔 )
𝑀 𝑀 𝑀 𝑀 𝑀 𝑀

1 1 1
⟹𝑆 ,… , ,…, = 𝑘𝑙𝑜𝑔𝑀
𝑀 𝑀 𝑀

L’expression (1) est une mesure moyenne de l’information manquante :

𝐼 = − 𝑘𝑙𝑜𝑔𝑃𝑀

I : information manquante.

I-Propriétés

a-Maximum

Pour un nombre M d’événements fixés, S est maximum lorsque ces


événements sont équiprobables :
1 1 1
𝑆 ,… , ,…, = 𝑘𝑙𝑜𝑔𝑀
𝑀 𝑀 𝑀
b-Minimum

S est minimum (et nul) lorsque l’un des événements est certain :

𝑆 1, … , 0, … ,0 = 𝑘𝑙𝑜𝑔1 = 0

Il ne manque aucune information sur le système.

40
Pr. Filali Mohammed
Pr. Filali Mohammed

c-Croissance

Pour un nombre M d’événements équiprobables, l’entropie statistique


1 1 1
𝑆 ,… , ,…, croit avec M :
𝑀 𝑀 𝑀

1 1 1 1 1 1
Soit N >M : 𝑆 ,… , ,…, > 𝑆 ,… , ,…, ⟺ 𝑘𝑙𝑜𝑔𝑁 > 𝑘𝑙𝑜𝑔𝑀.
𝑁 𝑁 𝑁 𝑀 𝑀 𝑀

Si tous les événements possibles sont équiprobables, il manque d’autant


d’informations que leurs nombres croient.

d- Impossibilité d’événement

Lorsque certains événements ont une probabilité nulle, on peut aussi bien
ne pas les prendre en compte :

𝑆 𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀, 0,0, . . ,0 = 𝑆 𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀

e- Symétrie

Les M événements étant traités sur le même pied, 𝑆 𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀 est une
fonction symétrique de ces M variables :

𝑆 𝑃1, 𝑃2 = −𝑘 (𝑃1 𝑙𝑜𝑔𝑃1 + 𝑃2 𝑙𝑜𝑔𝑃2 ) = −𝑘 𝑃2 𝑙𝑜𝑔𝑃2 + 𝑃1 𝑙𝑜𝑔𝑃1 = 𝑆 𝑃2 , 𝑃1

f- Additivité

Considérons l’ensemble des événements 1,………..,m comme un événement


unique A, de probabilité 𝑞𝐴 = 𝑚 𝑖=1 𝑃𝑖 et de même 𝑞𝐵 =
𝑀
𝑖=𝑚 +1 𝑃𝑖 comme
d’un évenement unique B.
A B
On a : 𝑆 𝑃1,…, 𝑃𝑚 ,…, 𝑃𝑀 = −𝑘 𝑀 𝑃
𝑖=1 𝑖 𝑙𝑜𝑔𝑃 𝑖

D’après (1): 1 m m+1 M

𝑃1 𝑃𝑚 𝑃𝑚 +1 𝑃𝑀
𝑆 𝑃1 , … , 𝑃𝑚 , 𝑃𝑚 +1 , … , 𝑃𝑀 = 𝑆 𝑞𝐴 , 𝑞𝐵 + 𝑞𝐴 𝑆 ,…, + 𝑞𝐵 𝑆 ,…,
𝑞𝐴 𝑞𝐴 𝑞𝐵 𝑞𝐵
𝑚 𝑚 𝑚 𝑀
𝑃𝑖 𝑃𝑖 𝑃𝑖 𝑃𝑖 𝑃𝑖 𝑃𝑖
𝑆 = −𝑘 (𝑞𝐴 𝑙𝑜𝑔 + 𝑞𝐵 𝑙𝑜𝑔 ) + (𝑞𝐴 𝑙𝑜𝑔𝑞𝐴 + 𝑞𝐵 𝑙𝑜𝑔𝑞𝐵 )
𝑞𝐴 𝑞𝐴 𝑞𝐵 𝑞𝐵 𝑞𝐴 𝑞𝐵
𝑖=1 𝑖=1 𝑖=1 𝑖=𝑚 +1

41
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑃1 𝑃𝑚 𝑃𝑚 +1 𝑃𝑀
⟹ 𝑆 𝑝1 , … , 𝑝𝑚 , 𝑝𝑚 +1 , … , 𝑝𝑀 = 𝑞𝐴 . 𝑆 ,…, + 𝑞𝐵 . 𝑆 ,…, + 𝑆(𝑞𝐴 , 𝑞𝐵 )
𝑞𝐴 𝑞𝐴 𝑞𝐵 𝑞𝐵
𝑃1 𝑃𝑚
* 𝑞𝐴 . 𝑆 ,…, représente le manque d’information si l’événement ‘’1’’
𝑞𝐴 𝑞𝐴
va se réaliser ou l’événement ‘’m’’ au sein du groupe A .
𝑃𝑚 +1 𝑃𝑀
*𝑞𝐵 . 𝑆 ,…, représente le manque d’information si l’événement
𝑞𝐵 𝑞𝐵
‘’m+1’’ va se réaliser ou l’événement ‘’M’’ au sein du groupe B .

Exemple d’application

Supposons que vous avez 10 boites équiprobables, quelle est la probabilité


1
de trouver une bille dans une boite ? 𝑝 =
10

1 1
10 10

1 1
𝑆 1, … , 𝑀 ⟺ 𝑆 ,…,
10 10
Maintenant, on divise les 10 boites en deux compartiments. Un
compartiment A contient 3 boites, par exemple, et le compartiment B
contient 7 boites :

A B

On va procéder en deux étapes :

1- On ne sait pas si la bille se trouve dans A ou dans B. Donc, on a une


information manquante. Cette information manquante sera chiffrée par :
3 7
𝑆 𝑞𝐴 , 𝑞𝐵 = 𝑆( , )
10 10
2- Ensuite, on va chercher la bille dans le compartiment A et dans le
compartiment B :

42
Pr. Filali Mohammed
Pr. Filali Mohammed

* Dans le compartiment A, l’information manquante est : on ne sait pas ou


1 1 1
se trouve la bille dans les trois boites ⟹ 𝑆( , , ). Or, il y a dans
3 3 3
l’ensemble 10 boites. Par conséquent l’information manquante est
3 1 1 1
. 𝑆( , , ). La même chose pour le compartiment B. L’information
10 3 3 3
7 1 1 1 1 1 1 1
manquante : . 𝑆( , , , , , , ).
10 7 7 7 7 7 7 7

⟹ Le manque d’information totale :


3 1 1 1 7 1 1 1 1 1 1 1 3 7
. 𝑆(3 , 3 , 3)+ 10 . 𝑆(7 , 7 , 7 , 7 , 7 , 7 , 7)+ 𝑆(10 , 10 )
10

Une autre forme de l’additivité de l’information manquante est relative au


cas particulier d’un ensemble 𝑀 × 𝑁 d’événements équiprobables :

𝑆 𝑀, 𝑁 = 𝑆 𝑀 + 𝑆(𝑁)

⟹ 𝑆 𝑀 = 𝑘𝑙𝑜𝑔𝑀

II-Expression de l’entropie statistique en fonction de l’opérateur


densité

Soit un système isolé A en équilibre statistique. Rappelons que Φ(𝐸)


représente le nombre d’états accessibles ayant une énergie <E et
𝑑Φ
Γ 𝐸 = Δ𝐸 représente le nombre d’états accessibles { l’intervalle
𝑑𝐸
d’énergie E et E+ Δ𝐸.

P(E)dE : représente la probabilité du système A pour que l’énergie du


système soit compris entre E et E+dE.

𝑑Φ
𝑃 𝐸 𝑑𝐸 = 𝜌 𝐸 𝑑𝐸 = 𝜌 𝐸 Γ 𝐸 (2)
𝑑𝐸

La condition de normalisation : 𝑃 𝐸 𝑑𝐸 = 1 ∆𝐸
P( 𝐸 )

On va assimiler la courbe Gaussienne à un rectangle

de surface 1. D’après (2) :

43
Pr. Filali Mohammed
Pr. Filali Mohammed

𝑃 𝐸 ∆𝐸 = 𝜌 𝐸 Γ 𝐸 =1
1
⟹Γ 𝐸 = , or 𝑆 = 𝑘𝑙𝑜𝑔Γ 𝐸
𝜌 𝐸

1
⟹ 𝑆 = 𝑘𝑙𝑜𝑔 = −𝑘𝑙𝑜𝑔𝜌 𝐸
𝜌 𝐸

Or 𝑙𝑜𝑔𝜌 𝐸 = 𝛼 + 𝛽 𝐸 = 𝛼 + 𝛽𝐸 = 𝑙𝑜𝑔𝜌 𝐸 = 𝑡𝑟𝜌𝑙𝑜𝑔𝜌(𝐸)


⟹ 𝑆 = −𝑘𝑡𝑟𝜌𝑙𝑜𝑔𝜌(𝐸) (3)

Cette formule sera démontrée en entropie statistique quantique.

III-Entropie statistique quantique

Considérons un système macroscopique se trouvant dans un mélange


statistique quantique ψ𝑘 , 𝑝𝑘 où les étas ψ𝑘 sont les états propres de
l’opérateur densité 𝜌 , avec les valeurs propres 𝑝𝑘 :

𝜌 ψ𝑘 = 𝑃𝑘 ψ𝑘 avec 𝜌= 𝑘 𝑃𝑘 𝜌𝑘 = 𝑘 𝑃𝑘 ψ𝑘 ψ𝑘 (4)

On a : 𝜌 ψ𝑘′ = 𝑘 𝑃𝑘 ψ𝑘 ψ𝑘 ψ𝑘′ = 𝑃𝑘′ ψ𝑘′

On associe au système considéré une entropie statistique notée S et qui est


définie par :
𝑊

𝑆 = −𝑘 𝑃𝑘 𝑙𝑜𝑔𝑃𝑘
𝑘=1

W : le nombre total d’événements

(4)⟶ 𝑙𝑜𝑔𝜌 = 𝑘 (𝑝𝑘 ψ𝑘 ψ𝑘 ) (5)


log⁡

⟹ 𝑆 𝜌 = −𝑘𝑡𝑟𝜌𝑙𝑜𝑔𝜌 (6)

𝑡𝑟𝜌𝑙𝑜𝑔𝜌 = 𝜓𝑘 𝜌𝑙𝑜𝑔𝜌 𝜓𝑘 = 𝜓𝑘 𝑃𝑘 𝑙𝑜𝑔𝑃𝑘 𝜓𝑘


𝑘 𝑘

𝑃𝑘 𝑙𝑜𝑔𝑃𝑘 𝜓𝑘 𝜓𝑘 = 𝑃𝑘 𝑙𝑜𝑔𝑃𝑘
𝑘 𝑘

44
Pr. Filali Mohammed
Pr. Filali Mohammed

III-1 Propriétés de l’entropie statistique

a-Lemme

‘’Quelque soit les opérateurs densité 𝜌 𝑒𝑡 𝜌′ d’un espace de Hilbert ℇ𝐻 , on a :

𝑆 𝜌 ≤ −𝑘𝑡𝑟(𝜌𝑙𝑜𝑔𝜌′ )

où l’égalité n’est satisfaite que pour 𝜌 = 𝜌′ ˝

b-Maximum

Si tous les états ψ𝑘 sont équiprobables alors l’entropie statistique est


maximale et vaut : 𝑆 = 𝑘𝑙𝑜𝑔𝑊

où W est leur nombre.

En général, l’entropie satisfait { l’inégalité : 𝑆 ≤ 𝑘𝑙𝑜𝑔𝑊

Cette inégalité se démontre { l’aide du Lemme : 𝑆 𝜌 ≤ −𝑘𝑡𝑟(𝜌𝑙𝑜𝑔𝜌′ )


1
Soit un opérateur densité 𝜌′ = , on a :
𝑊

𝑆 𝜌 ≤ −𝑘𝑡𝑟 𝜌𝑙𝑜𝑔𝜌′

≤ −𝑘 𝜓𝑘 𝜌𝑙𝑜𝑔𝜌′ 𝜓𝑘
𝑘

≤ 𝑘𝑙𝑜𝑔𝑊 𝜓𝑘 𝜌 𝜓𝑘
𝑘

or 𝑘 𝜓𝑘 𝜌 𝜓𝑘 = 𝑡𝑟𝜌 = 1

⟹ 𝑆(𝜌) ≤ 𝑘𝑙𝑜𝑔𝑊

c-Additivité

Soit l’opérateur densité 𝜌 = 𝜌1 ⨂𝜌2 agissant dans l’espace de Hilbert


ℇ𝐻 = ℇ1 𝐻 ⨂ℇ2 𝐻 qui est le produit tensoriel (correlation nulle) de deux
opérateurs densités 𝜌1 𝑒𝑡𝜌2 , agissant respectivement dans ℇ1 𝐻 𝑒𝑡 ℇ2 𝐻 .
L’entropie statistique du systéme composé est additive :

𝑆 𝜌 = 𝑆 𝜌1 + 𝑆(𝜌2 )

45
Pr. Filali Mohammed
Pr. Filali Mohammed

c-Corrélation

Considérons un système composé d’opérateur 𝜌 ≠ 𝜌1 ⨂𝜌2 (verifiant la


correlation) agissant dans l’espace de Hilbert : ℇ𝐻 = ℇ1 𝐻 ⨂ℇ2 𝐻 , on
démontre que :

𝑆 𝜌 ≤ 𝑆 𝜌1 + 𝑆(𝜌2 )

Alors cette inégalité montre qu’il y a plus d’ordre dans un système


composé de parties corrélées que lorsque ces mêmes parties sont
statistiquement indépendantes ou décorrélées.

e-Température

Soit un système isolé S formé de deux sous systèmes S1 et S2 en équilibre


thermique :

E1 E2

V1 V2

(S1) S(2)

Le système S est isolé (E=Cte) et { l’équilibre ( S est maximale) :

𝑆 𝐸, 𝐸1 , 𝑉1 = 𝑆1 𝐸1 + 𝑆2 (𝐸2 )

𝐸 = 𝐸1 + 𝐸2 = 𝐶𝑡𝑒 ⟹ 𝑑𝐸 = 0 = 𝑑𝐸1 + 𝑑𝐸2

⟹ 𝑑𝐸1 = − 𝑑𝐸2

𝑑𝑆 𝑑𝑆1 𝑑𝑆2 𝑑𝑆 𝑑𝑆 𝑑𝐸
La condition du maximum :
𝑑𝐸1
= 𝑑𝐸1
+ 𝑑𝐸1
= 𝑑𝐸1 + 𝑑𝐸2 . 𝑑𝐸2 = 0
1 2 1

𝑑𝑆1 𝑑𝑆2 𝑑𝑆1 𝑑𝑆2



𝑑𝐸1
− 𝑑𝐸2
= 0 ⟹ 𝑑𝐸 = 𝑑𝐸 (7)
1 2

𝑑𝑆 1
Cela signifie que l’équilibre est atteint si (7) est réalisé : on pose =𝑇
𝑑𝐸

T est la température. 𝑆 𝐸 est une fonction monotone croissante de


𝑑𝐸
l’énergie E : = 𝑇 > 0 . La condition d’équilibre est atteint si 𝑇1 = 𝑇2 .
𝑑𝑆

46
Pr. Filali Mohammed
Pr. Filali Mohammed

Chap III – Distribution d Boltzmann-Gibbs

Introduction

Les systèmes que nous voulons étudier dans ce chapitre sont { l’équilibre
thermodynamique. Par conséquent, l’entropie est maximale. C’est cette
évolution qui nous amènera à établir la distribution statistique, appelée
distribution Boltzmann-Gibbs.

Notre but est de trouver un opérateur densité 𝜌 tel que l’entropie


statistique est maximale.

I- La distribution de Boltzmann-Gibbs

La recherche de la distribution 𝜌 { l’équilibre est un problème de recherche


d’extremum de l’entropie statistique : 𝑆 𝜌 = −𝑘𝑡𝑟 𝜌𝑙𝑜𝑔𝜌 avec les
contraintes suivantes : 𝑡𝑟𝜌 = 1 (1) ; 𝐴 = 𝑡𝑟𝜌𝐴 (2)

Introduisons les multiplicateurs de Lagrange 𝜆𝑖 et 𝜆0 , associés


respectivement aux contraintes (1) et (2) :

𝑆 𝜌 = −𝑡𝑟𝜌𝑙𝑜𝑔𝜌 − 𝜆𝑖 𝑡𝑟𝜌𝐴𝑖 − 𝜆0 𝑡𝑟𝜌


𝑖

L’opérateur densité 𝜌 est celui qui rend la quantité 𝑆 𝜌 extremale


⟹ 𝛿𝑆 𝜌 = 0.

𝛿𝑆 𝜌 = −𝑡𝑟 𝛿𝜌(𝑙𝑜𝑔𝜌 + 1) − 𝜆𝑖 𝑡𝑟𝛿𝜌𝐴𝑖 − 𝜆0 (𝑡𝑟𝛿𝜌) = 0


𝑖

𝛿𝑆 𝜌 = 0 = −𝑡𝑟 𝛿𝜌(𝑙𝑜𝑔𝜌 + 1 + 𝑖 𝜆𝑖 𝐴𝑖 + 𝜆0 ) (3)

=− 𝑛 𝑈𝑛 𝛿𝜌 𝑙𝑜𝑔𝜌 + 1 + 𝑖 𝜆𝑖 𝐴𝑖 + 𝜆0 𝑈𝑛 = 0

On insère dans cette formule, la relation de fermeture : 𝑛′ 𝑈𝑛′ 𝑈𝑛′ = 𝕀

= 𝑈𝑛 𝛿𝜌 𝑈𝑛′ 𝑈𝑛′ (𝑙𝑜𝑔𝜌 + 1 + 𝜆𝑖 𝐴𝑖 + 𝜆0 ) 𝑈𝑛


𝑛,𝑛′ 𝑖

47
Pr. Filali Mohammed
Pr. Filali Mohammed

or 𝛿𝜌 est quelconque, alors :

𝑙𝑜𝑔𝜌 + 1 + 𝜆𝑖 𝐴𝑖 + 𝜆0 = 0
𝑖

⟹ 𝑙𝑜𝑔𝜌 = − 𝜆𝑖 𝐴𝑖 − 𝜆0 − 1
𝑖

⟹ 𝜌 = 𝑒− 𝑖 𝜆 𝑖 𝐴𝑖 −𝜆 0 −1

1
⟹ 𝜌 = 𝑍 𝑒− 𝑖 𝜆 𝑖 𝐴𝑖
(4)

avec 𝑍 = 𝑒 𝜆 0 +1

L’opérateur densité 𝜌 ayant la forme (4) est appelé distribution de


Boltzmann-Gibbs.

 Z=Cte : Z est appelée fonction de partition

 𝜆𝑖 , 𝜆0 : multiplicateurs de Lagrange.

 IL reste à montrer que 𝜌 correspond bien à une entropie maximale. Pour


cela, considérons un opérateur densité 𝜌′ conforme aux données
statistiques : 𝐴𝑖 = 𝑡𝑟𝜌𝐴𝑖 = 𝑡𝑟𝜌′𝐴𝑖 et 𝑡𝑟𝜌 = 𝑡𝑟𝜌′ = 1

Montrons que 𝑆 𝜌′ ≤ 𝑆 𝜌 :

D’après le lemme esquissé au chap II, nous avons :

𝑆 𝜌′ ≤ −𝑘𝑡𝑟(𝜌′𝑙𝑜𝑔𝜌 ) ⟺ −𝑘𝑡𝑟(𝜌′𝑙𝑜𝑔𝜌′ ) ≤ −𝑘𝑡𝑟(𝜌′ 𝑙𝑜𝑔𝜌 )

Or 𝑙𝑜𝑔𝜌 = − 𝑖 𝜆𝑖 𝐴𝑖 − 𝑙𝑜𝑔𝑍 ⟹ −𝑘𝑡𝑟 𝜌′ 𝑙𝑜𝑔𝜌′ ≤ −𝑘𝑡𝑟(𝜌′ − 𝑖 𝜆𝑖 𝐴𝑖 − 𝑙𝑜𝑔𝑍 )

≤ −𝑘 −𝜆𝑖 𝑡𝑟 𝜌′ 𝐴𝑖 − 𝑙𝑜𝑔𝑍𝑡𝑟𝜌′ = −𝑘 −𝜆𝑖 𝑡𝑟 𝜌′ 𝐴𝑖 − 𝑙𝑜𝑔𝑍


𝑖 𝑖

car 𝑡𝑟𝜌′ = 1 . Or 𝑡𝑟 𝜌′ 𝐴𝑖 = 𝑡𝑟 𝜌 𝐴𝑖 = 𝐴𝑖

⟹ 𝑆 𝜌′ ≤ −𝑘 𝑖 −𝜆𝑖 𝐴𝑖 − 𝑙𝑜𝑔𝑍 (5)

48
Pr. Filali Mohammed
Pr. Filali Mohammed

⟹ 𝑆 𝜌′ ≤ −𝑘 𝑖 −𝜆𝑖 𝑡𝑟 𝜌 𝐴𝑖 − 𝑙𝑜𝑔𝑍. 𝑡𝑟𝜌

car 𝑡𝑟𝜌 = 1

⟹ 𝑆 𝜌′ ≤ −𝑘 𝑡𝑟𝜌( −𝜆𝑖 𝐴𝑖 − 𝑙𝑜𝑔𝑍 ) = −𝑘 𝑡𝑟𝜌𝑙𝑜𝑔𝜌 = 𝑆(𝜌)


𝑖

⟹ 𝑆 𝜌′ ≤ 𝑆(𝜌)

⟹ 𝜌 seul qui rend l’entropie maximale.

D’après (5) : 𝑆 𝜌 = −𝑘 𝑡𝑟𝜌𝑙𝑜𝑔𝜌 = 𝑘 𝑖 𝜆𝑖 𝐴𝑖 + 𝑘𝑙𝑜𝑔𝑍

a- Fonction de partition Z
1
De la contrainte 𝑡𝑟𝜌 = 1 et la relation (4) : 𝜌 = 𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖
, on a :
𝑍

1 1
𝑡𝑟𝜌 = 𝑡𝑟( 𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖
) = 𝑡𝑟𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖
=1
𝑍 𝑍

⟹ 𝑍 = 𝑡𝑟𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖

Z est appelée fonction de partition associée { l’ensemble statistique {


l’équilibre.

b- Valeur moyenne

Les données statistiques 𝐴𝑖 peuvent être exprimées directement en terme


de la fonction de partition :

− 𝜆 𝐴
1 1 𝜕 𝑒 𝑖 𝑖 𝑖
𝐴𝑖 = 𝑡𝑟𝜌𝐴𝑖 = 𝑡𝑟𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖 𝐴
𝑖 = − 𝑡𝑟
𝑍 𝑍 𝜕𝜆𝑖
1 𝜕
= − 𝑡𝑟𝑒 − 𝑖 𝜆 𝑖 𝐴𝑖
𝑍 𝜕𝜆𝑖

car 𝑡𝑟𝛿𝑓 = 𝛿𝑡𝑟𝑓


1 𝜕 𝜕
= − 𝑍=− 𝑙𝑜𝑔𝑍
𝑍 𝜕𝜆𝑖 𝜕𝜆𝑖

49
Pr. Filali Mohammed
Pr. Filali Mohammed

𝜕
⟹ 𝐴𝑖 == − 𝑙𝑜𝑔𝑍
𝜕𝜆𝑖

Connaissant la fonction de partition, on peut accéder aux valeurs moyennes.

c- Corrélation et fluctuation

c1-Corrélation

La fonction de corrélation entre deux observables Ai et Aj est definie par :

𝐴𝑖 . 𝐴𝑗 − 𝐴𝑖 . 𝐴𝑗

𝜕 2 𝑙𝑜𝑔𝑍
𝐴𝑖 . 𝐴𝑗 − 𝐴𝑖 . 𝐴𝑗 = (6)
𝜕𝜆 𝑖 𝜕𝜆 𝑗

Exemple :

Les observables énergie E et nombre de particules N sont corrélées : si N


croit ⟹ E croit.

c2- Fluctuation

Quant aux fluctuations d’une observable Ai autour de sa valeur moyenne


𝐴𝑖 , elles s’obtiennent en posant i=j dans l’expression (6) :

𝜕 2 𝑙𝑜𝑔𝑍
𝜍𝐴2𝑖 = 𝐴2
𝑖 − 𝐴𝑖 2
= (7)
𝜕𝜆 2 𝑖

d- Entropie d’équilibre

De l’expression (5) : 𝑆 𝜌 = −𝑘 𝑡𝑟𝜌𝑙𝑜𝑔𝜌 = 𝑘 𝑖 𝜆𝑖 𝐴𝑖 + 𝑘𝑙𝑜𝑔𝑍

Faisons subir au système un déplacement d’équilibre, c{d une variation


infinitésimale des paramètres 𝐴𝑖 caractérisant cet équilibre. Notons que
les paramètres 𝜆𝑖 subissent également une variation. Nous avons :
𝜕
𝐴𝑖 = − 𝑙𝑜𝑔𝑍
𝜕𝜆 𝑖

50
Pr. Filali Mohammed
Pr. Filali Mohammed

𝜕𝑙𝑜𝑔𝑍
⟹ 𝑑𝑙𝑜𝑔𝑍 = − 𝑖 𝐴𝑖 𝑑𝜆𝑖 = 𝑖 𝑑𝜆𝑖 (8)
𝜕𝜆 𝑖

𝜕𝑓
car 𝑑𝑓 = 𝑖 𝜕𝑥 𝑑𝑥𝑖
𝑖

D’après l’expression (5) : 𝑑𝑆 = 𝑘𝑑𝑙𝑜𝑔𝑍 + 𝑘𝑑( 𝑖 𝜆 𝑖 𝐴𝑖 )

or 𝑑𝑙𝑜𝑔𝑍 = − 𝑖 𝐴𝑖 𝑑𝜆𝑖 ⟹ 𝑑𝑆 = −𝑘 𝑖 𝐴𝑖 𝑑𝜆𝑖 + 𝑘𝑑( 𝑖 𝜆𝑖 𝐴𝑖 )

= −𝑘 𝐴𝑖 𝑑𝜆𝑖 + 𝑘 𝐴𝑖 𝑑𝜆𝑖 + 𝑘 𝑑 𝐴𝑖 𝜆𝑖
𝑖 𝑖 𝑖

⟹ 𝑑𝑆 = 𝑘 𝑖 𝑑 𝐴𝑖 𝜆𝑖 (9)

Cette relation exprime la variation de l’entropie lors d’un déplacement


d’équilibre.

Les relations (8) et (9) montrent que les variables naturelles pour S sont les
données 𝐴𝑖 , alors que pour 𝑙𝑜𝑔𝑍 est utile comme fonction de 𝜆𝑖 .
𝜕𝑆
A partir de (9) : = 𝑘𝜆𝑖 (10)
𝜕 𝐴𝑖

51
Pr. Filali Mohammed
Pr. Filali Mohammed

Ensemble Canonique
Dans l’ensemble canonique, le nombre de particules N et le volume V sont
fixés mais l’énergie est connue en moyenne. Nous dirons que le système est
en contact avec un thermostat. Nous avons une seule donnée statistique :

𝑡𝑟𝜌𝐻𝑁 = 𝐻𝑁 = 𝐸 (1)

où HN est l’Hamiltonien du système.

Le multiplicateur de Lagrange associé { la contrainte de l’énergie est :


𝜆𝑖 = 𝛽 . La distribution de Boltzmann-Gibbs sera nommée distribution
canonique :
1
𝜌𝑐 = 𝑒 −𝛽 𝐻𝑁 ⟹ 𝑍𝑐 𝛽, 𝑁, 𝑉 = 𝑡𝑟𝑒 −𝛽 𝐻𝑁 (2)
𝑍𝑐

𝑍𝑐 est la fonction de partition canonique.

Dans une base 𝑚 qui diagonalise 𝐻𝑁 : 𝐻𝑁 𝑚 = 𝐸𝑚 𝑚

⟹ 𝑍𝑐 𝛽, 𝑁, 𝑉 = 𝑡𝑟𝑒 −𝛽 𝐻𝑁 = 𝑚 𝑚 𝑒 −𝛽 𝐻𝑁 𝑚

⟹ 𝑍𝑐 𝛽, 𝑁, 𝑉 = 𝑚 𝑒 −𝛽 𝐸𝑚 (3)

On écrit : 𝑍𝑐 𝛽, 𝑁, 𝑉 = 𝑡𝑟𝑒 −𝛽 𝐻𝑁 = 𝑚 𝑒 −𝛽 𝐸𝑚

où la somme porte sur tous les états à N particules. Si, en plus, les énergies
𝐸𝑚 sont dégenerées, avec des degrés de dégénérescences 𝑔(𝐸𝑚 ), alors
l’expression (3) devient :

𝑍𝑐 𝛽, 𝑁, 𝑉 = 𝑚 𝑔(𝐸𝑚 )𝑒 −𝛽 𝐸𝑚 (4)

I-Grandeurs physiques

Le paramètre de Lagrange 𝛽 est lié { l’énergie par la formule :


𝜕
𝐻𝑁 = 𝐸 = − 𝑙𝑜𝑔𝑍 (5)
𝜕𝛽

a- Entropie statistique

𝑆= 𝑘 𝑖 𝜆𝑖 𝐴𝑖 + 𝑘𝑙𝑜𝑔𝑍 ⟹ 𝑆 𝐸, 𝑉, 𝑁 = 𝑘𝑙𝑜𝑔𝑍𝑐 + 𝑘𝛽𝐸

52
Pr. Filali Mohammed
Pr. Filali Mohammed

𝐸
⟹ 𝑆 = 𝑘𝑙𝑜𝑔𝑍𝑐 +
𝑇
⟹ 𝐹 = 𝐸 − 𝑇𝑆 = −𝑘𝑙𝑜𝑔𝑍𝑐 (6)
F : énergie libre de Helmholtz.

Lors d’un déplacement d’équilibre :


𝜕𝑆 1
= 𝑘𝛽 = (7)
𝜕𝐸 𝑇

𝜕𝐹
𝑆=− (8)
𝜕𝑇

b- Fluctuations

∂ 2 log Z c
2
ς = H 2
− H 2
= (9)
∂β 2

c- Chaleur spécifique à volume constant


𝜕𝐸
𝐶𝑉 = (10)
𝜕𝑇 𝑉

d- Chaleur spécifique à pression constante


𝜕𝐻
𝐶𝑃 = (11)
𝜕𝑇 𝑃

53
Pr. Filali Mohammed
Pr. Filali Mohammed

Ensemble Grand Canonique


Dans l’ensemble grand canonique, le volume V est donné exactement mais
l’énergie E et le nombre de particules sont connus en moyenne. Nous disons
que le système est en contact d’un ˝réservoir˝. Nous écrivons les données
statistiques :

𝑡𝑟𝜌𝐻𝑁 = 𝐻𝑁 = 𝐸 (1)

𝑡𝑟𝜌𝑁 = 𝑁 = 𝑁 (2)
Nous désignons par 𝛽 et par −𝜇 = −𝛽𝜇 , les multiplicateurs de lagrange
relatifs aux contraintes (1) et (2). La distribution grand canonique est
donnée par :
1
𝜌𝐺 = 𝑒 −𝛽 𝐻𝑁 +𝜇 𝑁 ⟹ 𝑍𝐺 𝛽, 𝜇, 𝑉 = 𝑡𝑟𝑒 −𝛽 𝐻𝑁 +𝜇 𝑁 (3)
𝑍𝐺

Pour un nombre de particules N fixés, nous désignons par 𝑚1 , … , 𝑚𝑁 la


base qui diagonalise simultanement 𝐻 et 𝑁 :
𝑁
𝐻 𝑚1 , … , 𝑚𝑁 = 𝐸𝑚 𝑚1 , … , 𝑚𝑁

𝑁 𝑚1 , … , 𝑚𝑁 = 𝑁 𝑚1 , … , 𝑚𝑁
𝑁
où 𝑚1 , … , 𝑚𝑁 est un état { N particules d’énergie 𝐸𝑚 . L’expression (3)
devient :

𝑍𝐺 𝛽, 𝜇, 𝑉 = 𝑡𝑟𝑒 −𝛽 𝐻𝑁 +𝜇 𝑁 = 𝑚1 , … , 𝑚𝑁 𝑒 −𝛽 𝐻𝑁 +𝜇 𝑁 𝑚1 , … , 𝑚𝑁
𝑁 𝑚 1 ,…,𝑚 𝑁

𝑁
Or 𝑚 1 ,…,𝑚 𝑁 𝑒
−𝛽 𝐸𝑚
= 𝑍𝑐 𝛽, 𝑁, 𝑉
𝑁
⟹ 𝑍𝐺 𝛽, 𝜇, 𝑉 = 𝑁 𝑒 +𝜇 𝑁 𝑚 1 ,…,𝑚 𝑁 𝑒
−𝛽 𝐸𝑚
= 𝑁 𝑒 +𝜇 𝑁 𝑍𝑐 𝛽, 𝑁, 𝑉 (4)

a- Grandeurs physiques

Les relations entre valeurs moyennes E et N et multiplicateurs de Lagrange


𝛽 et 𝜇 s’écrivent :

54
Pr. Filali Mohammed
Pr. Filali Mohammed

𝜕𝑙𝑜𝑔 𝑍𝐺 𝜕𝑙𝑜𝑔 𝑍𝐺
𝐸=− (5) et 𝑁 = (6)
𝜕𝛽 𝜕𝜇

b- Entropie d’équilibre

𝑆 𝐸, 𝑁, 𝑉 = 𝑘 𝜆𝑖 𝐴𝑖 + 𝑘𝑙𝑜𝑔𝑍
𝑖

⟹ 𝑆 𝐸, 𝑉, 𝑁 = 𝑘𝑙𝑜𝑔𝑍𝐺 + 𝑘𝛽𝐸 − 𝑘𝜇 𝑁 (7)

Lors d’un déplacement d’équilibre :


1 𝜕𝑆 1 𝜕𝑆
𝛽= et –𝜇 =
𝑘 𝜕𝐸 𝑘 𝜕𝑁

c- Fluctuation de l’énergie et du nombre de particules

𝜕 2 𝑙𝑜𝑔𝑍𝐺
𝜍𝐸2 = 𝐻 2
− 𝐻 2
=
𝜕𝛽 2

𝜕 2 𝑙𝑜𝑔𝑍𝐺
𝜍𝑁2 = 𝑁 2
− 𝑁 2
=
𝜕𝜇2

d- Le grand potentiel

D’après la formule (7) : 𝑆 𝐸, 𝑉, 𝑁 = 𝑘𝑙𝑜𝑔𝑍𝐺 + 𝑘𝛽𝐸 − 𝑘𝜇𝑁

= 𝑘𝑙𝑜𝑔𝑍𝐺 + 𝑘𝛽𝐸 − 𝑘𝛽𝜇𝑁


1 𝐸 𝜇𝑁
or 𝛽 = ⟹ 𝑆 = 𝑘𝑙𝑜𝑔𝑍𝐺 + −
𝑘𝑇 𝑇 𝑇

⟺ −𝑘𝑇𝑙𝑜𝑔𝑍𝐺 = 𝐸 − 𝑇𝑆 − 𝜇𝑁

⟺ Ω = −𝑘𝑇𝑙𝑜𝑔𝑍𝐺 = 𝐸 − 𝑇𝑆 − 𝜇𝑁 (8)

55
Pr. Filali Mohammed
Pr. Filali Mohammed

Distribution de Maxwell

La distribution de Maxwell est un exemple particulier de distributions de


Boltzmann-Gibbs classiques.

Considérons un système classique à N particules identiques contenus dans


un volume V. L’énergie totale du système : 𝐸𝑇 = 𝐸𝑐 (𝑝) + 𝐸𝑝 (𝑞).

Le système est décrit dans l’ensemble canonique par la densité en phase :

1 −𝛽𝐸 1 −𝛽 (𝐸 (𝑝)+𝐸 (𝑞))


𝜌 𝑞, 𝑝 = 𝑒 = 𝑒 𝑐 𝑝
𝑍𝑐 𝑍𝑐
La probabilité de trouver l’état du système dans l’élément de volume 𝑑𝜏𝑁 de
l’espace de phase est :
3𝑁

𝑑𝑃 = 𝜌 𝑞, 𝑝 𝑑𝜏𝑁 = 𝜌(𝑞, 𝑝) 𝑑𝑞𝑖 𝑑𝑝𝑖


𝑖=1

La séparabilité des variables 𝑞𝑖 et 𝑝𝑖 dans l’expression de l’énergie suggére


que 𝑑𝑃 peut être écrite comme :

𝑑𝑃 = 𝑑𝑃𝑞 . 𝑑𝑃𝑝
3𝑁
avec 𝑑𝑃𝑞 = 𝐴𝑒 −𝛽𝐸 (𝑞) 𝑖=1 𝑑𝑞𝑖

3𝑁
et 𝑑𝑃𝑝 = 𝐴𝑒 −𝛽𝐸 (𝑝) 𝑖=1 𝑑𝑝𝑖

a-Distribution de Maxwell des impulsions

La démarche historique consiste à considérer la probabilité relative aux


impulsions :
3𝑁
𝑃21 𝑃 2 3𝑁
−𝛽𝐸 (𝑝) −𝛽 −𝛽
𝑑𝑃𝑝 = 𝐴𝑒 𝑑𝑝𝑖 = 𝑏1 𝑒 2𝑚 … 𝑏3𝑁 𝑒 2𝑚
𝑖=1

On se contente de calculer la probabilité associée à une particule :


𝑝 2 𝑥 +𝑝 2 𝑦 +𝑝 2 𝑧
−𝛽
𝑑𝑃𝑝 = 𝑏𝑒 2𝑚 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
56
Pr. Filali Mohammed
Pr. Filali Mohammed

La condition de normalisation 𝑑𝑃 = 1
+∞ 𝑝 2 𝑥 +𝑝 2 𝑦 +𝑝 2 𝑧
−𝛽
⟹ 𝑑𝑃𝑝 = 𝑏 𝑒 2𝑚 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
−∞

3
+∞ 𝑝2𝑥
−𝛽
=𝑏 𝑒 2𝑚 𝑑𝑝𝑥 =1
−∞

3
+∞ 2 𝜋 𝛽 1
or −∞
𝑒 −𝛼𝑥 𝑑𝑥 = ⟹𝛼= = ⟹ 𝑏(2𝜋𝑚𝑘𝑇)2 = 1
𝛼 2𝑚 2𝑚𝑘𝑇

3
⟹ 𝑏 = (2𝜋𝑚𝑘𝑇)−2

Donc, 𝑑𝑃𝑝 devient :

3 𝑝 2 𝑥 +𝑝 2 𝑦 +𝑝 2 𝑧
− −𝛽
𝑑𝑃𝑝 = (2𝜋𝑚𝑘𝑇) 2 𝑒 2𝑚 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧

C’est la distribution de Maxwell des impulsions.

b-Distribution de Maxwell des vitesses

On peut également écrire une distribution de Maxwell pour les vitesses :

on a : 𝑝 = 𝑚𝑣
3 𝑣 2 𝑥 +𝑣 2 𝑦 +𝑣 2 𝑧
− 3 −𝛽
⟹ 𝑑𝑃𝑣 = (2𝜋𝑚𝑘𝑇) 2 𝑚 𝑒 2𝑚 𝑑𝑣𝑥 𝑑𝑣𝑦 𝑑𝑣𝑧
2 2 2
𝑚 3 −𝛽 𝑣 𝑥 +𝑣 𝑦 +𝑣 𝑧
⟹ 𝑑𝑃𝑣 = ( )2 𝑒 2𝑚 𝑑𝑣𝑥 𝑑𝑣𝑦 𝑑𝑣𝑧
2𝜋𝑘𝑇
C’est la distribution de Maxwell des vitesses.

c-Valeur moyenne de L’énergie cinétique

La valeur moyenne de l’énergie cinétique d’une particule :


+∞
1
𝐸𝑐𝑖 = 𝑚𝑣 2 𝑑𝑃𝑣
−∞ 2

avec 𝑣 2 = 𝑣𝑥2 + 𝑣𝑦2 + 𝑣𝑧2

57
Pr. Filali Mohammed
Pr. Filali Mohammed

+∞ 2 2 2
𝑚 3 −𝛽 𝑣 𝑥 +𝑣 𝑦 +𝑣 𝑧 1
⟹ 𝐸𝑐𝑖 = ( )2 𝑒 2𝑚 ( 𝑚𝑣 2 ) 𝑑𝑣𝑥 𝑑𝑣𝑦 𝑑𝑣𝑧
−∞ 2𝜋𝑘𝑇 2

Pour résoudre cette intégrale, on passe aux coordonnées sphériques :

𝑑𝑣𝑥 . 𝑑𝑣𝑦 . 𝑑𝑣𝑧 = 4𝜋𝑣 2 𝑑𝑣


+∞ 𝑣2
𝑚 3 4 −𝛽
⟹ 𝐸𝑐𝑖 = ( )2 2𝜋𝑚 𝑣 𝑒 2𝑚 𝑑𝑣
2𝜋𝑘𝑇 0

+∞ 2 𝜋 2𝑝 −1 ‼
or 𝐼𝑝 = 𝑥 2𝑝 𝑒 −𝑎𝑥 𝑑𝑥 =
−∞ 𝑎 2𝑝 +1 2𝑝

avec 2𝑝 − 1 ‼ = 1 × 3 × … .× (2𝑝 − 1)
𝑣2 5
+∞ 4 −𝛽 𝜋 −
0
𝑣 𝑒 2𝑚 𝑑𝑣 = 3 (𝛽𝑚) 2
2

3
⟹ 𝐸𝑐𝑖 = 𝑘𝑇
2
d- Théorème de l’équipartition de l’énergie

Si un système possède un Hamiltonien quadratique :


𝑁 𝑁
1
𝐻= 𝑕𝑖 = 𝜆𝑖 𝑥𝑖2
2
𝑖=1 𝑖=1

où les 𝜆𝑖 sont des constantes positives, alors { l’équilibre on a :


1
𝑕1 = ⋯ = 𝑕𝑁 = 𝑘𝑇
2
1
Chaque terme quadratique de l’énergie a une valeur moyenne égale { 𝑘𝑇 .
2

58
Pr. Filali Mohammed
Pr. Filali Mohammed

Distribution Isobare-Isotherme

Dans l’ensemble isobare-isotherme, l’énergie E et le volume V sont libres à


fluctuer :
+∞
−𝛽 (𝐻+𝑃𝑉 )
𝑍𝑖 = 𝑡𝑟𝑒 = 𝑒 −𝛽𝑃𝑉 𝑍𝑐
0

où 𝑍𝑐 est la fonction de partition canonique.


+∞
1 3𝑁
𝑍𝑖 = (2𝜋𝑚𝑘𝑇) 2 𝑒 −𝛽𝑃𝑉 𝑉 𝑁 𝑑𝑉
𝑁! 𝑕3𝑁 0

On rappelle que la fonction Gamma s’écrit comme :


+∞
Γ 𝑧 = 𝑡 𝑧−1 𝑒 −𝑡 𝑑𝑡
0

Γ 𝑛 + 1 = 𝑛!

On commence à calculer :
+∞
𝑒 −𝛽𝑃𝑉 𝑉 𝑁 𝑑𝑉
0

On fait un changement de variables : 𝛽𝑃𝑉 = 𝑥 ⟹ 𝛽𝑃𝑑𝑉 = 𝑑𝑥


+∞ +∞
−𝑥
𝑥 1 1
𝑒 ( )𝑁 𝑑𝑥 = 𝑒 −𝑥 𝑥 𝑁 𝑑𝑥
0 𝛽𝑃 𝛽𝑃 𝛽𝑃 𝑁+1 0

+∞
Or 0
𝑥 𝑁 𝑒 −𝑥 𝑑𝑥 = Γ 𝑁 + 1 = 𝑁!
𝑁+1
2𝜋𝑚𝑘𝑇 3𝑁 𝑘𝑇
⟹ 𝑍𝑖 = ( )2
𝑕2 𝑃
a- Entropie S

𝑆=𝑘 𝜆𝑖 𝐴𝑖 + 𝑘𝑙𝑜𝑔𝑍𝑖 = 𝑘𝛽𝐸 + 𝑘𝛽𝑃𝑉 + 𝑘𝑙𝑜𝑔𝑍𝑖


𝑖

59
Pr. Filali Mohammed
Pr. Filali Mohammed

𝐸 𝑃𝑉
= + + 𝑘𝑙𝑜𝑔𝑍𝑖 ⟹ 𝑇𝑆 = 𝐸 + 𝑃𝑉 + 𝑘𝑙𝑜𝑔𝑍𝑖
𝑇 𝑇
⟹ −𝑘𝑇𝑙𝑜𝑔𝑍𝑖 = 𝐺 = 𝐸 + 𝑃𝑉 − 𝑇𝑆

G: l’enthalpie libre

𝑑𝐺 = 𝑑𝐸 + 𝑃𝑑𝑉 + 𝑉𝑑𝑝 − 𝑇𝑑𝑆 − 𝑆𝑑𝑇

Or 𝑑𝐸 = 𝑇𝑑𝑆 − 𝑃𝑑𝑉 + 𝜇𝑑𝑁 ⟹ 𝑑𝐺 = −𝑆𝑑𝑇 + 𝑉𝑑𝑝 + 𝜇𝑑𝑁


𝜕𝐺
⟹𝑆=−
𝜕𝑇 𝑃,𝑁

𝑁+1
2𝜋𝑚𝑘𝑇 3𝑁 𝑘𝑇
𝐺 = −𝑘𝑇𝑙𝑜𝑔𝑍𝑖 = −𝑘𝑇𝑙𝑜𝑔 ( )2
𝑕2 𝑃

b- Energie interne
𝜕𝑙𝑜𝑔𝑍 𝜕𝑙𝑜𝑔𝑍𝑖
𝐴𝑖 = − ⟹ 𝐸 =−
𝜕𝜆𝑖 𝜕𝛽

c- Volume
𝜕𝐺 1 𝜕𝑙𝑜𝑔𝑍𝑖
𝑉= =−
𝜕𝑃 𝑇,𝑁 𝛽 𝜕𝑃

60
Pr. Filali Mohammed
Pr. Filali Mohammed

Grandeurs Thermodynamiques

Considérons un système homogène ayant N particules. L’énergie interne E


est une fonction des paramètres extensifs S,V,N : 𝐸 = 𝐸(𝑆, 𝑉, 𝑁) (1)

A chaque paramètre extensif lui correspond un paramètre intensif :

𝑆⟶𝑇

𝑁⟶𝜇

𝑉⟶𝑃
𝜕𝐸 𝜕𝐸 𝜕𝐸
⟹ = 𝑇 (2) ; = −𝑃 (3) ; = 𝜇 (4)
𝜕𝑆 𝑉,𝑁 𝜕𝑉 𝑆,𝑁 𝜕𝑁 𝑆,𝑉

La différentielle totale de (1) :


𝜕𝐸 𝜕𝐸 𝜕𝐸
𝑑𝐸 = 𝑑𝑆 + 𝑑𝑉 + 𝑑𝑁
𝜕𝑆 𝑉,𝑁 𝜕𝑉 𝑆,𝑁 𝜕𝑁 𝑆,𝑉

Compte tenu des définitions (2,3,4):

𝑑𝐸 = 𝑇𝑑𝑆 − 𝑃𝑑𝑉 + 𝜇𝑑𝑁

Comme l’énergie E est une fonction extensive homogène de degré 1, on peut


calculer son expression en fonction de S,V et N.

a- Fonction homogène

Def : 𝑓(𝑥, 𝑦, 𝑧) est dite homogéne de degré n si ona :

𝑓 𝜆𝑥, 𝜆𝑦, 𝜆𝑧 = 𝜆𝑛 𝑓(𝑥, 𝑦, 𝑧)

Dérivons par rapport à 𝜆 :

𝜕𝑓 𝜆𝑥, 𝜆𝑦, 𝜆𝑧 𝜕𝑓 𝜆𝑥, 𝜆𝑦, 𝜆𝑧 𝜕𝑓 𝜆𝑥, 𝜆𝑦, 𝜆𝑧


𝑥 𝑑𝑆 + 𝑦 +𝑧 = 𝑛𝜆𝑛 −1 𝑓(𝑥, 𝑦, 𝑧)
𝜕 𝜆𝑥 𝜕 𝜆𝑦 𝜕 𝜆𝑧

On a : 𝐸 𝜆𝑆, 𝜆𝑉, 𝜆𝑁 = 𝜆𝐸 𝑆, 𝑉, 𝑁

61
Pr. Filali Mohammed
Pr. Filali Mohammed

E: fonction homogène de degré 1 (n=1).

Si on dérive cette expression par rapport 𝜆 :

𝜕𝐸 𝜆𝑆, 𝜆𝑉, 𝜆𝑁 𝜕𝐸 𝜆𝑆, 𝜆𝑉, 𝜆𝑁 𝜕𝐸 𝜆𝑆, 𝜆𝑉, 𝜆𝑁


𝑆 +𝑉 +𝑁 = 𝐸(𝑆, 𝑉, 𝑁)
𝜕 𝜆𝑆 𝑉,𝑁
𝜕 𝜆𝑉 𝑆,𝑁
𝜕 𝜆𝑁 𝑆,𝑉

𝜕𝐸 𝜕𝐸 𝜕𝐸
Pour 𝜆 = 1 : 𝐸 𝑆, 𝑉, 𝑁 = 𝑆 +𝑉 +𝑁
𝜕𝑆 𝑉,𝑁 𝜕𝑉 𝑆,𝑁 𝜕𝑁 𝑆,𝑉

⟹ 𝐸 = 𝑇𝑆 − 𝑃𝑉 + 𝜇𝑁

D’autres fonctions d’états sont obtenus { partir de l’énergie interne après


une transformation appelée transformation de Legendre.

a- Transformation de Legendre

Def : ‘’Soit une fonction 𝑓 𝑥, 𝑦 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑑𝑓 = 𝑢𝑑𝑥 + 𝑣𝑑𝑦

Pour passer de 𝑓 𝑥, 𝑦 à la fonction 𝑓 𝑢, 𝑦 , on écrit : 𝑔 𝑢, 𝑦 = 𝑓 𝑥, 𝑦 − 𝑢𝑥’’

Exemple :

𝐸(𝑆, 𝑉) ⟶ 𝐹(𝑇, 𝑉)

𝐸 𝑆, 𝑉 = 𝑓(𝑥, 𝑦)

𝐹 𝑇, 𝑉 = 𝑔(𝑢, 𝑦)

On : 𝑔 𝑢, 𝑦 = 𝑓 𝑥, 𝑦 − 𝑢𝑥

⟹ 𝐹 𝑇, 𝑉 = 𝐸 𝑆, 𝑉 − 𝑇𝑆

F : énergie libre de Helmholtz

𝑑𝐹 = −𝑆𝑑𝑇 − 𝑃𝑑𝑉 + 𝜇𝑑𝑁

𝐸(𝑆, 𝑉) ⟶ 𝐻(𝑆, 𝑃)

𝐻 = 𝐸 + 𝑃𝑉

H :enthalpie

𝑑𝐻 = 𝑇𝑑𝑆 + 𝑉𝑑𝑃 + 𝜇𝑑𝑁

62
Pr. Filali Mohammed
Pr. Filali Mohammed

𝐻(𝑆, 𝑃) ⟶ 𝐺(𝑇, 𝑃)

𝐺 = 𝐻 − 𝑇𝑆 = 𝐸 + 𝑃𝑉 − 𝑇𝑆 = 𝜇𝑁

G : enthalpie libre

𝑑𝐺 = −𝑆𝑑𝑇 + 𝑉𝑑𝑃 + 𝜇𝑑𝑁

On définit le grand potentiel :

Ω = 𝐸 − 𝑇𝑆 − 𝜇𝑁 = −𝑃𝑉

dΩ = −𝑆𝑑𝑇 − 𝑃𝑑𝑉 − 𝑁𝑑𝜇

Tableau des potentiels thermodynamiques

Variables E,V,N T,V,N T,V, 𝜇 T,P,N

Distributions Microcanonique Canonique Grand Isobare-Isotherme


canonique

Fonctions de
Partition
W 𝑍𝑐 = 𝑡𝑟𝑒 −𝛽𝐻 𝑍𝐺 = 𝑡𝑟𝑒 −𝛽𝐻 +𝜇 𝑁 𝑍𝑖 = 𝑑𝑉𝑡𝑟𝑒 −𝛽(𝐻+𝑃𝑉)

Potentiels Entropie Energie libre Grand potentiel Enthalpie libre


thermodynamiques
𝑆 𝐸, 𝑉, 𝑁 𝐹 𝑇, 𝑉, 𝑁 Ω 𝑇, 𝑉, 𝜇 G 𝑇, 𝑉, 𝜇
= 𝑘𝑙𝑜𝑔𝑊 = −𝑘𝑇𝑙𝑜𝑔𝑍𝑐 = −𝑘𝑇𝑙𝑜𝑔𝑍𝐺 = −𝑘𝑇𝑙𝑜𝑔𝑍𝑖

Relation avec
l’entropie
---------- Ω = E − TS − 𝜇𝑁 G = E + PV − TS

63
Pr. Filali Mohammed

Vous aimerez peut-être aussi