Vous êtes sur la page 1sur 64

Automne 2019

SMP5

Physique Statistique I

Prof. Morad EL BAZ

Année universitaire 2019/2020


Table des matières

I Description probabiliste des systèmes physiques 3


I.1 Systèmes quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.1.1 Etat pur (Rappel) : . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.1.2 Etat mixte (Mélange statistique) : . . . . . . . . . . . . . . . . . . . 6
I.1.3 Matrice densité réduite (Systèmes composés) . . . . . . . . . . . . . 10
I.1.4 Postulats de la mécanique quantique reformulés dans le formalisme
de la matrice densité : . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2 Systèmes classiques : Densité en phase . . . . . . . . . . . . . . . . . . . . 15
I.2.1 Micro-états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I.2.2 Macro-états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I.2.3 Evolution temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . 16
I.2.4 Les statistiques classiques comme limite des statistiques quantiques 19
I.2.5 Densités réduites . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

II Postulats de la physique statistique - Ensemble microcanonique 21


II.1 Postulats de la Physique statistique . . . . . . . . . . . . . . . . . . . . . . 21
II.1.1 Autre dérivation de l’équation de Liouville . . . . . . . . . . . . . . 21
II.1.2 Postulat 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
II.1.3 Postulat 2 : Théorème H de Boltzmann . . . . . . . . . . . . . . . . 25
II.2 L’ensemble microcanonique . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II.2.1 Systèmes ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II.2.2 Ensemble microcanonique . . . . . . . . . . . . . . . . . . . . . . . 26

III Entropie statistique 29


III.1 Mesure de l’information manquante . . . . . . . . . . . . . . . . . . . . . . 29

1
Physique Statistique I CHAPITRE SMP5

III.2 Entropie statistique d’un état quantique . . . . . . . . . . . . . . . . . . . 32


III.2.1 Définition en terme de l’opérateur densité . . . . . . . . . . . . . . 32
III.2.2 Lemme : Inégalité satisfaite par l’entropie statistique quantique . . 33
III.2.3 Propriétés de l’entropie statistique quantique . . . . . . . . . . . . . 34
III.2.4 Evolution temporelle de l’entropie statistique quantique . . . . . . . 37
III.3 Entropie statistique d’un état classique . . . . . . . . . . . . . . . . . . . . 38

IV Distribution de Boltzmann-Gibbs 39
IV.1 Distribution d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
IV.1.1 La méthode des multiplicateurs de Lagrange . . . . . . . . . . . . . 40
IV.1.2 La méthode variationnelle : . . . . . . . . . . . . . . . . . . . . . . 42
IV.1.3 Fonction de partition . . . . . . . . . . . . . . . . . . . . . . . . . . 43
IV.1.4 L’entropie d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . 44
IV.1.5 Factorisation des fonctions de partition . . . . . . . . . . . . . . . . 45
IV.2 Ensemble canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
IV.3 Ensemble grand canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
IV.4 Autres exemples d’ensembles statistiques . . . . . . . . . . . . . . . . . . . 50
IV.4.1 Ensemble microcanonique . . . . . . . . . . . . . . . . . . . . . . . 50
IV.4.2 Fluide mixte (ensemble grand canonique) . . . . . . . . . . . . . . . 50
IV.4.3 Système libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
IV.5 Distribution d’équilibre en statistique classique . . . . . . . . . . . . . . . . 51

V Applications 53
V.1 Distribution de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
V.2 Théorème de l’équipartition de l’énergie et théorème du viriel . . . . . . . . 55
V.3 Gaz parfait en équilibre thermique canonique . . . . . . . . . . . . . . . . . 58

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 2


Chapitre I

Description probabiliste des systèmes


physiques

I.1 Systèmes quantiques

I.1.1 Etat pur (Rappel) :


Formulation standard :

L’état microscopique d’un système physique, à tout instant t, est décrit par un vecteur
ket |ψi appartenant à un espace de Hilbert H ; on dit que le système est dans un état pur.
Si |un i est une base orthonormée de H, |ψi se décompose alors de la manière suivante
X
|ψ(t)i = Cn (t)|un i. (I.1)
n

La normalisation de |ψi à l’unité impose la condition


X
|Cn |2 = 1. (I.2)
n

On considère une observable A, avec les éléments de matrice Anp = hun |A|up i. La valeur
moyenne de A à l’instant t s’écrit :
hAi(t) = hψ(t)|A|ψ(t)i
X
= Cn∗ (t)Cp (t)hun |A|up i
n,p
X
= Cn∗ (t)Cp (t)Anp . (I.3)
n,p

L’évolution dans le temps de l’état du système est décrite par l’équation de Schrodinger :

ih̄ |ψ(t)i = H|ψ(t)i (I.4)
∂t
3
Physique Statistique I CHAPITRE I SMP5

Formulation en terme de l’opérateur densité :

Pour un système physique décrit par l’état quantique |ψi, on définit l’opérateur densité
par
ρ = |ψihψ|. (I.5)
Les éléments de matrice de ρ s’écrivent alors

ρnp = hun |ρ|up i


= hun |ψihψ|up i
= Cn Cp∗ (I.6)

Propriétés de l’opérateur densité (cas pur) :

Dans la suite on montre que tous les résultats qu’on peut obtenir en utilisant la
formulation standard de la mécanique quantique en terme du vecteur ket |ψi peuvent
être reformulés en terme de la matrice densité ρ.
♣ Il est facile de voir d’après sa définition que l’opérateur densité est un opérateur
hermitien :
ρ† = ρ. (I.7)
Cela a pour conséquence importante que les valeurs propres de ρ sont toutes réelles
et ses vecteurs propres forment une base orthonormée de H.
♣ La condition de normalisation (I.2) impose la condition de normalisation suivante
de ρ :
Trρ = 1, (I.8)
où Tr dénote l’opération de trace de matrice (somme des éléments diagonaux).

Preuve.
X
Trρ = ρnn
n
X
= hun |ρ|un i
n
X
= |Cn |2
n
= 1.

♣ La valeur moyenne d’une observable pour un système décrit par la matrice densité
ρ est donnée par :
hAi = Tr (ρA) (I.9)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 4


Physique Statistique I CHAPITRE I SMP5

Preuve. En utilisant (I.3) :


X
hAi = Cn∗ (t)Cp (t)Anp (I.10)
n,p

et l’expression des éléments de matrice de ρ (I.6) on écrit :


X
hAi = hup |ρ|un ihun |A|up i
n,p
X
= hup |ρ A|up i,
p
= Tr (ρA) .
P
Dans l’avant dernière étape, on utilise la relation de fermeture n |un ihun |.

♣ L’évolution temporelle de l’opérateur densité est donnée par l’équation suivante


(appelée équation de Von-Neumann)
∂ρ(t)
ih̄ = [H, ρ(t)] . (I.11)
∂t
Preuve. En utilisant (I.4) et son conjugué hermitien :

− ih̄ hψ(t)| = hψ(t)|H, (I.12)
∂t
et le fait que l’Hamiltonien est hermitien : H = H † on écrit
   
∂ρ(t) ∂ ∂
ih̄ = ih̄ |ψ(t)i hψ(t)| + |ψ(t)i hψ(t)|
∂t ∂t ∂t
= H|ψ(t)ihψ(t)| − |ψ(t)ihψ(t)|H
= [H, ρ(t)] . (I.13)

♣ La mesure de l’observable A, à l’instant t, donne la valeur propre an avec la pro-


babilité p(an ) :
p(an ) = Tr (ρPn ) , (I.14)
où Pn = |un ihun | est le projecteur sur le vecteur propre |un i de A associé à la
valeur propre an .

Preuve.
p(an ) = |Cn (t)|2
= hψ|un ihun |ψi
= hψ|Pn |ψi
= hPn i
= Tr (ρPn ) . (I.15)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 5


Physique Statistique I CHAPITRE I SMP5


ρ2 = ρ (I.16)
ce qui implique, vu (I.8), que

Tr ρ2 = Trρ = 1.

(I.17)

Preuve.

ρ2 = |ψihψ||ψihψ| = |ψihψ| = ρ. (I.18)

I.1.2 Etat mixte (Mélange statistique) :


Dans certaine situation physique, l’état du système n’est pas connu avec certitude.
Ceci peut être dû au fait que le système est mal préparé où tout simplement au fait
qu’il est très compliqué (voir impossible) de connaitre tous les paramètres déterminants
l’état du système. C’est le cas lorsqu’on veut étudier un système macroscopique tel un
gaz de N particules. on parle alors de mélange statistique. Dans un tel cas on associe
des probabilités à chaque vecteur ket susceptible de décrire l’état du système. Ainsi, si
on dénote les états possibles d’un système |ψk i pour k = 1, 2, . . . , N et les probabilités
associées par pk on peut dire que le système est dans l’état |ψ1 i avec la probabilité p1 ,
dans l’état |ψ2 i avec la probabilité p2 . . . . Etant sûr que le sysème est dans l’un des état
N
X
|ψk i avec k = 1, 2, . . . , N , les probabilités doivent être normalisées à l’unité : pk = 1.
k=1

Pour établir la probabilité p(an ), qu’une mesure de l’observable A donne la valeur


propre an , dans le cas de ce mélange statistique, on commence par le cas pur. En effet,
si le système est dans l’état |ψk i alors la probabilité de trouver comme résultat an est
donnée par (I.14) :
pk (an ) = Tr (ρk Pn ) , (I.19)
où ρk = |ψk ihψk | est la matrice densité associée à l’état pur |ψk i. En prenant la moyenne
statistique sur tous les états possible du système, on écrit la probabilité moyenne de
trouver le résultat an comme :
N
X
p(an ) = pk pk (an )
k=1
XN
= pk Tr (ρk Pn )
k=1
N
!
X
= Tr pk ρ k P n . (I.20)
k=1

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 6


Physique Statistique I CHAPITRE I SMP5

Si on veut écrire cette probabilité sous une forme similaire à (I.14), on doit définir l’opé-
rateur densité dans le cas d’un mélange statistique par :
N
X
ρ = pk ρ k (I.21)
k=1
XN
= pk |ψk ihψk | (I.22)
k=1

Ce choix de définition de l’opérateur densité, permet de décrire un système dans un état


mixte de façon similaire à la description d’un état pur établie précédemment.

Propriétés de l’opérateur densité (cas mixte) :

Toutes les propriétés établies précédemment dans le cas pur restent valables dans le
cas mixte sauf la dernière propriété, qui n’est valable que dans le cas pur.

i). ρ est un opérateur hermitien. De ce fait, ses valeurs propres sont réelles et ses vecteurs
propres forment une base orthonormée.

Preuve. En utilisant la définition (I.21), le fait que les ρk sont hermitiens et que les
probabilités sont réelles, on montre facilement que ρ est hermitien.

ii). La normalisation de l’opérateur densité s’écrit Trρ = 1.

Preuve.
N
!
X
Trρ = Tr pk ρk
k=1
N
X
= pk Trρk
k=1
XN
= pk
k=1
= 1. (I.23)

iii). La valeur moyenne d’une observable A s’écrit :

hAi = Tr (ρA) . (I.24)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 7


Physique Statistique I CHAPITRE I SMP5

Preuve. On commence par la définition statistique de la valeur moyenne sur les


différentes mesures de l’observable A :
X
hAi = an p(an )
n
X
= an Tr (ρPn )
n
!
X
= Tr ρ an P n
n
= Tr (ρA) . (I.25)

Dans l’avant dernière étape on a utilisé la décomposition spectrale de l’observable


A: X X
A= an |un ihun | = an P n . (I.26)
n n

iv). L’évolution temporelle de l’opérateur densité est décrite par l’équation de Von-
Neumann (I.11) :
∂ρ(t)
ih̄ = [H, ρ(t)] . (I.27)
∂t

Preuve. Cette équation est une conséquence directe de la définition (I.21) et de


l’équation d’évolution (I.11) avec des probabilités pk constantes.

v). Par construction, la mesure d’une observable A donne la valeur propre an avec la
probabilité :
p(an ) = Tr (ρPn ) . (I.28)
vi). ρ est semi-défini positif :
hϕ|A|ϕi ≥ 0 ∀ |φi ∈ H (I.29)

Preuve. On part du fait que la quantité k pk |hϕ|ψk i|2 est non-negative pour tout
P
vecteur |φi ∈ H. Ceci implique que
X
hϕ|ψk ipk hψk |ϕk i ≥ 0 (I.30)
k
X
En remplaçant ρ = |ψk ipk hψk | on montre que hϕ|A|ϕi ≥ 0
k

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 8


Physique Statistique I CHAPITRE I SMP5

Remarques :
♠ Dans le cas mixte ρ2 6= ρ ce qui implique que Tr (ρ2 ) < 1, tandis que dans le cas
pur, on a vu que ρ2 = ρ et que Tr (ρ2 ) = 1. Ceci fourni un moyen de distinguer si
un opérateur densité donné décrit un état pur ou-bien un état mixte.

♠ Dans la formulation standard de la mécanique quantique, en termes de vecteurs


kets, l’état d’un système physique est défini à une phase près (ajouter un facteur de
phase à une fonction d’onde, ou un vecteur ket, ne change en rien les probabilités
calculées). La formulation de la mécanique quantique en utilisant la matrice densité
a l’avantage d’éliminer cette ambiguité (la phase d’un vecteur ket est éliminée par
celle du bra dans la définition de ρ).

♠ La définition (I.21), de l’opérateur densité combine deux types de probabilités de


natures complètement différentes. D’un coté, les probabilités pk sont dues à un
manque d’information (ou une mal préparation du système), tandis que les proba-
bilités à l’intérieur des |ψk i (les |Cn |2 )sont d’origine quantique et sont intrinsèques
au système quantique. On dit que les premières sont des probabilités classiques
tandis que les secondes sont des probabilités quantiques.

♠ ρ étant hermitien, il admet une décomposition spectrale :


X
ρ= λn |vn ihvn |, (I.31)
n

où les |vn i sont les vecteurs propres de ρ associés aux valeurs propres λn respective-
ment. Cette écriture est similaire à (I.21), d’autant plus qu’il est facile de montrer
que les λn sont des probabilitésP (on peut, en effet, montrer que λn ≥ 0 à partir
de la positivité de ρ et que n λn = 1 à partir de la normalisation de ρ). Ceci
indique, que la représentation spectrale de l’opérateur densité n’est qu’une prépa-
ration possible du système statistique en étude. En effet, plusieurs préparations
possibles sont possibles pour le même état ρ.

Evolution temporelle des éléments de matrice de ρ :


Si on travail dans la base des vecteurs propres de l’Hamiltonien du système :

H|un i = En |un i , hun |H = hun |En (I.32)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 9


Physique Statistique I CHAPITRE I SMP5

alors, en prenant les éléments de matrice de l’équation de Von-Neumann (I.27) on a :


∂ρnp
ih̄ = hun | [H, ρ(t)] |up i
∂t
= hun |Hρ(t)|up i − hun |ρ(t)H|up i
= (En − Ep ) hun |ρ(t)|up i
= (En − Ep ) ρnp (I.33)

— Populations : ce sont les éléments diagonaux de ρ, n = p :


∂ρnn
ih̄ = 0. (I.34)
∂t
Ce qui implique que les populations sont constants : ρnn (t) = cte = ρnn (t = 0).
— Cohérences : Ce sont les éléments de matrice non-diagonaux n 6= p :
∂ρnp
ih̄ = (En − Ep ) ρnp, , (I.35)
∂t
qui admet comme solution
i
ρnp (t) = ρnp (t = 0)e− h̄ (En −Ep )t . (I.36)

Les cohérences oscillent aux fréquences de Bohr du système.

I.1.3 Matrice densité réduite (Systèmes composés)


On considère un système (AB) composé de deux sous-systèmes A et B. Si on dénote
HA l’espace des états du sous système A et HB celui du sous système B, alors l’espace
HAB des états du système composé (AB) est le produit tensoriel des espaces des états des
sous-systèmes :
HAB = HA ⊗ HB . (I.37)
Si HA est de dimension NA , et HB est de dimension NB alors HAB est de dimension
NA × NB
Dans la formulation standard de la mécanique quantique, la description de l’état du
système composé est simple si on connaît les états (purs) des sous-systèmes. La question
inverse (caractériser l’état de chaque sous-système quand l’état du système composé est
connu) est cependant plus ardue et ne trouve de réponse satisfaisante qu’en utilisant le
formalisme de la matrice densité.
En effet, si le sous-système A est dans l’état pur |ψA i et le sous-système B est dans
l’état pur |ψB i alors le système composé (AB) est dans l’état |ψAB i = |ψA i ⊗ |ψB i. De
façon générale, Si {|un iA }n=1,2...,NA est une base orthonormée de HA et {|v` iB }`=1,2...,NB
est une base orthonormée de HB alors {|un , v` iAB := |un iA ⊗ |v` iB }n=1,2...,NA , `=1,2,...,NB est
une base orthonormée de HAB .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 10


Physique Statistique I CHAPITRE I SMP5

Pour un opérateur OA défini sur le sous-système A, on peut définir une extension


agissant sur le système global de la manière suivante

O := OA ⊗ IB , (I.38)

où IB est l’opérateur identité sur l’espace HB 1 .


Pour un système composé dans l’état
X
|ψAB i = Cn,` |un , vl i, (I.39)
n,`

l’action de l’extension de OA sur ce vecteur est donnée par


X
(OA ⊗ IB ) |ψAB i = (OA ⊗ IB ) Cn,` |un , vl iAB
n,`
X
= Cn,` (OA ⊗ IB ) |un iA ⊗ |v` iB
n,`
X
= Cn,` (OA |un iA ) ⊗ (IB |v` iB )
n,`
X
= Cn,` (OA |un iA ) ⊗ |v` iB .
n,`

Ses éléments de matrices sont alors donnés par

AB hun , v` |OA ⊗ IB |um , vk iAB = δ`,k A hun |OA |um iA . (I.40)

De manière similaire l’action de l’extension de OB est donnée par


X
(IA ⊗ OB ) |ψAB i = (IA ⊗ OB ) Cn,` |un , vl i
n,`
X
= Cn,` |un i ⊗ (OB |v` i),
n,`

et ses éléments de matrices par

AB hun , v` |IA ⊗ OB |um , vk iAB = δm,n B hv` |OB |vk iB . (I.41)

Comme noté auparavant, pour pouvoir décrire l’état de chaque sous-système connais-
sant l’état du système composé, il faut travailler dans le formalisme de la matrice densité.
Pour cela considérons un système composé, décrit par la matrice densité ρAB . Ses éléments
de matrice sont donnés par :

(ρAB )(n,`;m,k) = AB hun , v` |ρAB |um , vk iAB (I.42)


1. De manière similaire on peut définir l’extension d’un opérateur OB défini sur le sous-système B par
O := IA ⊗ OB , où IA est l’opérateur identité sur l’espace HA .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 11


Physique Statistique I CHAPITRE I SMP5

Définition :
La matrice densité réduite du sous-système A est définie par
ρA := TrB ρAB
X
:= B hv` |ρAB |v` iB . (I.43)
`
TrB dénote la trace partielle sur l’espace des états du sous-système B.
De même, la matrice densité réduite du sous-système B est obtenue en prenant la trace
partielle de ρAB sur l’espace des états du sous-système A :
ρB := TrA ρAB
X
:= A hun |ρAB |un iA . (I.44)
n

Pour montrer que le sous-système A est décrit par la matrice densité réduite ρA , il suffit
de montrer que la valeur moyenne d’une observable OA est la même qu’elle soit calculée
sur l’état du sous-système A où sur l’état du système composé en utilisant l’extension de
l’observable i.e.
hOA iA = hOA ⊗ IB iAB (I.45)
Tr (ρA OA ) = Tr (ρAB (OA ⊗ IB )) (I.46)

Preuve.
hOA ⊗ IB iAB = Tr (ρAB (OA ⊗ IB ))
X
= hun , v` | (ρAB (OA ⊗ IB )) |un , v` i. (I.47)
n,`

On introduit la relation de fermeture sur l’espace HAB :


X
hOA ⊗ IB iAB = AB hun , v` | (ρAB |um , vk iAB AB hum , vk | (OA ⊗ IB )) |un , v` iAB
n,m,`,k
X
= δk,` AB hun , v` | (ρAB |um , vk iAB A hum |OA ) |un iA
n,m,`,k
X
= AB hun , v` | (ρAB |um , v` iAB A hum |OA ) |un iA
n,m,`
X
= A hun | (ρA |um iA A hum |OA ) |un iA (I.48)
n,m

où dans cette dernière étape nous avons utilisé la définition de la matrice réduite (I.43).
En utilisant, la relation de fermeture sur l’espace HA on obtient
X
hOA ⊗ IB iAB = A hun | (ρA OA ) |un iA
n
= Tr (ρA OA )
= hOA iA (I.49)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 12


Physique Statistique I CHAPITRE I SMP5

Exemple :
On considère un système composé de deux particules de spin 12 , dans l’état suivant :
1
|ψAB i = √ {|+, +i + |−, −i} (I.50)
2
la matrice densité du système composé est alors donnée par :

ρAB = |ψAB ihψAB |


1
= {|+, +ih+, +| + |+, +ih−, −| + |−, −ih+, +| + |−, −ih−, −|} . (I.51)
2
La matrice densité réduite du sous-système A est alors :

ρA = TrB ρAB
1
= {|+ih+| + |−ih−|}
2
1
= IA (I.52)
2
l’état obtenu est (maximalement) mixte. De même l’état du sous-système B est décrit par
l’état maximalement mixte :
1
ρB = TrA ρAB = IB (I.53)
2
Cet exemple montre que, étant donné l’état global d’un système composé l’état des
sous-systèmes n’est pas toujours un état pur, même si l’état du système globale est un
état pur. Le formalisme de l’opérateur densité est alors, essentiel pour décrire l’état d’un
sous-système.
L’exemple utilisé ici est en effet un cas particulier d’états composés pur pour lesquels
les matrice densité réduites sont mixtes. Les états purs vérifiant cette propriété sont dits
intriqués et le phénomène est appelé intrication.

I.1.4 Postulats de la mécanique quantique reformulés dans le for-


malisme de la matrice densité :

Postulat 1 : Etat d’un système


L’état d’un système est représenté par un opérateur densité, linéaire, hermitien, semi-
défini positif et de trace unité :

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 13


Physique Statistique I CHAPITRE I SMP5

X
ρ= pn |un ihun |. (I.54)
n

Postulat 2 : Mesure quantique


La mesure d’une observable A donne la valeur propre an avec la probabilité
p(an ) = T r (ρPn ) , (I.55)
|un ihun | est le projecteur 2 dans l’état propre |un i associé à la valeur propre
P
où Pn = n
an .

L’état du système juste après la mesure est donné par


Pn ρPn
ρ0 = . (I.56)
T r (ρPn )

Postulat 3 : Evolution temporelle


L’évolution d’un système quantique est décrite par l’équation différentielle :
∂ρ
ih̄ = [H, ρ] (I.57)
∂t
Si H ne dépend pas explicitement du temps, on introduit l’opérateur d’évolution :
i
U (t) = e− h̄ Ht et U (0) = I (I.58)
solution de l’équation différentielle
∂U
ih̄ = H U, (I.59)
∂t
La solution de l’équation d’évolutions s’écrit alors :
ρ(t) = U (t) ρ(0) U † (t) (I.60)

2. il vérifie les conditions Pn† = Pn et Pn2 = Pn

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 14


Physique Statistique I CHAPITRE I SMP5

Postulat 4 : Systèmes composés


L’espace des états d’un sysème composé AB de deux sous-systèmes A et B est donné
par
H = HA ⊗ HB (I.61)
où HA et HB dénotent, respectivement, les espaces des états des sous-systèmes A et B et
⊗ dénote l’opération du produit tensoriel.
Si HA est de dimension N et HB est de dimension L alors l’espace H est de dimension
N ×L

Si {|un iA }n=1,2...,N est une base de HA et {|v` iB }`=1,2...,L est une base de HB alors
{|un , v` iAB := |un iA ⊗ |v` iB }n=1,2...,N,`=1,2,...,L est une base de HAB .

I.2 Systèmes classiques : Densité en phase

I.2.1 Micro-états
Pour décrire le comportement classique des systèmes, il est, en général, suffisant de
considérer les degrés de liberté que sont la position et l’impulsion. Ainsi pour un système
classique de N particules à 3 dimensions, il suffit de connaitre la position r~i et l’impulsion
p~i de chaque particule {i = 1, 2, . . . N }. Il est ainsi nécessaire de connaitre 6N variables.
Un micro-état 3 est caractérisé par la donnée des 6N variables de positions et d’im-
r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N }. L’espace engendré par ses variables est
pulsions des particules{~
appelé espace de phase et noté EP .
De façon plus général, le système peut dans certains cas, dépendre de degrés de liberté
internes qui peuvent être traité de manière classique (l’orientation des molécules par
exemple). Dans ce cas, on note de manière général les variables de configuration 4 par qk
et leur moments conjugués par pk . L’espace de phase est alors engendré par les variables
{qk , pk }k=1,2,... .
De manière général on affirme qu’un micro-état correspond à un point de l’espace de
phase EP et les observables sont des fonctions définie sur EP .

I.2.2 Macro-états
Un macro-état est un état qui n’est pas complètement connu, ou bien un état mal
préparé. Il peut être décrit en associant des probabilités à chaque micro-état possible.
3. un état où il n’existe aucune incertitude sur le système.
4. les positions des particules et leurs degrés de liberté internes.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 15


Physique Statistique I CHAPITRE I SMP5

Pour un système de N particules, un macro-état est ainsi caractérisé par une mesure de
probabilité sur l’espace de phase 5

ρ (~
r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N ) dτN , (I.62)

où dτN est l’élément de volume sur l’espace de phase et ρ est appelée densité de phase.
Une observable classique A (~ r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N ) devient dans ce cas une variable
aléatoire régit par la loi de probabilité (I.62). Sa valeur moyenne est alors donnée par
Z
hAi := dτN ρ (~ r1 , p~1 , . . . , r~N , p~N ) A (~ r1 , p~1 , . . . , r~N , p~N ) (I.63)

Normalisation de l’élément de volume


La normalisation de l’élément de volume peut être choisit de façon arbitraire puisque le
facteur de normalisation de dτN peut être absorbé dans la définition de (I.62) et la valeur
moyenne (I.63) reste inchangée. Cependant si on veut considérer les statistiques classiques
comme limites des statistiques quantiques, il est nécessaire de normalisé l’élément de
volume comme suit
N 
1 Y d3 r~i d3 p~i

dτN := . (I.64)
N ! i=1 h3
Dans le cas de N particules indiscernables. Le N ! est due à l’indiscernabilité des parti-
cules et le facteur h (un pour chaque degré de liberté) est nécessaire pour assuré que les
résultats des statistiques classiques sont des limites des statistiques quantiques. Dans le
cas classique, on peut dans certains cas considérés que les particules sont discernables et
qu’elle peuvent demeuré indiscernables même après l’évolution du système, dans un tel
cas on utilise pas le facteur N !.
Dans le cas où le système dépend de degrés de liberté internes, la normalisation s’écrit :
 
1 Y dqi dpi
dτN := , (I.65)
S i h

où S ici est un facteur de symétrie égal au nombre de configuration dans l’espace de


phase décrivant la même situation physique si on prend en compte l’indiscernabilité des
particules. On remarque aussi comme dans (I.64) qu’on utilise un facteur h−1 pour chaque
degré de liberté.

I.2.3 Evolution temporelle


A l’échelle microscopique, la dynamique des systèmes classiques est décrite par la
mécanique analytique. Les équations du mouvement sont donnée par les équations de
5. dans le cas où le système admet des degrés de liberté internes on utilise les variables {qk , pk }k=1,2,...

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 16


Physique Statistique I CHAPITRE I SMP5

Hamilton :
dqi ∂H dpi ∂H
= ; =− , (I.66)
dt ∂pi dt ∂qi
où H est l’Hamiltonien du système. Les équations de Hamilton décrivent alors l’évolution
temporelle d’un micro-état de l’espace de phase EP . L’Hamiltonien d’un système de N
particules de masses mi et de charges ei a la forme suivante
h i2
N
X i p
~ − ei
~
A(~
r i ) XN XN
H= + V (~ri ) + W (|~ri − ~rj |) (I.67)
i=1
2mi i=1 i,j=1;i<j

~ ri ) est le potentiel vecteur électromagnétique, V (~ri ) est le potentiel libre de la


où A(~
particule i et W (|~ri − ~rj |) est le potentiel d’interaction entre les particules i et j.
Pour établir l’équation d’évolution d’un macro-état on part du principe que l’évolution
d’un micro-état est parfaitement connue grâce aux équations du mouvement(I.66) c.à.d.
que si le micro-état est donnée par le point {qi , pi }i=1,2,... à l’instant t, on saura avec
certitude que à l’instant t0 le micro-état sera représenté par le point {qi0 , p0i }i=1,2,... obtenus
en résolvant les équation de Hamilton (I.66). Ainsi dans un macro-état, la probabilité
de trouver le système, à l’instant t, dans un élément de volume dτN autour du point
{qi , pi }i=1,2,... est égal à la probabilité de trouver le système, à l’instant t0 , dans l’élément
de volume dτN0 autour du point {qi0 , p0i }i=1,2,... . On peut ainsi écrire pour t0 = t + dt
  
dqk dpk
ρ ({qk , pk } , t) dτN = ρ qk + dt, pk + dt , t + dt dτN0 . (I.68)
dt dt
La relation entre dτN et dτN0 est données par le théorème de Liouville.

Théorème de Liouville Le volume d’une région de l’espace de phase reste


constant lors de l’évolution temporelle de cette région :
dτN = dτN0 . (I.69)

Preuve. Une transformation infinitésimale dans EP d’un point {qk , pk }k=1,2,... à l’instant t
en un point {qk0 , p0k }k=1,2,... à l’instant t0 = t + dt s’écrit :
dqk
qk −→ qk0 = qk + dt
dt
dpk
pk −→ p0k = pk + dt (I.70)
dt
la matrice Jacobienne 6 d’une telle transformation est une matrice de la forme I + Kdt.
6. La matrice Jacobienne pour un changement de coordonnées (x, y) −→ (x0 , y 0 ) s’écrit
" 0
∂x0
#
∂x
∂(x0 , y 0 ) ∂x ∂y
J= = ∂y0 ∂y0
∂(x, y) ∂x ∂y

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 17


Physique Statistique I CHAPITRE I SMP5

En effet,
 0
∂q10

∂q1
1 + ∂q∂1 dqdt1 dt ∂ dq1
   ∂ dq1 ∂ dq1 
∂q1 ∂p1
... ∂p1 dt
dt ... ∂q1 dt
dt ∂p1 dt
dt ...
 ∂p 0 ∂p01   ∂ dp1 ∂ dp1 ∂ dp1 ∂ dp1
J= ... dt 1 + ∂p1 dt dt . . .  = I+ ∂q1 dt dt dt ...
 =  ∂q1 dt
 1  
∂p1 dt
 ∂q1 ∂p1 
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
(I.71)
en définissant  ∂ dq1 ∂ dq1 
∂q1 dt
dt ∂p1 dt
dt ...
 ∂ dp1 ∂ dp1
K=  ∂q1 dt
dt ∂p1 dt
dt ..., (I.72)
.. .. ...
. .
on écrit J = I + Kdt. Au premier ordre en dt on peut écrire
X  ∂ dqk ∂ dpk

|J| = det (I + Kdt) = 1 + (TrK) dt = 1 + + dt. (I.73)
k
∂q k dt ∂p k dt

En utilisant les équations de Hamilton (I.66)


X  ∂ 2H ∂ 2H

|J| = 1 + − = 1, (I.74)
k
∂qk ∂pk ∂pk ∂qk

ce qui complète la preuve dτN = dτN0 .

En utilisant le théorème de Liouville (I.69) et l’égalité des probabilités (I.68) On voit


que   
dqk dpk
ρ ({qk , pk } , t) = ρ qk + dt, pk + dt , t + dt . (I.75)
dt dt
Au premier ordre en dqk et dpk :
X  ∂ρ dqk ∂ρ dpk

ρ ({qk , pk } , t) = ρ ({qk , pk } , t + dt) + dt − dt . (I.76)
k
∂q k dt ∂p k dt

On utilise les équations de Hamilton (I.66) :


X  ∂ρ ∂H ∂ρ ∂H

ρ ({qk , pk } , t) = ρ ({qk , pk } , t + dt) + − dt. (I.77)
k
∂qk ∂pk ∂pk ∂qk

Ce dernière nous donne l’équation d’évolution recherchée, appelée équation de Liouville :


∂ρ
= {H, ρ} (I.78)
∂t
Son déterminant |J| est le facteur de proportionnalité entre les éléments de volume dans les deux systèmes
de variables :
dx0 dy 0 = |J|dx dy

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 18


Physique Statistique I CHAPITRE I SMP5

où on a {, } est le le crochet de Poisson, défini pour deux fonctions A et B sur l’espace de


phase par
X  ∂A ∂B ∂A ∂B

{A, B} = − . (I.79)
k
∂qk ∂pk ∂pk ∂qk

I.2.4 Les statistiques classiques comme limite des statistiques quan-


tiques
Dans cette partie on explique comment obtenir le formalisme de la statistique classique
comme limite du formalisme de statistique quantique. L’approximation classique de la
mécanique quantique est valide quand la constante de Planck peut être négligée comparée
aux autres grandeurs de même dimensions du problème.
Dans la limite classique, les observables deviennent des fonctions sur l’espace de phase.
Elles sont obtenues à partir de leurs correspondants quantiques en négligeant les commu-
tations de variables de position et d’impulsion. L’expression de la valeur moyenne d’une
observable dans le cas classique (I.63) s’obtient à partir de l’expression quantique de la
valeur moyenne de l’observable (I.24 ).
Z
TrA −→ dτN A ({q1 , p1 , . . .}) (I.80)

Dans cette limite et en comparant les équations (I.27) et (I.78) le commutateur de


deux observables quantiques, est remplacé par le crochet de Poisson
1
[ , ] −→ { , } (I.81)
ih̄

I.2.5 Densités réduites


Généralement on n’aura besoin de calculer des quantités ne faisant intervenir que des
observables à une particule (l’énergie cinétique par exemple dans l’équation I.67) ou à
deux particules (le potentiel d’interaction à deux particules dans l’équation I.67). De ce
fait, il suffit de définir les densités réduites à une et deux particules.
Densité réduite à une particule :
Z
1
f (~r, p~) = 3 dτN −1 (2, 3, . . . , N ) ρ (~r, p~, r~2 , p~2 , . . . , r~N , p~N ) (I.82)
h

Densité réduite à deux particules :


Z
  1  
f2 ~r, p~, r , p = 6 dτN −2 (3, 4, . . . , N ) ρ ~r, p~, r~0 , p~0 , r~3 , p~3 , . . . , r~N , p~N
~0 ~0 (I.83)
h

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 19


Physique Statistique I CHAPITRE I SMP5

Exemple : Les densités réduites à une où deux particules, peuvent être utilisées
par exemple pour calculer la valeur moyenne de l’Hamiltonien (I.67), qui donne l’énergie
interne U pour un système de N particules identiques :
 2 
~
 p~ − eA(~r)
Z Z
 1
   
3 3
U = d ~rd p~f (~r, p~)  + V (~r)+ d3~rd3 p~d3 r~0 d3 p~0 f2 ~r, p~, r~0 , p~0 W |~r − r~0 |
2m 2
(I.84)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 20


Chapitre II

Postulats de la physique statistique -


Ensemble microcanonique

La physique statistique est basée sur des postulats, dont la validité peut être vérifiée en
suivant des raisonnements logiques. Une dérivation de l’équation de Liouville permet de
bien comprendre le raisonnement derrière le premier postulat. On commence ce chapitre
donc, par cette re-dérivation de l’équation de Liouville. On aborde dans la deuxième partie
du chapitre la notion de l’ensemble microcanonique qui correspond aux systèmes les plus
simples vérifiant les postulats de la physique statistique.

II.1 Postulats de la Physique statistique

II.1.1 Autre dérivation de l’équation de Liouville


Le mouvement de l’ensemble statistique dans l’espace de phase s’exprime par le flux
(vitesse dans l’espace de phase) ~v ({q̇i , ṗi }). Comme l’ensemble statistique classique est
formé de systèmes qui ne peuvent être ni crées ni annihilés on a la relation de continuité
∂ρ ~
+ ∇ (ρ~v ) = 0. (II.1)
∂t

Les équations de Hamilton (I.66) montrent que 1


~ (~v ) = 0,
∇ (II.2)

ce qui signifie que le liquide formé par les points de l’espace de phase est incompressible.
1.
X  ∂ q̇i ∂ ṗi
 X  ∂2H ∂2H

~ (~v ) =
∇ + = − =0
∂qi ∂pi ∂qk ∂pk ∂pk ∂qk
k k

21
Physique Statistique I CHAPITRE II SMP5

En utilisant cette propriété, avec les équations de Hamilton (I.66) on peut écrire :
~ (ρ~v ) = ∇
∇ ~ (ρ) .~v
X  ∂ρ ∂ρ

= q̇i + ṗi
i
∂qi ∂pi
X  ∂ρ ∂H ∂ρ ∂H

= −
i
∂qi ∂pi ∂pi ∂qi
= {ρ, H} (II.3)

où nous avons utilisé la définition du crochet de Poisson (I.79) dans la dernière égalité et
les équations de Hamilton (I.66) dans l’avant dernière.
En combinant (II.1) et (II.3) on démontre l’équation de Liouville :
∂ρ ~ (ρ~v ) = −∇ρ.~
~ v = − {ρ, H}
= −∇ (II.4)
∂t
Ainsi, on trouve
∂ρ
+ {ρ, H} = 0 (II.5)
∂t

II.1.2 Postulat 1
Ennoncé :
Si tous les états accessibles d’un système isolé sont également probables, le système
est alors en équilibre. Dans ce cas, la valeur moyenne de toute grandeur physique est
indépendante du temps.
En effet, si tous les états accessibles d’un système isolé sont équiprobables, la densité de
probabilité ρ sera uniforme sur l’espace de phase, et par conséquent aura un gradient nul
~ = 0). Vu l’équation (II.1), ceci implique que ∂ρ = 0 la densité en phase est constante
(∇ρ
∂t
dans le temps aussi i. e. le système est en équilibre statistique, comme l’annonce le postulat
1.
Il est aussi intéressant de considérer la situation inverse i. e., en partant d’un système
en équilibre statistique. avec l’équation (II.5), ceci implique que {ρ, H} = 0. Le crochet
de Poisson peut s’annuler de deux manières différentes dans ce cas :
— Sila densité en phase est uniforme sur l’espace de phase i. e. ∇ρ ~ = 0 où encore
ρ {qi , pi }i=1,2,... = Constante. L’ensemble correspondant à cette distribution de
probabilité est appelé ensemble microcanonique.
— De façon plus générale le crochet de Poisson, s’annule si la dépendance de ρ en les
variables de l’espace de phase découlent d’une dépendance explicite de H i. e.
    
ρ {qi , pi }i=1,2,... = ρ H {qi , pi }i=1,2,... . (II.6)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 22


Physique Statistique I CHAPITRE II SMP5

Cette condition donne une classe de densités de probabilités décrivant des systèmes
en équilibre. Parmi ces choix, l’ensemble décrit par
 
ρ {qi , pi }i=1,2,... ∝ e−βH ({qi ,pi }i=1,2,... ) , (II.7)
joue un rôle très important. Cet ensemble est appelé ensemble canonique.

Physique statistique quantique :


Dans le cas d’une étude classique, comme on l’a vu, l’équilibre du système se traduit
par le fait que la densité en phase est constante dans le temps. Cependant, dans le cas d’une
étude quantique d’un système donné, la condition d’équilibre doit être traité avec plus de
prudence. En effet, en physique quantique deux représentations peuvent être adoptées.
D’un coté, il y a la représentation (standard) de Schrödinger où la dépendance temporelle
est porté par les vecteurs d’états, et les opérateurs sont indépendants du temps. De l’autre
coté, dans la représentation de Heisenberg, ce sont les opérateurs qui dépendent du temps
alors que les vecteurs d’états sont fixe dans le temps. Ces deux représentations sont, en
effet équivalentes, et on adopte l’une où l’autre selon le contexte d’application.
L’équation de Von Neumann (I.11) a été établi dans la représentation de Schrödinger :
∂ρS (t)
ih̄ = [HS , ρS (t)] , (II.8)
∂t
où l’indice S a été ajouté pour montrer que ces quantités sont interprétées dans la repré-
sentation de Schrödinger.
Cette équation est équivalente à
 
∂ρS (t)
ih̄ = [HH , ρH (t)] , (II.9)
∂t H

où l’indice H signifie que ces quantités sont interprétées dans la représentation de Heisen-
berg.

Preuve. Dans la représentation de Schrödinger les vecteurs d’états dépendent du temps :


|ψS (t)i = U (t, t0 )|ψS (t0 )i (II.10)
tandis qu’ils sont indépendant du temps dans la représentation de Heisenberg (|ψH i :=
|ψS (t0 )i), ce qui permet d’établir une relation entre les vecteurs d’états dans les deux
représentations :
|ψH i := |ψS (t0 )i = U † (t, t0 )|ψS (t)i. (II.11)
L’opérateur densité s’écrit alors :
ρH = |ψH ihψH |
= U † (t, t0 ) |ψS ihψS | U (t, t0 )
ρH = U † (t, t0 ) ρS U (t, t0 ). (II.12)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 23


Physique Statistique I CHAPITRE II SMP5

En dérivant par rapport au temps :

∂ρH ∂U † (t, t0 ) ∂ρS ∂U (t, t0 )


= ρS U (t, t0 ) + U † (t, t0 ) U (t, t0 ) + U † (t, t0 ) ρS , (II.13)
∂t ∂t ∂t ∂t
et en utilisant
∂U
ih̄ = HS U (t, t0 ),
∂t
∂U †
−ih̄ = U † (t, t0 ) HS , (II.14)
∂t
on écrit alors :
∂ρH 1 ∂ρS 1
= − U † HS ρS U + U † U + U † ρS HS U. (II.15)
∂t ih̄ ∂t ih̄
On réécrit cette équation, en introduisant l’opérateur identité (I = U U † ) dans le premier
et dernier termes à droite :
∂ρH 1 ∂ρS 1
= − U † HS U U † ρS U + U † U + U † ρS U U † HS U. (II.16)
∂t ih̄ ∂t ih̄
Dans l’expression à droite de (II.16) on reconnait
— dans le premier terme : l’Hamiltonien et la matrice densité dans la représentation
de Heisenberg, HH et ρH respectivement.  
∂ρS ∂ρS
— dans le second terme : dans la représentation de Heisenberg i.e.
∂t ∂t H
— dans le troisième terme : la matrice densité et l’Hamiltonien dans la représentation
de Heisenberg : ρH et HH respectivement.
On réécrit alors l’équation (II.16) sous la forme :
 
∂ρH 1 ∂ρS
= [ρH , HH ] + . (II.17)
∂t ih̄ ∂t H

Or, par définition la dépendance temporelle est portée par les observables dans la repré-
sentation de Heisenberg :
∂ρH
= 0. (II.18)
∂t
Ceci nous donne  
1 ∂ρS
[ρH , HH ] + = 0, (II.19)
ih̄ ∂t H
qui est équivalente à la relation (II.9).

Il devient clair, que dans le cas quantique, la condition nécessaire à l’équilibre est que
∂ρS
= 0. (II.20)
∂t
Faculté des Sciences de Rabat Prof. M. EL BAZ Page 24
Physique Statistique I CHAPITRE II SMP5

Ceci impliquant en utilisant (II.8), que ρ commute avec H : [ρ, H] = 0 i.e. ρ est
conservé.
Il est à noter que dans ce cas la matrice densité est diagonalisable simultanément
avec l’Hamiltonien. Ceci est confirmé en utilisant l’équation (I.35) dans la condition de
∂ρ
stationnarité = 0 qui implique que les éléments non diagonaux sont tous nuls : ρnm =
∂t
0 ∀ m 6= n.

II.1.3 Postulat 2 : Théorème H de Boltzmann


Enoncée :
Si, à un instant donné, tous les états accessibles d’un système isolé ne sont pas éga-
lement probables, le système n’est pas en équilibre. Il évoluera alors au cours du temps
jusqu’à atteindre une situation où tous ses états accessibles sont également probables.

Preuve. Ce postulat peut être établi en utilisant le raisonnement suivant.


On note les probabilités de transition, par unité de temps, d’un état |ii à un état |ji
par :
Wij = Wji = |hi|ji|2 . (II.21)
On note aussi, pi (t) la probabilité que le système soit, à l’instant t, dans l’état|ii.
Pour des probabilités pi et Wij indépendantes :

dpi X X
= pj Wji − pi Wij (II.22)
dt j j

Les probabilités de transitions étant symétriques (Wij = Wji ) on a

dpi X
= Wji (pj − pi ) . (II.23)
dt j

On définit la fonction H par :


X
H := hlog pi = pi log pi . (II.24)
i

Sa dérivée par rapport au temps donne


 
dH X dpi dpi
= log pi + . (II.25)
dt i
dt dt

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 25


Physique Statistique I CHAPITRE II SMP5

en remplaçant par (II.23) on écrit :


dH X
= Wij (pj − pi ) (log pi + 1)
dt ij
X
= Wij (pi − pj ) (log pj + 1)
ij
1X
= Wij (pj − pi ) (log pi − log pj ) . (II.26)
2 ij

Le produit des parenthèses dans la dernière égalité étant toujours négatif, on démontre
dH
que ≤ 0. L’égalité étant atteinte pour pi = pj ∀i, j le cas où tous les états accessibles
dt
du système sont équiprobables.
Le théorème H stipule ainsi que la fonction H est toujours décroissante, jusqu’à l’ins-
tant où elle atteint son minimum, qui correspond à l’instant où tous les états accessibles du
système sont équiprobables (équilibre statistique), i.e. la fonction H continue de décroitre
jusqu’à ce que le système atteint l’équilibre.

II.2 L’ensemble microcanonique

II.2.1 Systèmes ergodiques


On a vu, dans la section précédente, que pour que le système soit en équilibre, il faut
que ρ soit une constante du mouvement i.e. ρ ne contient que des intégrales premières du
mouvement. De plus, du fait que les probabilités sont multiplicatives, la quantité log ρ,
doit être additive.
D’autre part, il n’existe que sept intégrales premières du mouvement que sont l’énergie
E, l’impulsion p~ et le moment angulaire M ~ d’un système isolé :
log ρ = α + βE + ~γ .~p + ~δ.M
~, (II.27)
où α ,β , ~γ et ~δ sont des quantités constantes.
Or on peut toujours choisir un système de coordonnées liés au système i.e. un réfé-
~ = O.
rentiel où p~ = M ~ Dans ce cas ρ dépend uniquement de l’énergie. De tels systèmes
dont le comportement est complètement déterminé par l’énergie sont appelés systèmes
ergodiques et on a alors :
log ρ = α + βE (II.28)

II.2.2 Ensemble microcanonique


L’expression la plus simple de ρ satisfaisant (II.28) est ρ = constante correspondant à
une énergie constante : E = E0 (constante). Cette équation définit une hypersurface dans

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 26


Physique Statistique I CHAPITRE II SMP5

l’espace de phase en dehors de laquelle ρ = 0 ou de façon équivalente p(E = E0 ) = 1.


On aura donc Z E0
p (E ≤ E0 ) = ρ(E)dE = Θ(E − E0 ) (II.29)
−∞

où Θ(x) est la fonction de Heaviside définie par


(
0 pour x < 0
Θ(x) = . (II.30)
1 pour x ≥ 0

A partir de (II.29) on peut voir ρ(E) comme la dérivée, au sens des distributions, de Θ.
Or il est connu que la dérivée, au sens des distributions, de la fonction de Heaviside est
bien la distribution de Dirac. Ainsi on écrit

ρ(E) = C δ(E − E0 ) (II.31)

Il s’agit de la distribution microcanonique 2


La constante C peut être déterminée en imposant la condition de normalisation de
ρ. Pour cela on pose C = A1 , et on ! cherche A. La condition de normalisation de ρ :
Z  Y
ρ {qi , pi }i=1,2,... dqi dpi = 1 donne
i
Z    Y
A(E0 ) = δ E {qi , pi }i=1,2,... − E0 dqi dpi . (II.33)
i

On suppose dans ce qui suit que E1 est l’énergie la plus petite admise par le système,
et on définit la fonction : Z E2
Ω(E2 ) = A(ε)dε. (II.34)
E1

En remplaçant A par son expression dans (II.33) et en commutant les intégrales sur
l’espace de phase avec celle sur l’énergie, on aura
Z Z E2     Y
Ω(E2 ) = δ E {qi , pi }i=1,2,... − ε dε dqi dpi . (II.35)
E1 i

En utilisant la propriété
(
Z E2
1 si E1 < E < E2
δ (E − ε) dε = (II.36)
E1 0 si E > E2

2. Dans le cas où le système isolé n’est pas au repos (i.e. on utilise (II.27) au lieu de (II.28)) on aura :

ρ(E) = C δ(E − E0 ) δ(~ ~ −M


p − p~0 ) δ(M ~ 0) (II.32)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 27


Physique Statistique I CHAPITRE II SMP5

on aura alors Z Y
Ω(E2 ) = dqi dpi . (II.37)
i

qui permet d’interpréter


 Ω(E  2 ) comme le volume renfermé par l’hypersurface de phase
définie par E {qi , pi }i=1,2,... = E2 . Or nous avons, à partir de (II.34),

∂Ω(E)
A(E) = . (II.38)
∂E
A(E) dE représente donc le volume d’une couche infiniment mince contenue entre les
hypersurfaces de phase d’énergie E et E + dE respectivement.
On définit Φ(E) comme le nombre d’états ayant une énergie inférieur à E et Γ(E) le
nombre d’états ayant une énergie comprise entre E et E + δE :

dΦ(E)
Γ(E) = δE. (II.39)
dE

Entropie et température
Pour un système isolé d’énergie comprise entre E et E + δE, l’entropie est définie par

S = k log Γ(E) (II.40)

et la température est donnée par :


1 ∂S
= . (II.41)
T ∂E

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 28


Chapitre III

Entropie statistique

III.1 Mesure de l’information manquante


On considère un ensemble de N événements de probabilités,
! respectives, p1 , p2 , . . . pN
N
X
qui sont non-négatives et s’additionne à l’unité pn = 1 . Notre pouvoir de prédire le
n=1
résultats d’occurrence de l’un ou l’autre de ces événements dépend de notre connaissance
du système. Plus le système est désordonné moins notre connaissance du système est pré-
cise. L’entropie statistique associée à cette ensemble d’événements permet de quantifier la
quantité d’information manquante sur le système. De manière, donc analogue, elle permet
de quantifier la quantité de désordre présente dans le système. Une troisième définition
équivalente, est que l’entropie statistique mesure la quantité d’information acquise après
mesure du système.
L’entropie statistique est une fonction qui dépend uniquement de la distribution des
probabilités associés aux événements et elle est donnée par :
N
X
S (p1 , p2 , . . . , pN ) = −k pi log pi , (III.1)
i=n

avec k une constante positive.

Propriétés :
i). Maximum : Pour un nombre fixé d’événements,N , l’entropie est maximale lorsque
tous les événements sont équiprobables :
1 1 1
S( , , . . . , ) = log N. (III.2)
N N N
Il s’agit dans ce cas d’un manque d’information maximale (où de façon équivalente
d’un désordre maximale).

29
Physique Statistique I CHAPITRE III SMP5

ii). Minimum : Dans le cas où l’un des événements est certains (i.e. ∃ i \ pi = 1, pj =
0 ∀ j 6= i ) on a :
S(0, 0, . . . , pi = 1, . . . , 0) = 0. (III.3)
Dans ce cas il n’y a aucun manque d’information, puisque l’événement est certain.
iii). Croissance : Dans le cas d’événements équiprobables, l’entropie augmente quand le
nombre d’événements augmente. Plus le nombre d’événements possible augmente
moins la connaissance du système est précise.
iv). Événements impossibles : Dans l’évaluation de l’entropie associée à certains événe-
ments, on peut ne pas tenir compte des événements impossibles :

S (p1 , p2 , . . . , pN , 0, 0, . . . , 0) = S (p1 , p2 , . . . , pN ) . (III.4)

v). Symétrie : L’entropie est une fonction symétrique de ses arguments :

S (p1 , . . . , pi , . . . , pj , . . . , pN ) = S (p1 , . . . , pj , . . . , pi , . . . , pN ) (III.5)

vi). Additivité : On considère N événements où on regroupe l’ensemble des événements


1, 2, . . . , m en un événement unique noté A dont la probabilité de réalisation est
m
X
qA = pi . (III.6)
i=1

De même, on regroupe le reste des événements m + 1, m + 2, . . . , N en un événement


B de probabilité
XN
qb = pi . (III.7)
i=m+1

On aura alors la propriété d’additivité suivante :


   
p1 pm pm+1 pN
S (p1 , . . . , pN ) = S(qA , qB ) + qA S ,..., + qB S ,..., . (III.8)
qA qA qB qB

Le premier terme donnant l’entropie du choix entre les deux événements A et B,


tandis que les autres termes expriment le choix à l’intérieur des ensembles A et B
respectivement. Cette propriété exprime le fait que l’information acquise sur deux
étapes (choix entre A et B puis choix dans A ou B) s’additionne.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 30


Physique Statistique I CHAPITRE III SMP5

Preuve.
N
X
S (p1 , . . . , pN ) = −k pi log pi
i=1
Xm N
X
= −k pi log pi − k pi log pi
i=1 i=m+1
m N
X pi pi X pi pi
= −kqA log qA − kqB log qB
q
i=1 A
qA q
i=m+1 B
qB
m m N N
X pi pi X X pi pi X
= −kqA log −k pi log qA − kqB log −k pi log qB
i=1 A
q qA i=1 i=m+1 B
q qB i=m+1
   
p1 pm pm+1 pN
= qA S ,..., − kqA log qA + qB S ,..., − kqB log qB
qA qA qB qB
   
p1 pm pm+1 pN
= S(qA , qB ) + qA S ,..., + qB S ,..., (III.9
qA qA qB qB

vii). Sous-additivité : On considère un événement composé de deux événements l’un ap-


partenant à l’ensemble {. . . , m, . . . M } et l’autre à l’ensemble {. . . , n, . . . N }. Soit
pmn la probabilité jointe de la réalisation des événements n et m, alors la probabilité
de réalisation de l’événement m est
N
X
pam = pmn (III.10)
n=1

et celle de l’événement n est


M
X
pbn = pmn . (III.11)
m=1
L’entropie associée à ces lois de probabilités obéit à la relation de sous-additivité
suivante :
S (p11 , . . . , pmn , . . . , pM N ) ≤ S (pa1 , . . . , pam , . . . , paM )+S pb1 , . . . , pbn , . . . , pbN (III.12)


L’égalité est atteinte si les ensembles d’événements a et b sont statistiquement indé-


pendants, auquel cas la factorisation des probabilités :
pmn = pm pn (III.13)
implique l’additivité des entropies statistiques.
Cette propriété exprime le fait que l’on a plus d’information sur un système composé
quand il existe une corrélation entre les sous-systèmes que si ils sont traités de
manière indépendante.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 31


Physique Statistique I CHAPITRE III SMP5

viii). Concavité : On considère deux lois de probabilités p1 , . . . , pN et p01 , . . . , p0N associées


aux mêmes événements. On construit une troisième loi de probabilité :
p001 = λp1 + (1 − λ)p01
..
. (III.14)
p00N = λpN + (1 − λ)p0N
avec λ une constante 0 < λ < 1.
L’entropie statistique est alors une fonction concave des probabilités :
S (p001 , . . . , p00N ) > λS (p1 , . . . , pN ) + (1 − λ)S (p01 , . . . , p0N ) . (III.15)
Cette propriété est une conséquence directe de la concavité de chaque terme de la
définition (III.1).
La concavité de l’entropie statistique exprime le fait que si l’on regroupe deux en-
sembles statistiques associés aux mêmes événements en un seul ensemble, l’incerti-
tude est plus grande que la moyenne des incertitudes initiales.

Probabilités continues :
La définition (III.1) peut être généralisée à des événements continues, tels la position
x d’une particule dans un intervalle [a, b]. Dans ce cas le manque d’information peut être
quantifié par l’entropie statistique définie par
Z
S = −k dx p(x) log p(x). (III.16)

L’entropie statistique (III.1) peut être appliquée dans différents domaine de la phy-
sique. Ainsi dans le domaine de la théorie de l’information, l’entropie statistique mesure
les ressources physiques nécessaires au stockage de l’information relative aux événements
associés. Dans ce cas, on prend k = 1 et le logarithme est à base de 2 : log2 et l’unité de
l’entropie est le bit d’information.
En thermodynamique, l’entropie est utilisé comme indicateur du sens d’évolution du
système, garce au second principe de la thermodynamique. Dans la suite, pour pouvoir
appliqué les différents résultats aux résultats de la thermodynamique, on adoptera pour
k = kB la constante de Boltzmann et le logarithme est le logarithme népérien.

III.2 Entropie statistique d’un état quantique

III.2.1 Définition en terme de l’opérateur densité


A fin de généraliser la définition de l’entropie statistique à un état quantique, on
adopte la même définition que (III.1). Mais comme noté au premier chapitre, il existe

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 32


Physique Statistique I CHAPITRE III SMP5

plusieurs préparations possibles pour un état quantique décrit par l’opérateur densité ρ.
Chacune de ses préparations est basée sur une loi de probabilité pk et des vecteurs ket |ψi
différents. Or il a été aussi noté que chaque opérateur densité admet une décomposition
spectrale (I.31) et que les valeurs propres de ρ s’interprètent comme des probabilités. Il
est donc logique d’adopter cette préparation pour la définition de l’entropie statistique
de l’état quantique ρ. Ce dernier étant, par définition, diagonal dans cette préparation,
permet d’exprimer l’entropie directement en fonction de ρ :
X
S(ρ) = −k nλn log λn = −kTrρ log ρ. (III.17)

Comme signalé au début du chapitre, cette quantité mesure la quantité d’information


manquante sur le système, ou de manière équivalent, la quantité d’information acquise en
mesurant le système à l’échelle microscopique 1 .

III.2.2 Lemme : Inégalité satisfaite par l’entropie statistique quan-


tique
Lemme : Soit ρ et ρ0 deux opérateurs densité d’un espace de Hilbert H. On a alors

S(ρ) ≤ −kTrρ log ρ0 ; (III.18)

l’égalité étant atteinte pour ρ = ρ0 .

Preuve. On considère que ρ est diagonal dans la base {|vn i} et que ρ0 est diagonal dans
la base {|vn0 0 i}. Dans la base {|vn i} des vecteurs propres de ρ on développe la quantité
suivante
X X
−Trρ log ρ + Trρ log ρ0 = − λn log λn + λn hvn | log ρ0 |vn i (III.19)
n n
X X
= − λn log λn + λn hvn |vn0 0 ihvn0 0 | log ρ0 |vn0 0 ihvn0 0 |vn i
n n,n0

où nous avons introduit la relation de fermeture dans la base {|vn0 0 i} : n0 |vn0 0 ihvn0 0 | = I.
P
Ceci permet d’obtenir :
X X
−Trρ log ρ + Trρ log ρ0 = − λn log λn + λn hvn |vn0 0 i log λ0n0 hvn0 0 |vn i
n n,n0
X λn
= − hvn |vn0 0 ihvn0 0 |vn iλn log 0 . (III.20)
n,n0
λn0

1. Cependant, une attention particulière doit être porté à la notion de mesure en physique quantique.
La mesure quantique, en effet, ne s’effectue pas directement sur le système étudié, mais à travers son
interaction avec l’appareil de mesure. L’état du système est ainsi obtenu en réduisant l’opérateur densité
global. Pour la définition adopté ici on se restreintPau mesures ne réduisant pas l’opérateur densité i.e.
des mesures représentées par des observables A = n an |vn ihvn | commutant avec ρ.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 33


Physique Statistique I CHAPITRE III SMP5

Pour chaque terme de cette somme hvn |vn0 0 ihvn0 0 |vn iλn est positif ou nul et l’on utilise
l’inégalité
log y ≤ y − 1, (III.21)
l’égalité étant atteinte si y = 1. Ceci donne
X
−Trρ log ρ + Trρ log ρ0 ≤ − hvn |vn0 0 ihvn0 0 |vn i (λ0n0 − λn )
n,n0
0
= Trρ − Trρ
= 0. (III.22)
λ0n0
L’égalité est atteinte si y = λn
= 1 i.e. λ0n0 = λn ∀n et n0 . En multipliant le terme de
gauche par la constante k, on démontre le lemme.

III.2.3 Propriétés de l’entropie statistique quantique


i). Maximum : Si les kets possibles appartiennent à un sous espace HW de H de di-
mension W , l’entropie statistique est maximale et égal à S = k log W si tous les kets
sont équiprobables.
Les états représenté par un opérateur densité ρ = W1 IW sont les états les plus
désordonnés de HW , puisque leur entropie est maximale.
ii). Minimum : L’entropie statistique est nulle pour un état pur.
De même, si l’entropie d’un état représenté par l’opérateur densité ρ est nulle, on
en déduit que l’état est pur. L’entropie S, fournit ainsi une mesure de la pureté de
l’état quantique considéré.
iii). Invariance : L’entropie statistique est invariante si on applique une transformation
unitaire à ρ :
S(ρ) = S(U ρ U † ) (III.23)
pour tout opérateur unitaire U .
iv). Additivité : Soient a et b deux sous systèmes statistiquement indépendants décrits
par ρa et ρb , le système global sera alors décrit par
ρ = ρa ⊗ ρb (III.24)
dans l’espace de Hilbert global H = Ha ⊗Hb . L’entropie statistique associée est alors
additive
S(ρ) = S(ρa ) + S(ρb ). (III.25)
v). Corrélations / Sous-additivité : Etant donnée un système composé décrit par ρ dans
H = Ha ⊗ Hb , avec les sous systèmes a et b décrit, respectivement, par les densités
réduites, ρa et ρb , l’entropie statistique est sous-additive :
S(ρ) ≤ S(ρa ) + S(ρb ); (III.26)
l’égalité étant atteinte si les sous systèmes sont indépendants i.e. ρ = ρa ⊗ ρb .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 34


Physique Statistique I CHAPITRE III SMP5

Preuve. Les densités réduites étant données par

ρa = Trb ρ (III.27)
ρb = Tra ρ, (III.28)

on définit l’opérateur densité


ρ0 = ρa ⊗ ρb . (III.29)
Contrairement à ρ, cette opérateur densité, ne contient aucune information sur les
corrélations entre les sous-systèmes a et b. On a alors

S(ρa ) = −kTrρa log ρa = −kTrρ log (ρa ⊗ Ib ), (III.30)

et en notant que 2 .

log (ρa ⊗ Ib ) + log (Ia ⊗ ρb ) = log (ρa ⊗ ρb ). (III.31)

On a donc compte tenu de (III.29) :

S(ρa ) + S(ρb ) = −k Trρ log ρ0 . (III.32)

L’application du Lemme (III.18) permet de démontré la sous additivité de l’entropie


statistique (III.26).

Exemple
On considère un état de deux spin 12 , A et B, intriqués dans l’état (I.50) :

1
|ψAB i = √ {|+, +i + |−, −i} . (III.33)
2
Chacun des sous systèmes a un spin non polarisé comme on l’a démontré dans (I.52,
I.53) et sont décrit par les matrices densité réduites
1 1
ρA = IA ; ρB = IB . (III.34)
2 2
L’entropie de ces deux états réduit est donné par S(ρA ) = S(ρB ) = k log 2. Ces états
présente une entropie maximale, qui est une indication du désordre maximale dans
ces états (en effet, il s’agit d’états maximalement mixtes). De l’autre coté, l’état
global (III.33) étant pur, son entropie est nulle (propriété : ii). Nous avons ainsi,
l’entropie qui est sous additive

S(ρ) ≤ S(ρA ) + S(ρB ), (III.35)


2. Cette égalité est évidente dans la base de H qui diagonalise ρa ⊗ ρb

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 35


Physique Statistique I CHAPITRE III SMP5

ceci est une indication des corrélations quantiques existantes entre les sous systèmes
A et B (intrication). Cette intrication entre les sous systèmes permet d’avoir plus
d’ordre dans le système composé que dans le système séparable ρA ⊗ ρB .
Un autre exemple qui peut être considéré, est l’état séparable :

1
|ψAB i = √ {|+, +i + |+, −i} . (III.36)
2
Cette état est séparable, puisqu’il peut être écrit sous la forme d’un produit tensoriel
de deux états :  
1
|ψAB i = |+iA ⊗ √ {|+iB + |−iB } , (III.37)
2
ou de façon équivalente

ρ = ρA ⊗ ρB . (III.38)
Les trois états ρ, ρA et ρB étant des états purs, leurs entropies sont nulles S(ρ) =
S(ρA ) = S(ρB ) = 0, et dans ce cas l’entropie est additive S(ρ) = S(ρA ) + S(ρB ).
vi). Concavité :
L’entropie statistique est une fonction concave sur l’ensemble des opérateurs densité
sur un espace de Hilbert H :
λS(ρ) + (1 − λ)S(ρ0 ) ≤ S (λρ + (1 − λ)ρ0 ) , (III.39)
et ce ∀ρ et ρ0 sur H et 0 < λ < 1. L’égalité dans (III.39) est atteinte si ρ = ρ0 .

Preuve. On pose ρ00 = λρ+(1−λ)ρ0 et en appliquant le lemme (III.18) respectivement


avec ρ et ρ0 :
S(ρ) ≤ −kTrρ log ρ00 (III.40)
S(ρ0 ) ≤ −kTrρ0 log ρ00 . (III.41)
Ceci permet d’écrire pour le terme de gauche de (III.39)
λS(ρ) + (1 − λ)S(ρ0 ) ≤ λ − kTrρ log ρ00 − (1 − λ)kTrρ0 log ρ00
≤ −kTr (λρ + (1 − λ)ρ0 ) log ρ00
≤ −kTrρ00 log ρ00 (III.42)
L’égalité étant obtenu pour ρ00 = ρ0 = ρ.

La concavité de l’entropie statistique exprime le fait qu’il y a plus de désordre dans


un mélange statistique de deux états quantiques que dans la moyenne des états
considérés séparément.
La propriété de la concavité(III.39) peut être généraliser à plusieurs opérateurs den-
sité de la manière suivante
!
X X
pj S(ρj ) ≤ S pj ρj (t) (III.43)
j j

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 36


Physique Statistique I CHAPITRE III SMP5

III.2.4 Evolution temporelle de l’entropie statistique quantique


Si le système évolue suivant un Hamiltonien parfaitement connu, selon l’équation de
Von-Neumann (I.27), l’entropie évoluera avec la loi suivante
 
dS(ρ) dρ dρ
= −kTr log ρ +
dt dt dt

= −kTr log ρ (III.44)
dt
Cette dernière égalité est due à la propriété Trρ = 1 de l’opérateur densité. On peut écrire
alors
dS(ρ)
ih̄ = −kTr ([H, ρ] log ρ)
dt
= −kTr (H [ρ, log ρ])
= 0. (III.45)
L’entropie statistique reste constante alors dans le temps. Ce résultat est parfaitement
logique, car si un système isolé, évolue selon une équation de mouvement bien détermi-
née avec un Hamiltonien bien connu, l’opérateur densité du système peut changer, mais
l’information acquise (ou manquante) sur le système ne va pas changer. D’un autre coté,
l’évolution temporelle étant une transformation unitaire, cette propriété est une consé-
quence directe de la propriété iii) de l’entropie statistique quantique, qui stipule que S
est invariante par transformation unitaire appliquée à l’opérateur densité.
Cependant si le système évolue d’une manière qui n’est pas bien connue, suivant un
Hamiltonien pas connu exactement, l’entropie peut augmenter. En effet, si on considère un
système isolé, initialement décrit par l’état ρ0 , susceptible
P d’évoluer selon un Hamiltonien
Hj avec une probabilité pj avec j = 1, 2, . . . tel que j pj = 1, et que l’opérateur unitaire
associé à chacune de ces évolutions temporelle possibles est noté Uj (t) alors le système à
l’instant t sera décrit par l’opérateur densité
X
ρ(t) = pj ρj (t), (III.46)
j

où ρj (t) est l’état du système à l’instant t s’il évolue selon l’hamiltonien Hj :

ρj (t) = Uj (t) ρ0 Uj† (t). (III.47)


L’entropie associée à chacun des états possibles ρj est
S(ρj ) = S(ρ0 ). (III.48)
La propriété de concavité de l’entropie (III.43), conduit alors à l’inégalité :
!
X
S(ρ(t)) = S pj ρj (t) ≥ S(ρ0 ). (III.49)
j

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 37


Physique Statistique I CHAPITRE III SMP5

On peut en conclure alors que lors de l’évolution dans le temps d’un système, l’entropie
ne peut qu’augmenter indiquant une perte d’information sur le système. L’entropie peut
rester constante que si l’évolution est parfaitement déterminée. L’entropie ne peut pas
diminuer.

III.3 Entropie statistique d’un état classique


En utilisant les relations de correspondances entre le cas quantique et le cas classique,
et en particulier la relation (I.80), on peut définir l’entropie statistique associée à un état
classique comme limite classique de (III.17)
XZ
S(ρ) = −k dτn ρ log ρ. (III.50)
N

Si le nombre de particule est bien fixé, la sommation sur N n’est pas utilisée.
Presque toutes les propriétés énoncées pour l’entropie statistique quantique restent va-
lables pour le cas classique en utilisant les relations de correspondances (I.80) et (I.81).Cependant
la propriété ii n’est plus valide. En effet, dans le cas quantique, l’entropie statistique est
non-négative et la valeur minimale est zéro, obtenu pour un état pur. Cependant dans le
cas classique, l’entropie peut être négative. Dans un tel cas, ceci est une indication que
l’état classique considéré, n’admet pas d’équivalent quantique. Ceci est le cas par exemple
avec l’état classique représenté par la densité en phase
X
ρ (~r1 , p~1 , . . . , p~N ) = h3N δ 3 ~r1 − ~ri01 δ 3 p~1 − p~0i1 . . . δ 3 p~N − p~0N1 ,
  
(III.51)

où la sommation est effectuée sur les permutations d’indices {i1 , i2 , . . . , N } −→ {1, 2, . . . , N }.


Cet état n’a pas d’équivalent quantique, puisqu’il décrit un état où les positions et im-
pulsions de chaque particule sont connues exactement, or en mécanique quantique un tel
état n’est pas possible à cause du principe d’incertitude de Heisenberg. Ceci est confirmé
par le fait que l’entropie d’un état classique est négative et égale à −∞.
La valeur maximale de l’entropie statistique, est semblable,
R à celle de la propriété i de
l’entropie statistique quantique : S = k log W , avec W = τN .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 38


Chapitre IV

Distribution de Boltzmann-Gibbs

Dans ce chapitre on adresse le problème du choix de l’opérateur densité ou la densité


en phase, susceptible de décrire le système statistique (quantique ou classique respecti-
vement) en fonction de l’information que nous avons sur le système. La dérivation de la
solution, se fera dans un premier temps pour un système quantique, mais les résultats sont
facilement traduits pour le cas classique en utilisant, les règles établies dans le premier
chapitre I.2.4.
Dans le cas ou aucune information n’existe sur le système, il est judicieux d’associer
des probabilités égales aux états accessibles du système (états équiprobables), puisqu’il
n’y a aucune raison de privilégier un état sur l’autre. En utilisant le langage du troisième
chapitre, l’opérateur densité choisi dans ce cas correspond à un état avec une entropie
statistique maximale.
De façon générale, l’information existant sur un système statistique donné correspond
à la connaissance des valeurs des constantes de mouvement, tel que l’énergie, l’impulsion,
le moment angulaire ou encore le nombre de particules. Ses constantes de mouvement
peuvent être connues exactement ou statistiquement (en moyenne). Dans le premier cas,
l’information est certaine et les grandeurs physiques sont connues avec certitude dans un
intervalle donné 1 . En générale, on tient en compte ce type d’information par construction
de l’espace de Hilbert (ou l’espace de phase). Un exemple de ce cas est l’ensemble micro-
canonique (discuté dans le deuxième chapitre) où l’énergie est fixée à la valeur E avec une
incertitude ∆E. Quand l’information existant sur le système est de nature statistique,
ne sont connues alors que les valeurs moyennes de certaines grandeurs physiques 2 . Ces
informations statistiques, apparaissent alors comme des contraintes imposées sur ρ.
Dans tous les cas, le choix le plus naturelle pour la matrice densité (ou la densité en
1. Une incertitude subsiste toujours due à l’incertitude de mesurer la grandeur physique, mais elle
n’est pas de nature statistique.
2. Comme exemple dans ce cas, on peut citer le cas de l’ensemble canonique, ou l’énergie fluctue
autour d’une valeur moyenne donné par TrρH ou encore l’ensemble grand canonique pour lequel l’énergie
et le nombre de particules ne sont connus qu’en moyenne.

39
Physique Statistique I CHAPITRE IV SMP5

phase) correspond à une entropie statistique maximale, compatible avec les contraintes
imposées sur ρ :
Principe de l’entropie statistique maximale :
Parmi toutes les distributions statistiques, compatibles avec les données, le système doit
être représenté par le macro-état correspondant à la valeur maximale de l’entropie statis-
tique S(ρ).

IV.1 Distribution d’équilibre

IV.1.1 La méthode des multiplicateurs de Lagrange

Rappel de la méthode des multiplicateurs de Lagrange :


— Soit f ({xk }k=1,2,...,K ) une fonction de K variables x1 , x2 , . . . , xK .
— Les variables {xk }k=1,2,...,K ) sont reliées entre elles par J contraintes :

gj ({xk }k=1,2,...,K ) = aj pour j = 1, 2, . . . , J. (IV.1)

— On cherche alors les valeurs des variables {xk }k=1,2,...,K pour lesquels la fonc-
tion f est stationnaire sous les contraintes (IV.1).
— On associe à chaque contrainte (IV.1), un multiplicateur de Lagrange λj avec
j = 1, 2, . . . , J, et on définit l’expression suivante
J
X
f ({xk }k=1,2,...,K ) − λj gj ({xk }k=1,2,...,K ). (IV.2)
j=1

— On cherche alors les valeurs stationnaire de cette expression pour un change-


ment arbitraire des variables {xk }, en gardant les multiplicateurs de Lagrange
λj fixes. On doit donc résoudre K équations :
J
∂f ({xk } X ∂gj ({xk }
− λj = 0. (IV.3)
∂xk j=1
∂x k

L’application des étapes précédentes permet de trouver les expressions des


K variables {xk } en fonction de J multiplicateurs de Lagrange λj
— Les multiplicateurs de Lagrange λj peuvent alors être remplacés en fonction
des paramètres aj en remplaçant les solutions trouvées pour les variables
{xk } dans les contraintes (IV.1)

En suivant le raisonnement énoncé au début de ce chapitre, les informations certaines


doivent être prises en compte, initialement lors de la construction de l’espace de Hilbert,

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 40


Physique Statistique I CHAPITRE IV SMP5

tandis que les informations de natures statistiques, de l’autre côté doivent être imposés
comme des contraintes sur ρ sous la forme

Tr(ρAi ) = hAi i, (IV.4)

pour chaque observable Ai dont on connait la valeur moyenne. On ajoute à ses contraintes,
la condition de normalisation de l’opérateur densité 3 : Trρ = 1.
On peut alors appliquer la méthodes des multiplicateurs de Lagrange, rappelée dans
le texte encadré précédent, pour trouver l’opérateur densité ρ permettant de maximiser
l’entropie statistique S(ρ), en tenant comptes des contraintes imposée sur ρ. On applique
la méthode en prenant en compte les analogies suivantes avec les quantités apparaissant
dans le texte encadré :

xk ⇐⇒ les éléments de matrice de ρ, (IV.5)


f ({xk }) ⇐⇒ l’entropie statistique S(ρ)/k, (IV.6)
gj ({xk }) = aj ⇐⇒ Tr(ρAi ) = hAi i et Trρ = 1. (IV.7)

En suivant cette analogie, on cherche alors les valeurs stationnaires de l’expression


X
− Tr(ρ log ρ) − λi Tr(ρAi ) − λ0 Tr(ρ) (IV.8)
i

où on a introduit les multiplicateurs de Lagrange λi , avec i = 1, 2, . . . associés aux


contraintes sur la valeur moyenne de chaque observable Ai et le multiplicateur de La-
grange λ0 associé à la contrainte de normalisation de ρ. On peut varier les éléments de
matrice hk|ρ|k 0 i de ρ librement, en tenant compte de l’hermiticité de ρ. On obtient alors
" !#
X
0 = −Tr δρ log ρ + 1 + λi Ai + λ0 (IV.9)
i
!
X X
= hk|δρ|k 0 ihk 0 | log ρ + λi Ai + λ0 + 1 |ki (IV.10)
k,k0 i

où on a utilisé δTrf (A) = TrδAf 0 (A) pour une fonction, bien définie et dérivable d’un opé-
rateur A. Ceci étant valable pour des variations arbitraires et indépendantes des quantités
hk|δρ|k 0 i les coefficients associés doivent s’annuler :
!
X
0
hk | log ρ + λi Ai + λ0 + 1 |ki = 0 ∀ k et k 0 . (IV.11)
i

La solution s’écrit alors P


ρ = e− i λi Ai −λ0 −1
, (IV.12)
3. sans oublié que l’opérateur densité doit être non-négatif et Hermitien.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 41


Physique Statistique I CHAPITRE IV SMP5

ou encore
1 − P i λi A i
ρ=
e , (IV.13)
Z
où on a introduit la fonction de partition

Z = e−λ0 −1 . (IV.14)

L’expression (IV.13) est appelée la distribution de Boltzmann-Gibbs, et elle représente


la forme générale de l’opérateur densité décrivant un système en équilibre thermodyna-
mique, dont les valeurs moyennes des constantes de mouvements Ai sont connues.

IV.1.2 La méthode variationnelle :


Pour compléter la démonstration précédente, il faut vérifier que la distribution obtenue
maximise, en faite, l’entropie statistique et ne la rend pas simplement stationnaire. Pour
cela on compare l’entropie statistique S(ρ) associée à l’opérateur densité ρ de la distri-
bution de Boltzmann-Gibbs (IV.13) à l’entropie statistique S(ρ0 ) associée à un opérateur
densité ρ0 arbitraire.
D’après le lemme III.2.2, on a 4 S(ρ0 ) ≤ −kTrρ0 log ρ, que l’on peut écrire en utilisant
(IV.13) sous la forme X
S(ρ0 ) ≤ k log Z + k λi Trρ0 Ai (IV.15)
i

Or, l’entropie statistique de la distribution de Boltzmann-Gibbs (IV.13) s’écrit


X
S(ρ) = k log Z + k λi TrρAi
i
X
= k log Z + k λi hAi i. (IV.16)
i

En supposant que ρ0 donne les même valeurs moyennes que ρ pour les observables consi-
dérées 5 i.e. hAi i = TrρAi = Trρ0 Ai on voit que

S(ρ0 ) ≤ S(ρ), (IV.17)

ce qui démontre que la distribution de Boltzmann-Gibbs donne une entropie statistique


supérieurs à n’importe quelle entropie statistique associée à un opérateur densité satisfai-
sant aux mêmes contraintes.
4. avec le changement de symboles approprié
5. choix évident puisque les deux opérateurs densité doivent satisfaire les mêmes contraintes, imposées
par notre connaissance du système

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 42


Physique Statistique I CHAPITRE IV SMP5

IV.1.3 Fonction de partition


Afin d’éliminer les multiplicateurs de Lagrange de l’expression (IV.13) de la distribu-
tion de Boltzmann-Gibbs, on applique la dernière étape de la méthode de Lagrange (texte
encadré au début de IV.1.1) où il faut remplacer la distribution de Boltzmann-Gibbs dans
l’ensemble des contraintes imposées sur le système. Ainsi, la contrainte de normalisation
de ρ (Trρ = 1) donne P
Z = Tre− i λi Ai . (IV.18)
L’équation IV.18 définit Z comme fonction des multiplicateurs de Lagrange {λi } ; elle est
appelée la fonction de Partition associée à la distribution d’équilibre.
Les autres contraintes, correspondant à la connaissance des valeurs moyennes des ob-
servables Ai donnent d’un autre côté

hAi i = TrρAi
1 P
= Tr e− j λj Aj Ai
Z
1 ∂ P
= − Tr e− j λj Aj
Z ∂λi
1 ∂Z
= − (IV.19)
Z ∂λi
ou encore

hAi i = − log Z. (IV.20)
∂λi
Les multiplicateurs de Lagrange peuvent être alors obtenus en inversant l’équation (IV.20),
une fois la fonction de partition est connue. Cependant en pratique, on évite d’inverser
cette équation en considérant que ce sont les λi (et non les valeurs moyennes hAi i) qui sont
les paramètres qui caractérisent l’équilibre. En effet, les multiplicateurs de Lagrange intro-
duits ici comme un outil mathématique, s’avèrent avoir des significations macroscopiques
directes comme on le verra on traitant des exemples d’ensembles statistiques.
En utilisant la fonction de partition on peut aussi facilement calculer les corrélations
et les fluctuations statistiques (hAi Aj i − hAi ihAj i) des observables Ai , dans le cas où ces
observables commutent. En effet, nous avons
1 P
hAi Aj i = TrAi Aj e− k λk Ak ,
Z
1 ∂2 P
= Tr e− k λk Ak ,
Z ∂λi ∂λj
1 ∂ 2Z
= , (IV.21)
Z ∂λi ∂λj
et
1 ∂Z ∂Z
hAi ihAj i = . (IV.22)
Z 2 ∂λi ∂λj

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 43


Physique Statistique I CHAPITRE IV SMP5

Ce qui donne l’expression des corrélations et des fluctuations statistiques des observables
Ai en terme de la fonction de partition :
1 ∂ 2Z 1 ∂Z ∂Z
hAi Aj i − hAi ihAj i = − 2
Z ∂λi ∂λj Z ∂λi ∂λj
2

= log Z (IV.23)
∂λi ∂λj

IV.1.4 L’entropie d’équilibre


L’entropie d’équilibre associée à la distribution de Boltzmann-Gibbs s’écrit
X
S(ρ) = k log Z + k λi hAi i
i
X ∂
= k log Z − k λi log Z, (IV.24)
i
∂λi

où (IV.20) a été utilisée.


En utilisant (IV.20), et en considérant une variation infinitésimale des valeurs moyennes
hAi i, et donc des paramètres λi associés, on trouve
X
d log Z = − hAi i dλi . (IV.25)
i

Pour l’entropie d’équilibre, cela donne :


 
X ∂ X ∂
dS = kd log Z − k dλi log Z − k λi d log Z , (IV.26)
i
∂λi i
∂λi

qui, en vertue de (IV.25) et de (IV.20) donne


X
dS = k λi dhAi i. (IV.27)
i

En considérant S comme fonction des hAi i, comme le montre (IV.27), cela donne
1 ∂S
λi = . (IV.28)
k ∂hAi i
Cette équation permet d’interpréter les multiplicateurs de Lagrange, comme le taux de
changement dans l’entropie statistique, lorsque l’équilibre est modifié.
Dériver une deuxième fois cette équation, par rapport à hAj i donne

1 ∂ 2S ∂λi ∂λj
= = . (IV.29)
k ∂hAi i∂hAj i ∂hAj i ∂hAi i

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 44


Physique Statistique I CHAPITRE IV SMP5

D’autre part, en dérivant (IV.20), par rapport à λj on trouve


∂ 2 log Z ∂hAi i ∂hAj i
=− =− . (IV.30)
∂λi ∂λj ∂λj ∂λi
Ces deux dernières équations permettent de réécrire les corrélations et les fluctuations
(IV.23) sous la forme :
∂ 2S
hAi Aj i − hAi ihAj i = −k/ . (IV.31)
∂hAi i∂hAj i

Les équations (IV.28) et (IV.24) permettent d’écrire


S X ∂S/k
log Z = − hAi i . (IV.32)
k i
∂hAi i

Il est facile de constater la symétrie entre la fonction log Z comme fonction des multipli-
cateurs de Lagrange λi d’un côté et de l’entropie statistique (S/k en fait) comme fonction
des données hAi i de l’autre côté. La transformation (IV.24), permettant de passer de l’une
à l’autre, n’est rien d’autre qu’une transformation de Legendre.
La situation est réminiscente de la situation en thermodynamique, où l’énergie libre
F = E − T S est obtenue à partir de l’énergie interne par une transformation de Legendre,
et on a
dE = T dS dF = −SdT (IV.33)
où les variables températures et entropie apparaissent comme des variables conjuguées de
l’énergie libre et de l’énergie interne, respectivement. En effet, en utilisant (IV.28) dans
(IV.32) et en multipliant par −kT on obtient
X
− kT log Z = −T S + T hAi iλi . (IV.34)
i

Dans les situtaion où on a une seule observable Ai = H correspondant à l’Hamiltonien du


système, la valeur moyenne, n’est rien d’autre que l’énergie interne du système hHi = E
on aura
F = −kT log Z. (IV.35)

IV.1.5 Factorisation des fonctions de partition


Dans la plupart des cas, on utilise des systèmes composés de parties 6 indépendantes.
Dans ce cas l’espace de Hilbert global est un produit tensoriel des espaces de Hilbert
associés à chaque partie indépendante composant le système
Y
H= Hq . (IV.36)
⊗q

6. particules, spins ou encore des modes vibrationnels . . .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 45


Physique Statistique I CHAPITRE IV SMP5

Tandis que l’Hamiltonien global H ainsi que les constantes de mouvement globales en
générale Ai s’écrivent comme des somme directes des Hamiltoniens H q et constantes de
mouvement Aqi agissant sur les espaces de Hilbert réduits Hq :

Ai = ⊕q Aqi . (IV.37)

La fonction de partition (IV.18) s’écrit alors


λi Aqi
P P
Z = Tr e− i λi Ai
= Tr e−⊕q i = Tr e−⊕q Kq = Tr ⊗q e−Kq , (IV.38)

où on a introduit les opérateurs Kq = i λi Aqi agissant sur les espaces de Hilbert réduits
P
Hq . L’équation (IV.38) permet de voir que dans le cas d’un système composé de parties
indépendantes la fonction de partition globale est factorisable, en produit de fonction de
partition associées à chacune des parties du système :
Y
Z= Zq avec Zq = Trq e−Kq . (IV.39)
q

La factorisation de la fonction de partition dans le cas de systèmes composés de parties


indépendantes, suit aussi de la factorisation 7 de l’opérateur densité global :
Y
ρ= ρq = ρa ⊗ ρb ⊗ . . . . (IV.40)
⊗q

Dans ce cas on a
1 −⊕q Kq 1 −Kq
ρ= e = et ρq = e . (IV.41)
Z Zq

IV.2 Ensemble canonique


On applique le formalisme précédent, dans le cas d’un fluide renfermé dans une boite.
Cette dernière est décrite par un puit de potentiel qui est nul à l’intérieur et infini à l’ex-
térieur. Les données caractérisant l’équilibre thermodynamique dans ce cas, sont l’énergie
E, le nombre de particules N et le volume de la boite V . La description statistique du sys-
tème, se fera par des ensembles statistiques différent, selon que ces données soient connues
exactement ou en moyenne, comme établi dans la section précédente IV.1.
L’ensemble canonique est caractérisé par la donnée exacte de N et V et en moyenne
de l’énergie E. Cela correspond, par exemple, à une situation où le système peut échanger
de la chaleur avec un thermostat. Dans ce cas, et selon le formalisme développé en IV.1.1
on a une seule contrainte du type Tr(ρAi ) = hAi i qui s’écrit dans ce cas

Tr(ρHN ) = hHN i = E (IV.42)


7. par produit tensoriel dans ce cas

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 46


Physique Statistique I CHAPITRE IV SMP5

et donc un seul multiplicateur de Lagrange 8 , que l’on notera β.


La distribution de Boltzmann-Gibbs (IV.13) s’écrit alors :
1 −βHN
ρ= e . (IV.43)
ZC
La probabilité pm du vecteur propre |mi de l’Hamiltonien HN associé à la valeur propre
Em est alors
1 −βEm
pm = e . (IV.44)
ZC
La fonction de partition canonique comme fonction de β et des données exacte N et V
s’écrit X
ZC (β, N, V ) = Tr e−βHN = e−βEm . (IV.45)
m

Il est à noté que la sommation ici est sur tout les états à N particules i.e. sur tous les
vecteurs propres |mi et non pas sur les valeurs propres Em . Si les niveaux d’énergie sont
dégénéré, alors on peut écrire la sommation sur les niveaux d’énergie Em
X
ZC = g(Em ) e−βEm . (IV.46)
Em

avec g(Em ) le degré de dégénérescence du niveau Em .


En pratique, les états |mi sont caractérisé par des nombres quantiques indépendants
m = (m1 , m2 , . . . ) et les énergies s’écrivent Em = ε1 (m1 ) + ε2 (m2 ) + . . . . En utilisant la
factorisation de la fonction de partition on peut l’écrire alors sous la forme
! !
X X X
ZC == e−βEm = e−βε1 (m1 ) e−βε2 (m2 ) . . . (IV.47)
m m1 m2

Le paramètre β est lié à l’énergie par l’équation (IV.20) :


∂ log ZC
E=− . (IV.48)
∂β

L’entropie d’équilibre (IV.24) s’écrit

S = k log ZC + kβE. (IV.49)

Cette relation permet de donné une interprétation physique au paramètre β (introduit


initialement comme artifice de calcul). En effet, cette équation permet d’écrire
∂S
kβ = , (IV.50)
∂E
8. en plus de λ0 associé à la contrainte Trρ = 1

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 47


Physique Statistique I CHAPITRE IV SMP5

∂S
qu’en comparant à ∂E = T1 , où T est la température du système, permet d’interpréter β
comme étant la température inverse
1
β= , (IV.51)
kT
avec k étant la constante de Boltzmann.
L’équation (IV.49) peut être réarrangé sous la forme
− kT log ZC = E − T S, (IV.52)
qu’en comparant à la définition thermodynamique de l’énergie libre de Helmoltz
F = E − T S, (IV.53)
permet d’écrire
F = −kT log ZC . (IV.54)

Comme indiqué au départ, dans le cas de l’ensemble canonique, l’énergie n’est pas
définie exactement. Ses fluctuation sont alors donnée par (IV.23, IV.31) :
∂ 2 log Z ∂ 2S
h(HN − E)2 i = hHN2 i − hHN i2 = = −k/ 2 . (IV.55)
∂λi ∂λj ∂E

IV.3 Ensemble grand canonique


L’ensemble grand canonique correspond aux situations où le nombre de particules et
l’énergie du système sont connues en moyennes, et seul le volume est connu exactement.
L’ensemble décrit ainsi un système ouvert échangeant de la chaleur et des particules avec
l’environnement, par exemple, un gaz renfermé dans une boite dont les parois permettent
l’échange e chaleur et de particules avec l’extérieur.
La description du système quantique, quand le nombre de particule n’est pas fixé, se
fait dans l’espace de Fock F qui est somme directe des espace de Hilbert H(N ) :
F = ⊕∞
N =0 H
(N )
. (IV.56)
Dans la suite on notera par N̂ l’opérateur nombre de particules, tandis que N = hN̂ i
dénotera la valeur du nombre de particule.
Dans le cas de l’ensemble grand canonique, les contraintes (IV.4) s’écrivent :
Tr(ρH) = E ; Tr(ρN̂ ) = N . (IV.57)
En utilisant la trace TrN dans le cas canonique, et la matrice densité ρN , composantes de
ρ dans l’espace de Hilbert H(N ) , correspondant à un nombre N fixe de particules, on peut
écrire ces contraintes sous la forme
X X
TrN (ρN HN ) = E ; N TrN (ρN ) = N , (IV.58)
N N

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 48


Physique Statistique I CHAPITRE IV SMP5

tandis que la contrainte de normalisation de ρ devient


X
TrN (ρN ) = 1 . (IV.59)
N

La quantité TrN (ρN ) donne dans ce cas la probabilité que le système contienne N parti-
cules.
On note par β et −µ̃, les multiplicateurs de Lagrange associés aux contraintes (IV.57)
respectivement. L’opérateur densité (IV.13) dans le cas grand canonique s’écrit alors
1 −βH+µ̃N̂
ρ= e . (IV.60)
ZG
La grande fonction de partition s’écrit
N
X X X
ZG (β, µ̃) = Tr e−βH+µ̃N̂ = eµ̃N e−βEm = eµ̃N ZC (β, N ) . (IV.61)
N m N

ZG (µ̃) apparait alors comme transformée de Laplace de la fonction ZC (N ).


Les valeurs moyennes peuvent être obtenues à partir de la fonction de partition en
utilisant (IV.20) :
∂ log ZG ∂ log ZG
E=− ; N= . (IV.62)
∂β ∂ µ̃
L’entropie d’équilibre (IV.24) devient

S = k log ZG + kβE − k µ̃N. (IV.63)

Cette expression peut être réarranger sous la forme

− kT log ZG = E − T S − k µ̃T N, (IV.64)

ressemblant à celle du grand potentiel en thermodynamique 9

Ω = E − T S − µN (IV.65)

avec
µ̃
µ = kT µ̃ = , (IV.66)
β
le potentiel chimique.
Comparer (IV.64) et (IV.65) permet d’interpréter la quantité −kT log ZG comme étant
le grand potentiel :
Ω = −kT log ZG . (IV.67)
9. aussi appelé énergie libre de Gibbs.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 49


Physique Statistique I CHAPITRE IV SMP5

Les fluctuations statistique (IV.23, IV.31) de l’énergie et du nombre de particules


s’écrivent
∂ 2 log ZG
(HN − E)2 =
∂β 2
,"  2 2 #
∂ 2S ∂ 2S ∂ 2S ∂ S
= −k 2 2 2
− , (IV.68)
∂N ∂N ∂E ∂E∂N
et
∂ 2 log ZG
 2 
N̂ − N =
∂ µ̃2
,"  2 2 #
∂ 2S ∂ 2S ∂ 2S ∂ S
= −k 2 2 2
− , (IV.69)
∂E ∂N ∂E ∂E∂N
respectivement.

IV.4 Autres exemples d’ensembles statistiques

IV.4.1 Ensemble microcanonique


L’énergie dans le cas de l’ensemble microcanonique (introduit dans II.2) est donnée
exactement 10 , donc la contrainte lié à l’énergie définit l’espace de Hilbert HW , de dimen-
sion W très grand en général. Dans ce cas on a un seul multiplicateur de Lagrange, associé
à la contrainte de normalisation de ρ, et le formalisme de IV.1.1 donnant la distribution
de Boltzmann-Gibbs se réduit à
1
ρ= IW , (IV.70)
W
où IW est l’opérateur identité dans HW .
La fonction de partition dans ce cas est la dimension de l’espace de Hilbert et l’entropie
d’équilibre est
S = k log W, (IV.71)
qui n’est rien d’autre que l’entropie maximale obtenue dans le cas d’états équiprobables
(voir III.2.3).

IV.4.2 Fluide mixte (ensemble grand canonique)


Dans le cas d’un fluide composé de différents type de molécules a, b, . . . , on intro-
duit pour chaque type une contrainte exprimant la conservation du nombre de particule
10. Cependant une incertitude est requise ici, vu la nature discrète des énergies propres de l’Hamiltonien.
En effet, on suppose que l’énergie est comprise entre E et E + ∆E, tel que ∆E est petit comparé à la
précision de la mesure mais grand par rapport à la distance typique entre les niveaux d’énergie.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 50


Physique Statistique I CHAPITRE IV SMP5

Na , Nb , . . . avec les multiplicateurs de Lagrange associés à chaque contrainte notés par


µ̃a , µ̃b , . . . respectivement.
La densité grand canonique (IV.60) s’écrit alors
1 −βH+µ̃a N̂a +µ̃b N̂b +...
ρ= e , (IV.72)
ZG
et la grande fonction de partition
ZG (β, µ̃a , µ̃b , . . . ) = Tr e−βH+µ̃a N̂a +µ̃b N̂b +... . (IV.73)

Si les molécules peuvent changer de type via des réactions chimiques par exemple,
alors les constantes de mouvement ne sont plus les nombres de molécules mais le nombre
d’atomes les composant. Les relations précédentes restent alors valables avec Na , Nb , . . .
notant cette fois-ci le nombre totale des atomes de différents types.

IV.4.3 Système libre


Si le système est libre de se déplacer dans l’espace et n’est pas renfermé dans une boite
comme dans les cas précédents, on doit introduire des contraintes relatives à l’impulsion
totale P~ et trois multiplicateurs de Lagrange associés −~λ. L’opérateur densité (IV.13)
s’écrit alors
1 ~~
ρ = e−βH+λP , (IV.74)
Z
et les multiplicateurs de Lagrange apparaissent alors comme les variables conjuguées des
constantes de mouvement hP~ i.

IV.5 Distribution d’équilibre en statistique classique


Le passage à l’approximation classique peut se faire comme indiqué dans la section
I.2.4, en utilisant les changements (I.80, I.81). Dans le cas où le nombre de particule n’est
pas fixé, la trace est remplacé par une sommation sur le nombre de particule multiplié
par une intégrale sur l’espace de phase :
XZ
Tr −→ dτN , (IV.75)
N

et la densité en phase ρ est un ensemble de composantes ρN agissant chacune dans l’espace


(N )
de phase EP . L’entropie statistique quant à elle devient une fonctionnelle de la densité
en phase S(ρ).
Ainsi le raisonnement établi au début du chapitre IV.1 reste valide, et conduit à la
distribution de Boltzmann-Gibbs avec la même forme :
1 P
ρN = e− i λi Ai . (IV.76)
Z
Faculté des Sciences de Rabat Prof. M. EL BAZ Page 51
Physique Statistique I CHAPITRE IV SMP5

La fonction de partition s’écrit


XZ P
Z= dτN e− i λi A i
. (IV.77)
N

Toutes les relations établies précédemment entre les moyennes hAi i et les multiplica-
teurs de Lagrange (IV.20-IV.35) restent inchangées.
L’ensemble canonique classique, est décrit par une relation similaire à (IV.43), sauf
que dans ce cas la densité en phase ρN et l’Hamiltonien HN ne sont plus des opérateurs sur
(N )
l’espace de Hilbert mais des fonctions sur l’espace de phase EP . La fonction de partition
(IV.45) devient alors Z
Z= dτN e−βHN . (IV.78)

L’ensemble grand canonique est décrit par la densité ρ avec des composantes ρN dans
(N )
chacun des espaces de phase à 6N dimensions EP :
1 −βHN +µ̃N̂
ρN = e , (IV.79)
ZG
et la fonction de partition est obtenue à partir de la fonction de partition canonique (IV.78)
en utilisant une transformée de Laplace similaire à la dernière équation dans (IV.61).

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 52


Chapitre V

Applications

V.1 Distribution de Maxwell


En statistique classique on peut toujours écrire l’énergie totale comme somme d’un
terme cinétique K(p) et d’un terme potentiel U (q) :
E(p, q) = K(p) + U (q). (V.1)

La probabilité
dP = ρ(q, p)dqdp, (V.2)
pourra être factorisée en produit de deux termes, l’un ne dépendant que des coordonnées
de positions et l’autre que des impulsions.Dans le cas de l’ensemble canonique cela donne
U (q) K(p)
dP = α e− kT
− kT
dqdp ,
U (q) K(p)
− −
= αe kT dq e kT dp, (V.3)
avec α un facteur de proportionnalité, determiné en imposant la normalisation de la
probabilité.
La probabilité sur les impulsions s’écrit alors
K(p)
dPp = a e− kT dp, (V.4)
et celle sur les coordonnées : U (q)
dPq = b e− kT dq, (V.5)
où a et b sont des facteurs de normalisation des probabilités corresepondantes.
A son tour, la probabilité sur les impulsions est aussi factorisable car l’impulsion
P p2
s’écrit comme somme de termes indépendants K(p) = i 2mi . Pour chaque particule, la
probabilité sur l’impulsion s’écrit alors
p2 2 2
x +py +pz

dPp = a e 2mkT dpx dpy dpz . (V.6)

53
Physique Statistique I CHAPITRE V SMP5

La condition de normalisation de cette probabilité permet de déterminer le facteur a :


p2 2 2
Z Z
x +py +pz
1 = dPp = a e− 2mkT dpx dpy dpz
Z 3
p2
− 2mkT
= a e dp . (V.7)

Cette dernière intégrale est de la forme


Z ∞ r
2 π
e−αx dx = . (V.8)
∞ α

La condition de normalisation (V.7), s’écrit alors


3
1 = a (2πmkT ) 2 , (V.9)

et le facteur de normalisation est obtenue :


3
a = (2πmkT )− 2 . (V.10)

La distribution des probabilités sur les impulsions s’écrit finalement

1 p2 2 2
x +py +pz
dPp = 3 e− 2mkT dpx dpy dpz . (V.11)
(2πmkT ) 2

Sur les vitesses elle devient


 m  32 m
e− 2kT (vx +vy +vz ) dvx dvy dvz ,
2 2 2
dPv = (V.12)
2πkT
aussi appelée la distrbution de Maxwell des vitesses. Elle est le produit de trois facteurs :
 m  12 m
e− 2kT (vi ) dvi ,
2
dPvi = (V.13)
2πkT
avec i = x, y et z. Ces termes expriment chacun la probabilité pour que la composante i
de la vitesse soit comprise entre vi et vi + dvi pour une position arbitraire de la particule.
On peut utiliser la distribution de Maxwell des impulsions (V.11) pour calculer la
valeur moyenne de l’énergie cinétique en fonction de la température. Pour simplifier les
notations, on la récrit sous la forme suivante

dPp = g(~p) d3 p~, (V.14)

avec
3 ~2
p
g(~p) = (2πmkT )− 2 e− 2mkT . (V.15)

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 54


Physique Statistique I CHAPITRE V SMP5

La valeur moyenne de l’énergie cinétique s’écrit alors

p~2 p~2
Z
h i = d3 p~ g(~p)
2m 2m
p~2
Z
− 32 ~2
p
= (2πmkT ) d3 p~ e− 2mkT
2m
Z 
− 32 d 3 ~2
p
− 2mkT
= − (2πmkT ) d p~ e ,

Z 3
− 23 d p2
− 2mkT
= − (2πmkT ) dp e , (V.16)

En utilisant, (V.8), on obtient,

p~2 3
h i = (kT )−3/2 β −5/2
2m 2
3
= kT. (V.17)
2

Il est à noter que ce résultat est compatible avec le théorème de l’équipartition de


l’énergie (V.25) démontré dans la section suivante V.2.

V.2 Théorème de l’équipartition de l’énergie et théo-


rème du viriel
Le théorème de l’équipartition de l’énergie permet d’expliquer comment l’énergie, d’un
système en équilibre thermodynamique, est répartit entre les différents degrés de liberté. Il
est valable pour les systèmes classiques décrit par un Hamiltonien qui contient uniquement
des termes quadratiques en les coordonnées de l’espace de phase.
Soient xi et xj deux coordonnées de l’espace de phase, EP {qi , pi }i=1,2,...S , d’un système
décrit par l’ensemble statistique canonique. On se propose de calculer la valeur moyenne
∂H
de la quantité xi ∂xj
:
Z
∂H 1 ∂H
hxi i = e−β H xi dq1 . . . dxi . . . dxj . . . dpS
∂xj Z ∂xj
∂e−β H
Z
1
= − xi dq1 . . . dxi . . . dxj . . . dpS
βZ ∂xj
∂e−β H
Z Z 
1
= − xi dxj dq1 . . . dxi . . . dpS . (V.18)
βZ ∂xj

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 55


Physique Statistique I CHAPITRE V SMP5

En integrant par partie l’integral sur xj on trouve


Z
∂H 1  −β H xj2
hxi i= − xi e xj1
dq1 . . . dxi . . . dpS
∂xj βZ
Z
1 ∂xi
+ e−β H dq1 . . . dxi . . . dxj . . . dpS , (V.19)
βZ ∂xj
où xj1 et xj2 représentent les valeurs extrêmes de la variable xj . Puisque, en générale,
l’énergie du système est très grandes (voir infini) dans ces limites, l’exponentielle et donc
l’intégrale dans ces valeurs s’annule. D’autre part, puisque les variables xi et xj sont indé-
∂xi
pendantes, la dérivée dans la deuxième ligne a comme valeurs alors = δij . En recon-
∂x j
naissant le reste de l’intègrale, comme étant la fonction de partition : e−β H dq1 . . . dpS =
R

Z, on obtient pour la valeur moyenne :


∂H δij
hxi i= = δij kT. (V.20)
∂xj β
Cette expression est appelée le théorème d’équipartition généralisé.
La valeur moyenne ne s’annule que dans les deux cas suivants :
∂H
si xi = xj = pi ⇒ hpi i = hpi q̇i i = kT, (V.21)
∂pi
∂H
si xi = xj = qi ⇒ hqi i = −hqi ṗi i = kT. (V.22)
∂qi

Dans la suite on s’intéresse aux cas où l’Hamiltonien ne contient que des termes qua-
dratiques en les variables de l’espace de phase :
s
X
ai p2i + bi qi2 .

H= (V.23)
i=1

Le théorème d’Euler 1 permet alors d’écrire :


X  ∂H ∂H

pi + qi = 2H. (V.24)
i
∂pi ∂qi

1. Le théorème d’Euler stipule que :


n
X ∂f (x)
xi = kf (x)
i=1
∂xi

quelque soit x = (x1 , x2 , . . . xn ) ∈ IR et f (x) différentiable en tout point et positivement homogène de


degré k.
On rappel qu’une fonction homogène de degré k satisfait f (αx) = αk f (x), ∀α ∈ IR.
Dans notre cas l’Hamiltonien (V.23) est homogène de degré k = 2 :
   
H {αqi , αpi }i=1,...,s = α2 H {qi , pi }i=1,...,s .

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 56


Physique Statistique I CHAPITRE V SMP5

En utilisant, les résultats, (V.21,V.22) on démontre le théorème de l’équipartition :


1
hHi = skT, (V.25)
2
s étant le nombre de termes quadratiques dans l’Hamiltonien (V.23).

Théorème de l’équipartition de l’énergie - énoncé- :


Pour un système statistique classique en équilibre à la température T , chaque terme
quadratique, indépendant, de son Hamiltonien contribue à l’énergie moyenne du
système par une valeur de 21 kT .

Le théorème d’équipartition, utilisé conjointement avec le théorème du viriel, permet


d’obtenir l’équation du gaz parfait. En effet, pour un gaz parfait et selon le théorème du
viriel 2 ce dernier est donné par V = hqi ṗi i, qui selon le théorème d’équipartition 3 donne
V = −3N kT. (V.26)

Pour un gaz parfait occupant une boite de volume V , les seuls forces s’exerçant sur
les particules sont dues aux parois, et sont représentées par la pression P :
F~i = −P dS
~i . (V.27)
Le viriel s’écrit alors X I
V=h ~ri .F~i i = −P ~
~r.dS. (V.28)
i S

Le théorème de la divergence (Green-Ostrogradski) permet d’écrire


Z  
V = −P ~ r dV = −3P V.
∇.~ (V.29)
V

Une comparaison de ce résultat avec l’équation (V.26) permet d’écrire l’équation du gaz
parfait :
P V = N kT. (V.30)
Cette équation peut être réecrite sous la forme usuelle
P V = nRT, (V.31)
sachant que le nombre de particules par mole s’écrit n = NNA , où NA = 6 × 1023 est le
nombre d’Avogadro. La constante des gaz parfaits, R = 8.3 J.K −1 .mol−1 , s’écrit alors en
fonction de la constante de Boltzmann k = kB = 1.38 × 10−23 J.K −1 par R = k NA .
2. Théorème du viriel : Pour un système de particules de masses m, décrits par leurs positions ~ri
et impulsions p~i , soumises à des forces F~i alors on a
X p~2 1 X ~
i
h i=− h ~ri Fi i.
2m 2
P ~2i
p
3. L’Hamiltonien d’un gaz parfait composé de N particules libres est donné par H = 2m et contient
donc 3N termes quadratiques.

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 57


Physique Statistique I CHAPITRE V SMP5

Exemples d’applications du théorème de l’équipartition de l’énergie :

♣ Gaz parfait monoatomique : l’Hamiltonien d’un gaz parfait composé


~2i
p
de N particules libres est donné par H = N
P
i=1 2m . Chaque impulsion étant
définie par trois composantes pix , piy et piz , l’Hamiltonien est composé de
3N termes quadratiques alors. Selon le théorème d’équipartition on aura
alors :
3
E = hHi = N kT. (V.32)
2
♣ Oscillateur harmonique à une dimension : l’hamiltonien d’un oscilla-
p2x
teur harmonique unidimensionnel (suivant l’axe x) s’écrit H = 2m + 12 Kx2 ,
où K est la constante de rappel (du ressort). L’Hamiltonien est composé de
deux termes quadratiques et le théorème d’équipartition permet d’écrire

E = hHi = kT. (V.33)

♣ Système d’oscillateurs harmoniques unidimensionnels : On peut


assimiler le mouvement des atomes composants un solide autour de leurs
positions d’équilibres à un mouvement harmonique simple à trois dimen-
sions. L’Hamiltonien d’un solide composé de N atomes s’écrit alors H =
PN p~2i 1
i=1 2m + 2 K~ri2 et contient donc 6N termes quadratiques (3N termes
d’impulsions, et 3N de positions, où de façons équivalente, le solide est
assimilé à un système de 3N oscillateurs harmoniques, chacun contribuant
par deux termes quadratiques), le théorème d’équipartition permet d’ob-
tenir
E = hHi = 3N kT. (V.34)

V.3 Gaz parfait en équilibre thermique canonique


L’Hamiltonien décrivant un gaz parfait monoatomique, composé de N particules libres,
sans structures internes, et de masse m est donné par
N
X p~2i
HN (~r1 , p~1 , . . . , ~rN , p~N ) = . (V.35)
i=1
2m

La densité d’équilibre canonique (IV.43) s’écrit :


1 −βHN
ρ= e , (V.36)
ZC

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 58


Physique Statistique I CHAPITRE V SMP5

avec la fonction de partition Z


ZC = dτN e−βHN . (V.37)

L’élément de volume de l’espace de phase est donné par (I.64), sachant que les particules
sont indiscernables dans ce cas.
Dans la suite on calcul la fonction de partition du système, et on l’utilise pour dériver
les propriétés thermodynamiques du gaz.
N  3
d r~i d3 p~i −β PNi=1 p~2i
Z Y 
1
ZC = e 2m ,
N ! i=1 h3
(Z1 )N
= . (V.38)
N!
avec Z 3 3
d r~i d p~i −β PNi=1 p~2i
Z1 = e 2m (V.39)
h3
est la fonction de partition à une seule particule. Il est à noté que ce résultat (V.38),
peut être retrouvé en utilisant la factorisation de la fonction de partition IV.1.5, puisque
par définition le gaz parfait est composé de particules indépendantes sans interactions
mutuelles.
L’intégrale sur la position dans la fonction de partition à une particule donne le volume
occupé par le gaz : Z
d3 r~i = V, (V.40)
tandis que l’intégrale sur l’impulsion donne
p2 2 2
Z ZZZ
~2
p i ix +piy +piz
−β 2m
3
d p~i e = dpix dpiy dpiz e−β 2m

Z 3
p2
−β 2m
= dp e .

(V.41)
Cette dernière intégrale est de la forme (V.8). On aura donc
Z  3/2
~2
p i 2πm
3 −β 2m
d p~i e = . (V.42)
β
La fonction de partition à une particule est donc
 3/2
V 2πm
Z1 = 3 . (V.43)
h β

La fonction de partition à N particules, décrivant le gaz parfait s’écrit alors


 3N
VN

2πm 2
ZC = . (V.44)
N ! h3N β

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 59


Physique Statistique I CHAPITRE V SMP5

Énergie libre :
L’énergie libre de Helmoltz (IV.54) s’écrit :

F (T, V ) = −kT log ZC


VN
 
3N
= −kT log (2πmkT ) 2 (V.45)
N ! h3N
   
V 3
= −N kT log (2πmkT ) 2 + 1 , (V.46)
N h3
où on a utilisé la formule de Sterling : log N ! ≈ N log N − N pour les grands nombres
dans la dernière égalité.
Ceci permet d’écrire l’énergie libre sous la forme
( " # )
N h3
F (T, V ) = N kT log 3 −1 ,
V (2πmkT ) 2
( " # )
N h3
= N kT log 3 − log V − 1 . (V.47)
(2πmkT ) 2

Équation du gaz parfait :


Sachant que

dF = −P dV − S dT (V.48)
la pression est obtenue en dérivant l’énergie libre par rapport au volume :

∂F
P =− , (V.49)
∂V T
et on trouve
N KT
P = , (V.50)
V
ce qui permet de retrouver l’équation du gaz parfait :

P V = N kT. (V.51)

Entropie d’équilibre :
A partir de (V.48), on obtient l’entropie en dérivant l’énergie libre par rapport à la
température : 
∂F
S=− . (V.52)
∂T V

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 60


Physique Statistique I CHAPITRE V SMP5

Réécrire, l’expression de l’énergie libre (V.47) sous la forme


( " # )
N h3 3
F (T, V ) = N kT log 3 − log T − 1 , (V.53)
V (2πmk) 2 2
permet de faciliter la dérivée, et d’écrire
( " # )
N h3 3
S = −N k log 3 −1 + N k,
V (2πmkT ) 2 2
3
( " # )
V (2πmkT ) 2 5
= Nk log + . (V.54)
N h3 2

L’énergie interne :
On utilise la relation (IV.53) reliant l’énergie interne à l’énergie libre pour écrire
E = F + T S, (V.55)
ce qui nous permet d’écrire, l’expression de l’énergie interne en fonction de la température
3
E = N kT. (V.56)
2
Ce résultat est compatible avec le théorème de l’équipartition de l’énergie (V.25) démontré
dans la section V.2.

La chaleur spécifique à volume constant :


La chaleur spécifique à volume constant est obtenue en dérivant l’énergie interne par
rapport à la température à volume constant :

∂E
CV =
∂T V
3
= N k. (V.57)
2
(V.58)

Enthalpie :
L’enthalpie est obtenue en ajoutant le terme P V à l’énergie interne :
H = E + PV
5
= N kT, (V.59)
2
où on a utilisé l’équation du gaz parfait (V.51) et l’expression de l’énergie interne en
fonction de la température (V.56).

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 61


Physique Statistique I CHAPITRE V SMP5

La chaleur spécifique à pression constante :


L’enthalpie permet de calculer la chaleur spécifique à pression constante, en la dérivant
par rapport à la température :

∂H
CP =
∂T P
5
= N k. (V.60)
2
(V.61)

La loi de Mayer :
En utilisant les expressions des chaleurs spécifiques à volume constant et à pression
constante, on peut écrire la loi de Mayer pour les gaz parfaits :
5
CP − CV = N k. (V.62)
2

Faculté des Sciences de Rabat Prof. M. EL BAZ Page 62


Bibliographie

[1] Cours de Physique Statistique du Professeur M. Baghdadi, Faculté des sciences de


Rabat, Université Mohammed V, (1985-1990).
[2] Cours de Physique Statistique du Professeur A. Benyoussef, Faculté des sciences de
Rabat, Université Mohammed V, (2009-2014).
[3] R. Balian, Du Microscopique au Macroscopique : cours de physique statistique de l’école
polytechnique, Tome I, elipse, (1985).
[4] R. Balian, From Microphysics to Macrophysics : Methods and applications of statistical
physics, Volume I, Springer, (2007).
[5] W. Pauli, Statistical Mechanics : Pauli Lectures on Physics, Volume 4, Dover publi-
cations, (1973).
[6] C. Chahine et P. Devaux Thermodynamique statistique, Dunod, (1976)
[7] R.K. Pathria et P.D. Beale Statistical Mechanics, Academic Press, (2011)

63

Vous aimerez peut-être aussi