Académique Documents
Professionnel Documents
Culture Documents
SMP5
Physique Statistique I
1
Physique Statistique I CHAPITRE SMP5
IV Distribution de Boltzmann-Gibbs 39
IV.1 Distribution d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
IV.1.1 La méthode des multiplicateurs de Lagrange . . . . . . . . . . . . . 40
IV.1.2 La méthode variationnelle : . . . . . . . . . . . . . . . . . . . . . . 42
IV.1.3 Fonction de partition . . . . . . . . . . . . . . . . . . . . . . . . . . 43
IV.1.4 L’entropie d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . 44
IV.1.5 Factorisation des fonctions de partition . . . . . . . . . . . . . . . . 45
IV.2 Ensemble canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
IV.3 Ensemble grand canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
IV.4 Autres exemples d’ensembles statistiques . . . . . . . . . . . . . . . . . . . 50
IV.4.1 Ensemble microcanonique . . . . . . . . . . . . . . . . . . . . . . . 50
IV.4.2 Fluide mixte (ensemble grand canonique) . . . . . . . . . . . . . . . 50
IV.4.3 Système libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
IV.5 Distribution d’équilibre en statistique classique . . . . . . . . . . . . . . . . 51
V Applications 53
V.1 Distribution de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
V.2 Théorème de l’équipartition de l’énergie et théorème du viriel . . . . . . . . 55
V.3 Gaz parfait en équilibre thermique canonique . . . . . . . . . . . . . . . . . 58
L’état microscopique d’un système physique, à tout instant t, est décrit par un vecteur
ket |ψi appartenant à un espace de Hilbert H ; on dit que le système est dans un état pur.
Si |un i est une base orthonormée de H, |ψi se décompose alors de la manière suivante
X
|ψ(t)i = Cn (t)|un i. (I.1)
n
On considère une observable A, avec les éléments de matrice Anp = hun |A|up i. La valeur
moyenne de A à l’instant t s’écrit :
hAi(t) = hψ(t)|A|ψ(t)i
X
= Cn∗ (t)Cp (t)hun |A|up i
n,p
X
= Cn∗ (t)Cp (t)Anp . (I.3)
n,p
L’évolution dans le temps de l’état du système est décrite par l’équation de Schrodinger :
∂
ih̄ |ψ(t)i = H|ψ(t)i (I.4)
∂t
3
Physique Statistique I CHAPITRE I SMP5
Pour un système physique décrit par l’état quantique |ψi, on définit l’opérateur densité
par
ρ = |ψihψ|. (I.5)
Les éléments de matrice de ρ s’écrivent alors
Dans la suite on montre que tous les résultats qu’on peut obtenir en utilisant la
formulation standard de la mécanique quantique en terme du vecteur ket |ψi peuvent
être reformulés en terme de la matrice densité ρ.
♣ Il est facile de voir d’après sa définition que l’opérateur densité est un opérateur
hermitien :
ρ† = ρ. (I.7)
Cela a pour conséquence importante que les valeurs propres de ρ sont toutes réelles
et ses vecteurs propres forment une base orthonormée de H.
♣ La condition de normalisation (I.2) impose la condition de normalisation suivante
de ρ :
Trρ = 1, (I.8)
où Tr dénote l’opération de trace de matrice (somme des éléments diagonaux).
Preuve.
X
Trρ = ρnn
n
X
= hun |ρ|un i
n
X
= |Cn |2
n
= 1.
♣ La valeur moyenne d’une observable pour un système décrit par la matrice densité
ρ est donnée par :
hAi = Tr (ρA) (I.9)
Preuve.
p(an ) = |Cn (t)|2
= hψ|un ihun |ψi
= hψ|Pn |ψi
= hPn i
= Tr (ρPn ) . (I.15)
♣
ρ2 = ρ (I.16)
ce qui implique, vu (I.8), que
Tr ρ2 = Trρ = 1.
(I.17)
Preuve.
Si on veut écrire cette probabilité sous une forme similaire à (I.14), on doit définir l’opé-
rateur densité dans le cas d’un mélange statistique par :
N
X
ρ = pk ρ k (I.21)
k=1
XN
= pk |ψk ihψk | (I.22)
k=1
Toutes les propriétés établies précédemment dans le cas pur restent valables dans le
cas mixte sauf la dernière propriété, qui n’est valable que dans le cas pur.
i). ρ est un opérateur hermitien. De ce fait, ses valeurs propres sont réelles et ses vecteurs
propres forment une base orthonormée.
Preuve. En utilisant la définition (I.21), le fait que les ρk sont hermitiens et que les
probabilités sont réelles, on montre facilement que ρ est hermitien.
Preuve.
N
!
X
Trρ = Tr pk ρk
k=1
N
X
= pk Trρk
k=1
XN
= pk
k=1
= 1. (I.23)
iv). L’évolution temporelle de l’opérateur densité est décrite par l’équation de Von-
Neumann (I.11) :
∂ρ(t)
ih̄ = [H, ρ(t)] . (I.27)
∂t
v). Par construction, la mesure d’une observable A donne la valeur propre an avec la
probabilité :
p(an ) = Tr (ρPn ) . (I.28)
vi). ρ est semi-défini positif :
hϕ|A|ϕi ≥ 0 ∀ |φi ∈ H (I.29)
Preuve. On part du fait que la quantité k pk |hϕ|ψk i|2 est non-negative pour tout
P
vecteur |φi ∈ H. Ceci implique que
X
hϕ|ψk ipk hψk |ϕk i ≥ 0 (I.30)
k
X
En remplaçant ρ = |ψk ipk hψk | on montre que hϕ|A|ϕi ≥ 0
k
Remarques :
♠ Dans le cas mixte ρ2 6= ρ ce qui implique que Tr (ρ2 ) < 1, tandis que dans le cas
pur, on a vu que ρ2 = ρ et que Tr (ρ2 ) = 1. Ceci fourni un moyen de distinguer si
un opérateur densité donné décrit un état pur ou-bien un état mixte.
où les |vn i sont les vecteurs propres de ρ associés aux valeurs propres λn respective-
ment. Cette écriture est similaire à (I.21), d’autant plus qu’il est facile de montrer
que les λn sont des probabilitésP (on peut, en effet, montrer que λn ≥ 0 à partir
de la positivité de ρ et que n λn = 1 à partir de la normalisation de ρ). Ceci
indique, que la représentation spectrale de l’opérateur densité n’est qu’une prépa-
ration possible du système statistique en étude. En effet, plusieurs préparations
possibles sont possibles pour le même état ρ.
O := OA ⊗ IB , (I.38)
Comme noté auparavant, pour pouvoir décrire l’état de chaque sous-système connais-
sant l’état du système composé, il faut travailler dans le formalisme de la matrice densité.
Pour cela considérons un système composé, décrit par la matrice densité ρAB . Ses éléments
de matrice sont donnés par :
Définition :
La matrice densité réduite du sous-système A est définie par
ρA := TrB ρAB
X
:= B hv` |ρAB |v` iB . (I.43)
`
TrB dénote la trace partielle sur l’espace des états du sous-système B.
De même, la matrice densité réduite du sous-système B est obtenue en prenant la trace
partielle de ρAB sur l’espace des états du sous-système A :
ρB := TrA ρAB
X
:= A hun |ρAB |un iA . (I.44)
n
Pour montrer que le sous-système A est décrit par la matrice densité réduite ρA , il suffit
de montrer que la valeur moyenne d’une observable OA est la même qu’elle soit calculée
sur l’état du sous-système A où sur l’état du système composé en utilisant l’extension de
l’observable i.e.
hOA iA = hOA ⊗ IB iAB (I.45)
Tr (ρA OA ) = Tr (ρAB (OA ⊗ IB )) (I.46)
Preuve.
hOA ⊗ IB iAB = Tr (ρAB (OA ⊗ IB ))
X
= hun , v` | (ρAB (OA ⊗ IB )) |un , v` i. (I.47)
n,`
où dans cette dernière étape nous avons utilisé la définition de la matrice réduite (I.43).
En utilisant, la relation de fermeture sur l’espace HA on obtient
X
hOA ⊗ IB iAB = A hun | (ρA OA ) |un iA
n
= Tr (ρA OA )
= hOA iA (I.49)
Exemple :
On considère un système composé de deux particules de spin 12 , dans l’état suivant :
1
|ψAB i = √ {|+, +i + |−, −i} (I.50)
2
la matrice densité du système composé est alors donnée par :
ρA = TrB ρAB
1
= {|+ih+| + |−ih−|}
2
1
= IA (I.52)
2
l’état obtenu est (maximalement) mixte. De même l’état du sous-système B est décrit par
l’état maximalement mixte :
1
ρB = TrA ρAB = IB (I.53)
2
Cet exemple montre que, étant donné l’état global d’un système composé l’état des
sous-systèmes n’est pas toujours un état pur, même si l’état du système globale est un
état pur. Le formalisme de l’opérateur densité est alors, essentiel pour décrire l’état d’un
sous-système.
L’exemple utilisé ici est en effet un cas particulier d’états composés pur pour lesquels
les matrice densité réduites sont mixtes. Les états purs vérifiant cette propriété sont dits
intriqués et le phénomène est appelé intrication.
X
ρ= pn |un ihun |. (I.54)
n
Si {|un iA }n=1,2...,N est une base de HA et {|v` iB }`=1,2...,L est une base de HB alors
{|un , v` iAB := |un iA ⊗ |v` iB }n=1,2...,N,`=1,2,...,L est une base de HAB .
I.2.1 Micro-états
Pour décrire le comportement classique des systèmes, il est, en général, suffisant de
considérer les degrés de liberté que sont la position et l’impulsion. Ainsi pour un système
classique de N particules à 3 dimensions, il suffit de connaitre la position r~i et l’impulsion
p~i de chaque particule {i = 1, 2, . . . N }. Il est ainsi nécessaire de connaitre 6N variables.
Un micro-état 3 est caractérisé par la donnée des 6N variables de positions et d’im-
r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N }. L’espace engendré par ses variables est
pulsions des particules{~
appelé espace de phase et noté EP .
De façon plus général, le système peut dans certains cas, dépendre de degrés de liberté
internes qui peuvent être traité de manière classique (l’orientation des molécules par
exemple). Dans ce cas, on note de manière général les variables de configuration 4 par qk
et leur moments conjugués par pk . L’espace de phase est alors engendré par les variables
{qk , pk }k=1,2,... .
De manière général on affirme qu’un micro-état correspond à un point de l’espace de
phase EP et les observables sont des fonctions définie sur EP .
I.2.2 Macro-états
Un macro-état est un état qui n’est pas complètement connu, ou bien un état mal
préparé. Il peut être décrit en associant des probabilités à chaque micro-état possible.
3. un état où il n’existe aucune incertitude sur le système.
4. les positions des particules et leurs degrés de liberté internes.
Pour un système de N particules, un macro-état est ainsi caractérisé par une mesure de
probabilité sur l’espace de phase 5
ρ (~
r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N ) dτN , (I.62)
où dτN est l’élément de volume sur l’espace de phase et ρ est appelée densité de phase.
Une observable classique A (~ r1 , p~1 , r~2 , p~2 , . . . , r~N , p~N ) devient dans ce cas une variable
aléatoire régit par la loi de probabilité (I.62). Sa valeur moyenne est alors donnée par
Z
hAi := dτN ρ (~ r1 , p~1 , . . . , r~N , p~N ) A (~ r1 , p~1 , . . . , r~N , p~N ) (I.63)
Hamilton :
dqi ∂H dpi ∂H
= ; =− , (I.66)
dt ∂pi dt ∂qi
où H est l’Hamiltonien du système. Les équations de Hamilton décrivent alors l’évolution
temporelle d’un micro-état de l’espace de phase EP . L’Hamiltonien d’un système de N
particules de masses mi et de charges ei a la forme suivante
h i2
N
X i p
~ − ei
~
A(~
r i ) XN XN
H= + V (~ri ) + W (|~ri − ~rj |) (I.67)
i=1
2mi i=1 i,j=1;i<j
Preuve. Une transformation infinitésimale dans EP d’un point {qk , pk }k=1,2,... à l’instant t
en un point {qk0 , p0k }k=1,2,... à l’instant t0 = t + dt s’écrit :
dqk
qk −→ qk0 = qk + dt
dt
dpk
pk −→ p0k = pk + dt (I.70)
dt
la matrice Jacobienne 6 d’une telle transformation est une matrice de la forme I + Kdt.
6. La matrice Jacobienne pour un changement de coordonnées (x, y) −→ (x0 , y 0 ) s’écrit
" 0
∂x0
#
∂x
∂(x0 , y 0 ) ∂x ∂y
J= = ∂y0 ∂y0
∂(x, y) ∂x ∂y
En effet,
0
∂q10
∂q1
1 + ∂q∂1 dqdt1 dt ∂ dq1
∂ dq1 ∂ dq1
∂q1 ∂p1
... ∂p1 dt
dt ... ∂q1 dt
dt ∂p1 dt
dt ...
∂p 0 ∂p01 ∂ dp1 ∂ dp1 ∂ dp1 ∂ dp1
J= ... dt 1 + ∂p1 dt dt . . . = I+ ∂q1 dt dt dt ...
= ∂q1 dt
1
∂p1 dt
∂q1 ∂p1
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
(I.71)
en définissant ∂ dq1 ∂ dq1
∂q1 dt
dt ∂p1 dt
dt ...
∂ dp1 ∂ dp1
K= ∂q1 dt
dt ∂p1 dt
dt ..., (I.72)
.. .. ...
. .
on écrit J = I + Kdt. Au premier ordre en dt on peut écrire
X ∂ dqk ∂ dpk
|J| = det (I + Kdt) = 1 + (TrK) dt = 1 + + dt. (I.73)
k
∂q k dt ∂p k dt
Exemple : Les densités réduites à une où deux particules, peuvent être utilisées
par exemple pour calculer la valeur moyenne de l’Hamiltonien (I.67), qui donne l’énergie
interne U pour un système de N particules identiques :
2
~
p~ − eA(~r)
Z Z
1
3 3
U = d ~rd p~f (~r, p~) + V (~r)+ d3~rd3 p~d3 r~0 d3 p~0 f2 ~r, p~, r~0 , p~0 W |~r − r~0 |
2m 2
(I.84)
La physique statistique est basée sur des postulats, dont la validité peut être vérifiée en
suivant des raisonnements logiques. Une dérivation de l’équation de Liouville permet de
bien comprendre le raisonnement derrière le premier postulat. On commence ce chapitre
donc, par cette re-dérivation de l’équation de Liouville. On aborde dans la deuxième partie
du chapitre la notion de l’ensemble microcanonique qui correspond aux systèmes les plus
simples vérifiant les postulats de la physique statistique.
ce qui signifie que le liquide formé par les points de l’espace de phase est incompressible.
1.
X ∂ q̇i ∂ ṗi
X ∂2H ∂2H
~ (~v ) =
∇ + = − =0
∂qi ∂pi ∂qk ∂pk ∂pk ∂qk
k k
21
Physique Statistique I CHAPITRE II SMP5
En utilisant cette propriété, avec les équations de Hamilton (I.66) on peut écrire :
~ (ρ~v ) = ∇
∇ ~ (ρ) .~v
X ∂ρ ∂ρ
= q̇i + ṗi
i
∂qi ∂pi
X ∂ρ ∂H ∂ρ ∂H
= −
i
∂qi ∂pi ∂pi ∂qi
= {ρ, H} (II.3)
où nous avons utilisé la définition du crochet de Poisson (I.79) dans la dernière égalité et
les équations de Hamilton (I.66) dans l’avant dernière.
En combinant (II.1) et (II.3) on démontre l’équation de Liouville :
∂ρ ~ (ρ~v ) = −∇ρ.~
~ v = − {ρ, H}
= −∇ (II.4)
∂t
Ainsi, on trouve
∂ρ
+ {ρ, H} = 0 (II.5)
∂t
II.1.2 Postulat 1
Ennoncé :
Si tous les états accessibles d’un système isolé sont également probables, le système
est alors en équilibre. Dans ce cas, la valeur moyenne de toute grandeur physique est
indépendante du temps.
En effet, si tous les états accessibles d’un système isolé sont équiprobables, la densité de
probabilité ρ sera uniforme sur l’espace de phase, et par conséquent aura un gradient nul
~ = 0). Vu l’équation (II.1), ceci implique que ∂ρ = 0 la densité en phase est constante
(∇ρ
∂t
dans le temps aussi i. e. le système est en équilibre statistique, comme l’annonce le postulat
1.
Il est aussi intéressant de considérer la situation inverse i. e., en partant d’un système
en équilibre statistique. avec l’équation (II.5), ceci implique que {ρ, H} = 0. Le crochet
de Poisson peut s’annuler de deux manières différentes dans ce cas :
— Sila densité en phase est uniforme sur l’espace de phase i. e. ∇ρ ~ = 0 où encore
ρ {qi , pi }i=1,2,... = Constante. L’ensemble correspondant à cette distribution de
probabilité est appelé ensemble microcanonique.
— De façon plus générale le crochet de Poisson, s’annule si la dépendance de ρ en les
variables de l’espace de phase découlent d’une dépendance explicite de H i. e.
ρ {qi , pi }i=1,2,... = ρ H {qi , pi }i=1,2,... . (II.6)
Cette condition donne une classe de densités de probabilités décrivant des systèmes
en équilibre. Parmi ces choix, l’ensemble décrit par
ρ {qi , pi }i=1,2,... ∝ e−βH ({qi ,pi }i=1,2,... ) , (II.7)
joue un rôle très important. Cet ensemble est appelé ensemble canonique.
où l’indice H signifie que ces quantités sont interprétées dans la représentation de Heisen-
berg.
Or, par définition la dépendance temporelle est portée par les observables dans la repré-
sentation de Heisenberg :
∂ρH
= 0. (II.18)
∂t
Ceci nous donne
1 ∂ρS
[ρH , HH ] + = 0, (II.19)
ih̄ ∂t H
qui est équivalente à la relation (II.9).
Il devient clair, que dans le cas quantique, la condition nécessaire à l’équilibre est que
∂ρS
= 0. (II.20)
∂t
Faculté des Sciences de Rabat Prof. M. EL BAZ Page 24
Physique Statistique I CHAPITRE II SMP5
Ceci impliquant en utilisant (II.8), que ρ commute avec H : [ρ, H] = 0 i.e. ρ est
conservé.
Il est à noter que dans ce cas la matrice densité est diagonalisable simultanément
avec l’Hamiltonien. Ceci est confirmé en utilisant l’équation (I.35) dans la condition de
∂ρ
stationnarité = 0 qui implique que les éléments non diagonaux sont tous nuls : ρnm =
∂t
0 ∀ m 6= n.
dpi X X
= pj Wji − pi Wij (II.22)
dt j j
dpi X
= Wji (pj − pi ) . (II.23)
dt j
Le produit des parenthèses dans la dernière égalité étant toujours négatif, on démontre
dH
que ≤ 0. L’égalité étant atteinte pour pi = pj ∀i, j le cas où tous les états accessibles
dt
du système sont équiprobables.
Le théorème H stipule ainsi que la fonction H est toujours décroissante, jusqu’à l’ins-
tant où elle atteint son minimum, qui correspond à l’instant où tous les états accessibles du
système sont équiprobables (équilibre statistique), i.e. la fonction H continue de décroitre
jusqu’à ce que le système atteint l’équilibre.
A partir de (II.29) on peut voir ρ(E) comme la dérivée, au sens des distributions, de Θ.
Or il est connu que la dérivée, au sens des distributions, de la fonction de Heaviside est
bien la distribution de Dirac. Ainsi on écrit
On suppose dans ce qui suit que E1 est l’énergie la plus petite admise par le système,
et on définit la fonction : Z E2
Ω(E2 ) = A(ε)dε. (II.34)
E1
En remplaçant A par son expression dans (II.33) et en commutant les intégrales sur
l’espace de phase avec celle sur l’énergie, on aura
Z Z E2 Y
Ω(E2 ) = δ E {qi , pi }i=1,2,... − ε dε dqi dpi . (II.35)
E1 i
En utilisant la propriété
(
Z E2
1 si E1 < E < E2
δ (E − ε) dε = (II.36)
E1 0 si E > E2
2. Dans le cas où le système isolé n’est pas au repos (i.e. on utilise (II.27) au lieu de (II.28)) on aura :
on aura alors Z Y
Ω(E2 ) = dqi dpi . (II.37)
i
∂Ω(E)
A(E) = . (II.38)
∂E
A(E) dE représente donc le volume d’une couche infiniment mince contenue entre les
hypersurfaces de phase d’énergie E et E + dE respectivement.
On définit Φ(E) comme le nombre d’états ayant une énergie inférieur à E et Γ(E) le
nombre d’états ayant une énergie comprise entre E et E + δE :
dΦ(E)
Γ(E) = δE. (II.39)
dE
Entropie et température
Pour un système isolé d’énergie comprise entre E et E + δE, l’entropie est définie par
Entropie statistique
Propriétés :
i). Maximum : Pour un nombre fixé d’événements,N , l’entropie est maximale lorsque
tous les événements sont équiprobables :
1 1 1
S( , , . . . , ) = log N. (III.2)
N N N
Il s’agit dans ce cas d’un manque d’information maximale (où de façon équivalente
d’un désordre maximale).
29
Physique Statistique I CHAPITRE III SMP5
ii). Minimum : Dans le cas où l’un des événements est certains (i.e. ∃ i \ pi = 1, pj =
0 ∀ j 6= i ) on a :
S(0, 0, . . . , pi = 1, . . . , 0) = 0. (III.3)
Dans ce cas il n’y a aucun manque d’information, puisque l’événement est certain.
iii). Croissance : Dans le cas d’événements équiprobables, l’entropie augmente quand le
nombre d’événements augmente. Plus le nombre d’événements possible augmente
moins la connaissance du système est précise.
iv). Événements impossibles : Dans l’évaluation de l’entropie associée à certains événe-
ments, on peut ne pas tenir compte des événements impossibles :
Preuve.
N
X
S (p1 , . . . , pN ) = −k pi log pi
i=1
Xm N
X
= −k pi log pi − k pi log pi
i=1 i=m+1
m N
X pi pi X pi pi
= −kqA log qA − kqB log qB
q
i=1 A
qA q
i=m+1 B
qB
m m N N
X pi pi X X pi pi X
= −kqA log −k pi log qA − kqB log −k pi log qB
i=1 A
q qA i=1 i=m+1 B
q qB i=m+1
p1 pm pm+1 pN
= qA S ,..., − kqA log qA + qB S ,..., − kqB log qB
qA qA qB qB
p1 pm pm+1 pN
= S(qA , qB ) + qA S ,..., + qB S ,..., (III.9
qA qA qB qB
Probabilités continues :
La définition (III.1) peut être généralisée à des événements continues, tels la position
x d’une particule dans un intervalle [a, b]. Dans ce cas le manque d’information peut être
quantifié par l’entropie statistique définie par
Z
S = −k dx p(x) log p(x). (III.16)
L’entropie statistique (III.1) peut être appliquée dans différents domaine de la phy-
sique. Ainsi dans le domaine de la théorie de l’information, l’entropie statistique mesure
les ressources physiques nécessaires au stockage de l’information relative aux événements
associés. Dans ce cas, on prend k = 1 et le logarithme est à base de 2 : log2 et l’unité de
l’entropie est le bit d’information.
En thermodynamique, l’entropie est utilisé comme indicateur du sens d’évolution du
système, garce au second principe de la thermodynamique. Dans la suite, pour pouvoir
appliqué les différents résultats aux résultats de la thermodynamique, on adoptera pour
k = kB la constante de Boltzmann et le logarithme est le logarithme népérien.
plusieurs préparations possibles pour un état quantique décrit par l’opérateur densité ρ.
Chacune de ses préparations est basée sur une loi de probabilité pk et des vecteurs ket |ψi
différents. Or il a été aussi noté que chaque opérateur densité admet une décomposition
spectrale (I.31) et que les valeurs propres de ρ s’interprètent comme des probabilités. Il
est donc logique d’adopter cette préparation pour la définition de l’entropie statistique
de l’état quantique ρ. Ce dernier étant, par définition, diagonal dans cette préparation,
permet d’exprimer l’entropie directement en fonction de ρ :
X
S(ρ) = −k nλn log λn = −kTrρ log ρ. (III.17)
Preuve. On considère que ρ est diagonal dans la base {|vn i} et que ρ0 est diagonal dans
la base {|vn0 0 i}. Dans la base {|vn i} des vecteurs propres de ρ on développe la quantité
suivante
X X
−Trρ log ρ + Trρ log ρ0 = − λn log λn + λn hvn | log ρ0 |vn i (III.19)
n n
X X
= − λn log λn + λn hvn |vn0 0 ihvn0 0 | log ρ0 |vn0 0 ihvn0 0 |vn i
n n,n0
où nous avons introduit la relation de fermeture dans la base {|vn0 0 i} : n0 |vn0 0 ihvn0 0 | = I.
P
Ceci permet d’obtenir :
X X
−Trρ log ρ + Trρ log ρ0 = − λn log λn + λn hvn |vn0 0 i log λ0n0 hvn0 0 |vn i
n n,n0
X λn
= − hvn |vn0 0 ihvn0 0 |vn iλn log 0 . (III.20)
n,n0
λn0
1. Cependant, une attention particulière doit être porté à la notion de mesure en physique quantique.
La mesure quantique, en effet, ne s’effectue pas directement sur le système étudié, mais à travers son
interaction avec l’appareil de mesure. L’état du système est ainsi obtenu en réduisant l’opérateur densité
global. Pour la définition adopté ici on se restreintPau mesures ne réduisant pas l’opérateur densité i.e.
des mesures représentées par des observables A = n an |vn ihvn | commutant avec ρ.
Pour chaque terme de cette somme hvn |vn0 0 ihvn0 0 |vn iλn est positif ou nul et l’on utilise
l’inégalité
log y ≤ y − 1, (III.21)
l’égalité étant atteinte si y = 1. Ceci donne
X
−Trρ log ρ + Trρ log ρ0 ≤ − hvn |vn0 0 ihvn0 0 |vn i (λ0n0 − λn )
n,n0
0
= Trρ − Trρ
= 0. (III.22)
λ0n0
L’égalité est atteinte si y = λn
= 1 i.e. λ0n0 = λn ∀n et n0 . En multipliant le terme de
gauche par la constante k, on démontre le lemme.
ρa = Trb ρ (III.27)
ρb = Tra ρ, (III.28)
et en notant que 2 .
Exemple
On considère un état de deux spin 12 , A et B, intriqués dans l’état (I.50) :
1
|ψAB i = √ {|+, +i + |−, −i} . (III.33)
2
Chacun des sous systèmes a un spin non polarisé comme on l’a démontré dans (I.52,
I.53) et sont décrit par les matrices densité réduites
1 1
ρA = IA ; ρB = IB . (III.34)
2 2
L’entropie de ces deux états réduit est donné par S(ρA ) = S(ρB ) = k log 2. Ces états
présente une entropie maximale, qui est une indication du désordre maximale dans
ces états (en effet, il s’agit d’états maximalement mixtes). De l’autre coté, l’état
global (III.33) étant pur, son entropie est nulle (propriété : ii). Nous avons ainsi,
l’entropie qui est sous additive
ceci est une indication des corrélations quantiques existantes entre les sous systèmes
A et B (intrication). Cette intrication entre les sous systèmes permet d’avoir plus
d’ordre dans le système composé que dans le système séparable ρA ⊗ ρB .
Un autre exemple qui peut être considéré, est l’état séparable :
1
|ψAB i = √ {|+, +i + |+, −i} . (III.36)
2
Cette état est séparable, puisqu’il peut être écrit sous la forme d’un produit tensoriel
de deux états :
1
|ψAB i = |+iA ⊗ √ {|+iB + |−iB } , (III.37)
2
ou de façon équivalente
ρ = ρA ⊗ ρB . (III.38)
Les trois états ρ, ρA et ρB étant des états purs, leurs entropies sont nulles S(ρ) =
S(ρA ) = S(ρB ) = 0, et dans ce cas l’entropie est additive S(ρ) = S(ρA ) + S(ρB ).
vi). Concavité :
L’entropie statistique est une fonction concave sur l’ensemble des opérateurs densité
sur un espace de Hilbert H :
λS(ρ) + (1 − λ)S(ρ0 ) ≤ S (λρ + (1 − λ)ρ0 ) , (III.39)
et ce ∀ρ et ρ0 sur H et 0 < λ < 1. L’égalité dans (III.39) est atteinte si ρ = ρ0 .
On peut en conclure alors que lors de l’évolution dans le temps d’un système, l’entropie
ne peut qu’augmenter indiquant une perte d’information sur le système. L’entropie peut
rester constante que si l’évolution est parfaitement déterminée. L’entropie ne peut pas
diminuer.
Si le nombre de particule est bien fixé, la sommation sur N n’est pas utilisée.
Presque toutes les propriétés énoncées pour l’entropie statistique quantique restent va-
lables pour le cas classique en utilisant les relations de correspondances (I.80) et (I.81).Cependant
la propriété ii n’est plus valide. En effet, dans le cas quantique, l’entropie statistique est
non-négative et la valeur minimale est zéro, obtenu pour un état pur. Cependant dans le
cas classique, l’entropie peut être négative. Dans un tel cas, ceci est une indication que
l’état classique considéré, n’admet pas d’équivalent quantique. Ceci est le cas par exemple
avec l’état classique représenté par la densité en phase
X
ρ (~r1 , p~1 , . . . , p~N ) = h3N δ 3 ~r1 − ~ri01 δ 3 p~1 − p~0i1 . . . δ 3 p~N − p~0N1 ,
(III.51)
Distribution de Boltzmann-Gibbs
39
Physique Statistique I CHAPITRE IV SMP5
phase) correspond à une entropie statistique maximale, compatible avec les contraintes
imposées sur ρ :
Principe de l’entropie statistique maximale :
Parmi toutes les distributions statistiques, compatibles avec les données, le système doit
être représenté par le macro-état correspondant à la valeur maximale de l’entropie statis-
tique S(ρ).
— On cherche alors les valeurs des variables {xk }k=1,2,...,K pour lesquels la fonc-
tion f est stationnaire sous les contraintes (IV.1).
— On associe à chaque contrainte (IV.1), un multiplicateur de Lagrange λj avec
j = 1, 2, . . . , J, et on définit l’expression suivante
J
X
f ({xk }k=1,2,...,K ) − λj gj ({xk }k=1,2,...,K ). (IV.2)
j=1
tandis que les informations de natures statistiques, de l’autre côté doivent être imposés
comme des contraintes sur ρ sous la forme
pour chaque observable Ai dont on connait la valeur moyenne. On ajoute à ses contraintes,
la condition de normalisation de l’opérateur densité 3 : Trρ = 1.
On peut alors appliquer la méthodes des multiplicateurs de Lagrange, rappelée dans
le texte encadré précédent, pour trouver l’opérateur densité ρ permettant de maximiser
l’entropie statistique S(ρ), en tenant comptes des contraintes imposée sur ρ. On applique
la méthode en prenant en compte les analogies suivantes avec les quantités apparaissant
dans le texte encadré :
où on a utilisé δTrf (A) = TrδAf 0 (A) pour une fonction, bien définie et dérivable d’un opé-
rateur A. Ceci étant valable pour des variations arbitraires et indépendantes des quantités
hk|δρ|k 0 i les coefficients associés doivent s’annuler :
!
X
0
hk | log ρ + λi Ai + λ0 + 1 |ki = 0 ∀ k et k 0 . (IV.11)
i
ou encore
1 − P i λi A i
ρ=
e , (IV.13)
Z
où on a introduit la fonction de partition
Z = e−λ0 −1 . (IV.14)
En supposant que ρ0 donne les même valeurs moyennes que ρ pour les observables consi-
dérées 5 i.e. hAi i = TrρAi = Trρ0 Ai on voit que
hAi i = TrρAi
1 P
= Tr e− j λj Aj Ai
Z
1 ∂ P
= − Tr e− j λj Aj
Z ∂λi
1 ∂Z
= − (IV.19)
Z ∂λi
ou encore
∂
hAi i = − log Z. (IV.20)
∂λi
Les multiplicateurs de Lagrange peuvent être alors obtenus en inversant l’équation (IV.20),
une fois la fonction de partition est connue. Cependant en pratique, on évite d’inverser
cette équation en considérant que ce sont les λi (et non les valeurs moyennes hAi i) qui sont
les paramètres qui caractérisent l’équilibre. En effet, les multiplicateurs de Lagrange intro-
duits ici comme un outil mathématique, s’avèrent avoir des significations macroscopiques
directes comme on le verra on traitant des exemples d’ensembles statistiques.
En utilisant la fonction de partition on peut aussi facilement calculer les corrélations
et les fluctuations statistiques (hAi Aj i − hAi ihAj i) des observables Ai , dans le cas où ces
observables commutent. En effet, nous avons
1 P
hAi Aj i = TrAi Aj e− k λk Ak ,
Z
1 ∂2 P
= Tr e− k λk Ak ,
Z ∂λi ∂λj
1 ∂ 2Z
= , (IV.21)
Z ∂λi ∂λj
et
1 ∂Z ∂Z
hAi ihAj i = . (IV.22)
Z 2 ∂λi ∂λj
Ce qui donne l’expression des corrélations et des fluctuations statistiques des observables
Ai en terme de la fonction de partition :
1 ∂ 2Z 1 ∂Z ∂Z
hAi Aj i − hAi ihAj i = − 2
Z ∂λi ∂λj Z ∂λi ∂λj
2
∂
= log Z (IV.23)
∂λi ∂λj
En considérant S comme fonction des hAi i, comme le montre (IV.27), cela donne
1 ∂S
λi = . (IV.28)
k ∂hAi i
Cette équation permet d’interpréter les multiplicateurs de Lagrange, comme le taux de
changement dans l’entropie statistique, lorsque l’équilibre est modifié.
Dériver une deuxième fois cette équation, par rapport à hAj i donne
1 ∂ 2S ∂λi ∂λj
= = . (IV.29)
k ∂hAi i∂hAj i ∂hAj i ∂hAi i
Il est facile de constater la symétrie entre la fonction log Z comme fonction des multipli-
cateurs de Lagrange λi d’un côté et de l’entropie statistique (S/k en fait) comme fonction
des données hAi i de l’autre côté. La transformation (IV.24), permettant de passer de l’une
à l’autre, n’est rien d’autre qu’une transformation de Legendre.
La situation est réminiscente de la situation en thermodynamique, où l’énergie libre
F = E − T S est obtenue à partir de l’énergie interne par une transformation de Legendre,
et on a
dE = T dS dF = −SdT (IV.33)
où les variables températures et entropie apparaissent comme des variables conjuguées de
l’énergie libre et de l’énergie interne, respectivement. En effet, en utilisant (IV.28) dans
(IV.32) et en multipliant par −kT on obtient
X
− kT log Z = −T S + T hAi iλi . (IV.34)
i
Tandis que l’Hamiltonien global H ainsi que les constantes de mouvement globales en
générale Ai s’écrivent comme des somme directes des Hamiltoniens H q et constantes de
mouvement Aqi agissant sur les espaces de Hilbert réduits Hq :
Ai = ⊕q Aqi . (IV.37)
où on a introduit les opérateurs Kq = i λi Aqi agissant sur les espaces de Hilbert réduits
P
Hq . L’équation (IV.38) permet de voir que dans le cas d’un système composé de parties
indépendantes la fonction de partition globale est factorisable, en produit de fonction de
partition associées à chacune des parties du système :
Y
Z= Zq avec Zq = Trq e−Kq . (IV.39)
q
Dans ce cas on a
1 −⊕q Kq 1 −Kq
ρ= e = et ρq = e . (IV.41)
Z Zq
Il est à noté que la sommation ici est sur tout les états à N particules i.e. sur tous les
vecteurs propres |mi et non pas sur les valeurs propres Em . Si les niveaux d’énergie sont
dégénéré, alors on peut écrire la sommation sur les niveaux d’énergie Em
X
ZC = g(Em ) e−βEm . (IV.46)
Em
∂S
qu’en comparant à ∂E = T1 , où T est la température du système, permet d’interpréter β
comme étant la température inverse
1
β= , (IV.51)
kT
avec k étant la constante de Boltzmann.
L’équation (IV.49) peut être réarrangé sous la forme
− kT log ZC = E − T S, (IV.52)
qu’en comparant à la définition thermodynamique de l’énergie libre de Helmoltz
F = E − T S, (IV.53)
permet d’écrire
F = −kT log ZC . (IV.54)
Comme indiqué au départ, dans le cas de l’ensemble canonique, l’énergie n’est pas
définie exactement. Ses fluctuation sont alors donnée par (IV.23, IV.31) :
∂ 2 log Z ∂ 2S
h(HN − E)2 i = hHN2 i − hHN i2 = = −k/ 2 . (IV.55)
∂λi ∂λj ∂E
La quantité TrN (ρN ) donne dans ce cas la probabilité que le système contienne N parti-
cules.
On note par β et −µ̃, les multiplicateurs de Lagrange associés aux contraintes (IV.57)
respectivement. L’opérateur densité (IV.13) dans le cas grand canonique s’écrit alors
1 −βH+µ̃N̂
ρ= e . (IV.60)
ZG
La grande fonction de partition s’écrit
N
X X X
ZG (β, µ̃) = Tr e−βH+µ̃N̂ = eµ̃N e−βEm = eµ̃N ZC (β, N ) . (IV.61)
N m N
Ω = E − T S − µN (IV.65)
avec
µ̃
µ = kT µ̃ = , (IV.66)
β
le potentiel chimique.
Comparer (IV.64) et (IV.65) permet d’interpréter la quantité −kT log ZG comme étant
le grand potentiel :
Ω = −kT log ZG . (IV.67)
9. aussi appelé énergie libre de Gibbs.
Si les molécules peuvent changer de type via des réactions chimiques par exemple,
alors les constantes de mouvement ne sont plus les nombres de molécules mais le nombre
d’atomes les composant. Les relations précédentes restent alors valables avec Na , Nb , . . .
notant cette fois-ci le nombre totale des atomes de différents types.
Toutes les relations établies précédemment entre les moyennes hAi i et les multiplica-
teurs de Lagrange (IV.20-IV.35) restent inchangées.
L’ensemble canonique classique, est décrit par une relation similaire à (IV.43), sauf
que dans ce cas la densité en phase ρN et l’Hamiltonien HN ne sont plus des opérateurs sur
(N )
l’espace de Hilbert mais des fonctions sur l’espace de phase EP . La fonction de partition
(IV.45) devient alors Z
Z= dτN e−βHN . (IV.78)
L’ensemble grand canonique est décrit par la densité ρ avec des composantes ρN dans
(N )
chacun des espaces de phase à 6N dimensions EP :
1 −βHN +µ̃N̂
ρN = e , (IV.79)
ZG
et la fonction de partition est obtenue à partir de la fonction de partition canonique (IV.78)
en utilisant une transformée de Laplace similaire à la dernière équation dans (IV.61).
Applications
La probabilité
dP = ρ(q, p)dqdp, (V.2)
pourra être factorisée en produit de deux termes, l’un ne dépendant que des coordonnées
de positions et l’autre que des impulsions.Dans le cas de l’ensemble canonique cela donne
U (q) K(p)
dP = α e− kT
− kT
dqdp ,
U (q) K(p)
− −
= αe kT dq e kT dp, (V.3)
avec α un facteur de proportionnalité, determiné en imposant la normalisation de la
probabilité.
La probabilité sur les impulsions s’écrit alors
K(p)
dPp = a e− kT dp, (V.4)
et celle sur les coordonnées : U (q)
dPq = b e− kT dq, (V.5)
où a et b sont des facteurs de normalisation des probabilités corresepondantes.
A son tour, la probabilité sur les impulsions est aussi factorisable car l’impulsion
P p2
s’écrit comme somme de termes indépendants K(p) = i 2mi . Pour chaque particule, la
probabilité sur l’impulsion s’écrit alors
p2 2 2
x +py +pz
−
dPp = a e 2mkT dpx dpy dpz . (V.6)
53
Physique Statistique I CHAPITRE V SMP5
1 p2 2 2
x +py +pz
dPp = 3 e− 2mkT dpx dpy dpz . (V.11)
(2πmkT ) 2
avec
3 ~2
p
g(~p) = (2πmkT )− 2 e− 2mkT . (V.15)
p~2 p~2
Z
h i = d3 p~ g(~p)
2m 2m
p~2
Z
− 32 ~2
p
= (2πmkT ) d3 p~ e− 2mkT
2m
Z
− 32 d 3 ~2
p
− 2mkT
= − (2πmkT ) d p~ e ,
dβ
Z 3
− 23 d p2
− 2mkT
= − (2πmkT ) dp e , (V.16)
dβ
p~2 3
h i = (kT )−3/2 β −5/2
2m 2
3
= kT. (V.17)
2
Dans la suite on s’intéresse aux cas où l’Hamiltonien ne contient que des termes qua-
dratiques en les variables de l’espace de phase :
s
X
ai p2i + bi qi2 .
H= (V.23)
i=1
Pour un gaz parfait occupant une boite de volume V , les seuls forces s’exerçant sur
les particules sont dues aux parois, et sont représentées par la pression P :
F~i = −P dS
~i . (V.27)
Le viriel s’écrit alors X I
V=h ~ri .F~i i = −P ~
~r.dS. (V.28)
i S
Une comparaison de ce résultat avec l’équation (V.26) permet d’écrire l’équation du gaz
parfait :
P V = N kT. (V.30)
Cette équation peut être réecrite sous la forme usuelle
P V = nRT, (V.31)
sachant que le nombre de particules par mole s’écrit n = NNA , où NA = 6 × 1023 est le
nombre d’Avogadro. La constante des gaz parfaits, R = 8.3 J.K −1 .mol−1 , s’écrit alors en
fonction de la constante de Boltzmann k = kB = 1.38 × 10−23 J.K −1 par R = k NA .
2. Théorème du viriel : Pour un système de particules de masses m, décrits par leurs positions ~ri
et impulsions p~i , soumises à des forces F~i alors on a
X p~2 1 X ~
i
h i=− h ~ri Fi i.
2m 2
P ~2i
p
3. L’Hamiltonien d’un gaz parfait composé de N particules libres est donné par H = 2m et contient
donc 3N termes quadratiques.
L’élément de volume de l’espace de phase est donné par (I.64), sachant que les particules
sont indiscernables dans ce cas.
Dans la suite on calcul la fonction de partition du système, et on l’utilise pour dériver
les propriétés thermodynamiques du gaz.
N 3
d r~i d3 p~i −β PNi=1 p~2i
Z Y
1
ZC = e 2m ,
N ! i=1 h3
(Z1 )N
= . (V.38)
N!
avec Z 3 3
d r~i d p~i −β PNi=1 p~2i
Z1 = e 2m (V.39)
h3
est la fonction de partition à une seule particule. Il est à noté que ce résultat (V.38),
peut être retrouvé en utilisant la factorisation de la fonction de partition IV.1.5, puisque
par définition le gaz parfait est composé de particules indépendantes sans interactions
mutuelles.
L’intégrale sur la position dans la fonction de partition à une particule donne le volume
occupé par le gaz : Z
d3 r~i = V, (V.40)
tandis que l’intégrale sur l’impulsion donne
p2 2 2
Z ZZZ
~2
p i ix +piy +piz
−β 2m
3
d p~i e = dpix dpiy dpiz e−β 2m
Z 3
p2
−β 2m
= dp e .
(V.41)
Cette dernière intégrale est de la forme (V.8). On aura donc
Z 3/2
~2
p i 2πm
3 −β 2m
d p~i e = . (V.42)
β
La fonction de partition à une particule est donc
3/2
V 2πm
Z1 = 3 . (V.43)
h β
Énergie libre :
L’énergie libre de Helmoltz (IV.54) s’écrit :
dF = −P dV − S dT (V.48)
la pression est obtenue en dérivant l’énergie libre par rapport au volume :
∂F
P =− , (V.49)
∂V T
et on trouve
N KT
P = , (V.50)
V
ce qui permet de retrouver l’équation du gaz parfait :
P V = N kT. (V.51)
Entropie d’équilibre :
A partir de (V.48), on obtient l’entropie en dérivant l’énergie libre par rapport à la
température :
∂F
S=− . (V.52)
∂T V
L’énergie interne :
On utilise la relation (IV.53) reliant l’énergie interne à l’énergie libre pour écrire
E = F + T S, (V.55)
ce qui nous permet d’écrire, l’expression de l’énergie interne en fonction de la température
3
E = N kT. (V.56)
2
Ce résultat est compatible avec le théorème de l’équipartition de l’énergie (V.25) démontré
dans la section V.2.
Enthalpie :
L’enthalpie est obtenue en ajoutant le terme P V à l’énergie interne :
H = E + PV
5
= N kT, (V.59)
2
où on a utilisé l’équation du gaz parfait (V.51) et l’expression de l’énergie interne en
fonction de la température (V.56).
La loi de Mayer :
En utilisant les expressions des chaleurs spécifiques à volume constant et à pression
constante, on peut écrire la loi de Mayer pour les gaz parfaits :
5
CP − CV = N k. (V.62)
2
63