Vous êtes sur la page 1sur 220

Physique statistique

Cours
Bibliographie
Roger Balian
Du microscopique au macroscopique
Cours de physique staristique de l’école polytechnique
(ellipses 1982)
Henri Bacry
Introduction aux concepts de la physique statistique (ellipses
1991)
Frederick Reif
Physique statistique volume 5 (armand colin 1972)
L.D. Landau et E.M. Lifshitz
Physique statistique (3ème edition 1980)
http://www.math.jussieu.fr/~helein/cours/mq.pdf
http://www.phys.ens.fr/~dalibard/
Chapitre 1 Introduction
1. Les états de la matière
 L’état solide : Les particules ne bougent pas ou très
peu. On peut avoir des solides cristallins où les
particules occupent des sites particuliers. On a aussi
des solides dits amorphes où la position des
particules est aléatoire.
 L’état liquide : Les particules sont libres et peuvent se
mouvoir dans différentes directions.
 L’état gazeux : Les particules sont complètement libres
et les interactions entre ces particules sont très faibles.
Chapitre 1 Introduction
2. Mouvement Brownien

Quand on observe une goutte d’un liquide au microscope,


les particules en suspension ont un mouvement aléatoire.
Chapitre 1 Introduction
2. Mouvement Brownien

chocs

Le mouvement d’une particule en suspension est dû aux


chocs successifs avec les molécules du liquide.
Chapitre 1 Introduction
3. Définition d’un système
• C’est l’ensemble des corps compris à l’intérieur d’une
surface fermée.

1er système : gaz

2ème système : gaz


+ chauffage

Un système macroscopique contient un nombre très grand de


particules de l’ordre du nombre d’Avogadro.
Chapitre 1 Introduction
3. Définition d’un système
4. Un système est isolé s’il n’échange ni énergie ni
matière avec le reste de l’univers. Un système fermé
échange de l’énergie mais pas de la matière avec le
reste de l’univers. Un système ouvert échange de
l’énergie et de la matière avec l’univers
Chapitre 1 Introduction
4. Description macroscopique d’un système

Particules en
mouvement

Pour suivre l’évolution d’un système macroscopique,


il suffit de résoudre l’équation dynamique du
mouvement pour toutes les particules comprises dans
ce système. Cela fait environ 1024 équations à résoudre.
Chapitre 1 Introduction
4. Description macroscopique d’un système

• En plus, il faut tenir compte des différentes


interactions entre les particules et connaitre à l’instant
initial la position et la vitesse de chacune de ces
particules.
• Les ordinateurs à l’heure actuelle ne sont pas assez
puissants pour faire ce calcul.
• Donc même si on sait formuler le problème, il est
impossible matériellement de le résoudre.
Chapitre 1 Introduction
4. Description macroscopique d’un système

5. Pour un gaz parfait confiné dans un volume V, la


thermodynamique nous enseigne que pour connaître
l’état de ce gaz , il suffit de connaître quelques
variables macroscopiques tels que la température,
pression... Ce sont les variables d’état du système.
Chapitre 1 Introduction
4. Description macroscopique d’un système
• Variables d’état intensives, extensives

V1 V2

Considérons les deux volumes V1 et V2 contenant de


l’eau et échangeant de l’énergie.
Chapitre 1 Introduction
4. Description macroscopique d’un système

V1 V2

La température après un certain temps va être égale dans les


deux volumes : T1= T2=T.
Si on met les deux volumes en contact:
les volumes vont s’additionner pour donner le volume
total :V= V1+ V2.
Chapitre 1 Introduction
4. Description macroscopique d’un système

5. On dit que la température est une variable d’état


intensive tandis que le volume est une variable d’état
extensive.
 Variables intensives : T, P , ,…
 Variables extensives : V, m, …
Chapitre 1 Introduction
4. Description macroscopique d’un système
• Physique classique, physique statistique
 Physique classique : Etude des systèmes
macroscopiques sans faire appel à la structure
microscopique. Elle est basée sur les principes
généraux de la thermodynamique, de la mécanique, de
l’électromagnétisme.
 Physique statistique : Etude des systèmes
macroscopiques à partir de la structure
microscopique tout en considérant un nombre élevé
de particules.
Chapitre 1 Introduction
5. Equilibre d’un système
6. Un système macroscopique est dit en équilibre si
les variables d’état ne varient pas en moyenne dans le
temps.
7. 1er exemple :
La concentration de l’eau c(t) varie au
cours du temps:
Situation initiale : coloration non
homogène.
 Situation finale : coloration violette
homogène, donc on a un équilibre
(plus d’évolution au cours du temps).
Chapitre 1 Introduction
5. Equilibre d’un système
6. Remarque :
• A l’équilibre, on a des mouvements microscopiques
mais pas d’évolution macroscopique.
2ème exemple
N1(t) N2(t)
Chapitre 1 Introduction
5. Equilibre d’un système

On s’intéresse à l’évolution du nombre de molécules


dans chaque moitié du volume.
Même en équilibre le nombre de particules dans une
moitié du volume fluctue autour de la valeur moyenne
N/2.
Chapitre 1 Introduction
5. Equilibre d’un système

N 1 (t )
La valeur moyenne N 1 (t ) est

constante et est égale à N


N 2
2
Chapitre 1 Introduction
6. Equation d’état
7. L’expérience montre qu’il suffit de connaitre deux
variables pour caractériser l’état d’un système.
8. Exemples :
 Gaz parfait: l’équation d’état du gaz parfait P V  n R T
 Un fil métallique tendu

L’équation d’état du fil relie:


la température T, la tension du fil 
et la longueur du fil L: L=f(T, ).  F

F
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


Etude d’un système → résoudre les équations de
mouvement de n particules (n  1)
→ où méthode statistique qui est
d’autant meilleure que n est élevé.
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


• On considère un système (S) sur lequel on effectue N
mesures d’une grandeur physique a.
• On obtient les valeurs a1, a2, a3, a4, a5,… ai, …. an.
• Chacune de ces valeurs est réalisée un certain nombre
de fois.
• Par exemple la valeur ai est réalisée Ni fois.
Ni
• Sa fréquence est donné par le rapport : N .
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
• lorsque N tend vers l’infini, la limite de cette fréquence
donne la probabilité de réaliser la valeur ai.
Ni
Pi  lim
N  N
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


2. On peut procéder pour la mesure de la probabilité
Pi de deux manières suivantes :
 On doit répéter un grand nombre N de fois la mesure
pour le même système.
 On prend un grand nombre N de systèmes identiques
au système (S) et on mesure pour chacun d’eux la
grandeur a.
L’ensemble des N systèmes identiques est appelé
ensemble statistique
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


2. Le résultat de la mesure de la grandeur a est
appelé en terme de probabilité : événement.
3. L’ensemble de tous les événements  est appelé
espace entier ou univers des possibles:    a , a , a , ..., a , ...a
1 2 3 i n 

4. Par opposition,  est l’espace vide ou l’événement


impossible.
5. Exemple:
6. Lancer une pièce: 2 événements ={Pile, Face}
7. Lancer un dé : 6 événements ={1,2,3,4,5,6}
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


2. Avec l’ensemble statistique on peut soit :
 Mesurer la grandeur a pour chacun de ces systèmes.
 Construire un ensemble représentatif en mettant a
priori le nombre N1 de résultats pour la valeur a1 et N2
pour la valeur a2 …
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
2. Exemple:
3. Considérons le lancer d’une pièce :

 On peut avoir N pièces identiques et le lancer de ces


pièces donne par exemple:

NF = NP = N/2
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités


 Si la pièce n’est pas truquée et que les faces sont
parfaitement identiques (le centre de gravité
coïncide avec le centre géométrique)

NF
= NF = NP = N/2
NP
Chapitre 2 Notions de probabilités

2.Propriétés
3. Considérons deux événements A et B:
 L’événement AB est l’événement A ou B (réalisé si
soit A soit B est réalisé).
 L’événement AB est l’événement A et B (réalisé si
à la fois A et B sont réalisés).
A

AB
AB
B
Chapitre 2 Notions de probabilités

2. Propriétés
 Deux événements A et B sont dits incompatibles ou
exclusifs si AB= ( ne peuvent pas être réalisés
simultanément comme par exemple pour le lancer
d’un dé l’événement 1 et l’événement 3).

A
A
AB

B
B

A et B événements non exclusifs A et B événements exclusifs


Chapitre 2 Notions de probabilités

2. Propriétés
 P()=1
 P( )=0
 Pour deux événement incompatibles A et B, la
probabilité de AB est P(AB)=P(A)+P(B).
 Pour deux événements quelconques A et B, la
probabilité de AB est P(A B)=P(A)+P(B)- P(AB)
(voir demo TD)
 Pour deux événements indépendants A et B, la
probabilité de AB est P(AB)=P(A)*P(B)
Chapitre 2 Notions de probabilités

Probabilité conditionnelle
3.
4. C’est la probabilité de réaliser l’événement A
lorsque l’événement B est réalisé. Elle est donnée par :
P(A B)
P(A /B) 
P(B)
5. Dans le cas ou les deux événement A et B ne sont
pas
6. indépendants, on a: P(AB)=P(B)*P(A/B),
7. Exemple
8. le lancer d’un dé: Evénement A: 3
9. P(A/B)=1/4
10. Evénement B: 3
Chapitre 2 Notions de probabilités

4. Valeur moyenne écart quadratique


5. Valeur moyenne:
6. a1, a2, …, ai…an
N 1 a1  N 2 a 2  ...  N i a i  ...  N n a n
7. a 
N 1  N 2  ...  N i  ...  N n
 
8. N1, N2,…, Ni,…Nn N
n

9. Propriétés : a   P ( ai ) ai
i 1
 .f ( a )   P ( a ) f ( a )
n

i i

 .f ( a )  g( a )  f ( a )  g ( a )
i 1

 . f ( a )   f ( a )
Chapitre 2 Notions de probabilités

4. Valeur moyenne écart quadratique


5. Ecart quadratique:
6. C’est une mesure de dispersion.
a i  a i  a  a i  0
7. Donc pour mesurer la dispersion on utilise :
   a 0
2
i 
fréquence d’apparition

 aai a
: Dispersion relative
a
 2
: Variance
Chapitre 2 Notions de probabilités

5. Distribution binomiale
a. Quelques rappels
 Factoriel : N entier, N ! = N( N-1)(N-2)…2x1
 Permutation : Considérons un nombre N d’éléments numérotés
de 1 jusqu’à N. on dispose de N cases pour les ranger. Le nombre
de permutations est égal au nombre de façons de ranger les N
éléments dans les N cases.
Chapitre 2 Notions de probabilités

5. Distribution binomiale
a. Quelques rappels:
b. On a N possibilités de remplir la 1ère case
c. N-1 possibilités de remplir la 2ème case
d. 
e. 
f. 1 possibilité de remplir la dernière case
g. Finalement, c’est N(N-1)(N-2)….2x1 = N ! Permutations
Chapitre 2 Notions de probabilités

5. Distribution binomiale
a. Quelques rappels:
 Arrangements:
Considérons un nombre N éléments et un nombre n cases.
Pour remplir la 1ère case, on a N possibilités
Pour la 2ème case on a N-1 possibilités
Pour la nème case on a N-n+1 possibilités.
Finalement, c’est N(N-1)(N-2)…(N-n+1) arrangements de n
N!
éléments parmi N éléments A n

N n !
N
 
Chapitre 2 Notions de probabilités

5. Distribution binomiale
a. Quelques rappels:
 Combinaison :Le nombre de combinaisons de n
éléments choisis parmi N éléments ne dépend pas de
l’ordre avec lequel on remplit les cases .

Même combinaison mais arrangements différents


Chapitre 2 Notions de probabilités

5. Distribution binomiale
a. Quelques rappels:
Le nombre de combinaison est donc égal au nombre
d’arrangements divisé par le nombre de permutations n !
n
AN
CN
n

n!

Soit:

N!
CN
n

N  n ! n !
Chapitre 2 Notions de probabilités

5. Distribution binomiale
b. Distribution binomiale
c. Problème de la marche au hasard : On prend l’exemple d’un
d. homme qui se déplace sur une ligne droite. Il n’as le droit que de
faire
e. un pas soit vers la gauche soit vers la droite. Chaque pas qu’il
fait est d
f. indépendant du pas précédent. Soit d la longueur d’un pas qui est
g. constante.

droite
gauche

La probabilité de faire un pas vers la droite est p et celle de faire un


pas vers la gauche est q : p + q = 1
Chapitre 2 Notions de probabilités

5. Distribution binomiale
b. Distribution binomiale
• Question: Après N pas au total, quelle-est la
probabilité que l’homme ait fait n pas a droite?
• Réponse: Il s’agit de savoir combien on peut former
de combinaisons de n pas à droite parmi N pas au
total et quelle est la probabilité de chacune de ces
combinaisons?
• Donc cette probabilité est proportionnelle à : C
n
N
• Les pas sont indépendants donc la probabilité d’une
séquence est : P ( n )  p q 
n N n
c
Chapitre 2 Notions de probabilités

5. Distribution binomiale
• Distribution binomiale

• Exemple au tableau
Chapitre 2 Notions de probabilités

5. Distribution binomiale
b. Distribution binomiale
c. Les combinaisons sont exclusives . Donc la probabilité
de
d. réaliser n pas à droite parmi N pas au total est :
P (n)   Pc ( n )

Soit,
n
P (n)  C Nn n
p q
N

Loi de probabilité binomiale


Chapitre 2 Notions de probabilités

5. Distribution binomiale
b. Distribution binomiale
c. Proptiétés:
TD → La valeur la plus probable de n est : nmax= Np n=
L’écart quadratique  est:  = pqN
Chapitre 2 Notions de probabilités

5. Distribution binomiale
c. Distribution Gauss
d. On considère la distribution binomiale lorsque N  1.
e. Question: Quelle-est la valeur n pour laquelle p(n) est
f. Maximale?
Réponse: P(n) max → log(P(n)) max
d l og  P ( n )  l og ( P ( n  1)  l og  P ( n )   P ( n  1) 
  l og  
dn n 1  n  P ( n ) 
Car: N  1 → n  1 → n+1-n  dn (n peut être considérée
comme une variable continue).
Chapitre 2 Notions de probabilités

5. Distribution binomiale
c. Distribution Gauss
d. En remplaçant par leur expression P(n+1) et P(n), on a :
d l og  P ( n )   N n p 
 l og   0  n  N p  n
e. dn  n q  limité de log(P(n)) au voisinage de
Le développement :
n
2

d l og  P ( n )  n n 2
d l og  P ( n )  n n
l og  P ( n )   l og  P ( n )    2
 ...
dn 1! dn 2!
 n n


 n n

f. Ce qui donne finalement la distribution de Gauss :


0 1

N pq

1
 ( n n )
2

2
P (n)  P (n) e
2
Chapitre 2 Notions de probabilités

5. Distribution binomiale
b. Distribution binomiale
c. Proptiétés:
TD → La valeur de P(n ) est calculée en T.D.
Chapitre 2 Notions de probabilités

5. Distribution binomiale
c. Distribution Gauss

P( n )

P (n)
P( n ) /e n n 2   P (n) 
 e

n
Chapitre 2 Notions de probabilités

6. Application: Gaz parfait dans un volume V


7. On considère un gaz parfait isolé et à l’équilibre dans
une
8. boite de volume V.
9. La probabilité pour qu’une molécule soit à droite est p
et
10. celle pour qu’elle soit à gauche est q.

11. n et n’ ne sont pas constants.


N n
12. P ( n )  C Nbinomiale:
Distribution n n
p q
13.
Chapitre 2 Notions de probabilités

6. Application: Gaz parfait dans un volume V


7. Si V = V’ = V/2 → p = q = 1/2 → n  N
8. P(5) ~1/4 et P(2) ~1/23 2

9.x x x
x
Situation uniforme : P(5) > P(2)
x x x x
x x

10.xx x
x
x
x
x Situation non uniforme : P(2) < P(5)
x
x
x
Chapitre 2 Notions de probabilités

6. Application: Gaz parfait dans un volume V


7. La probabilité P(0):
 N=4
4
1  1
x P (0) C 4
0
  
x x  2  16
x Une image sur 16 apparaîtra sous cette forme

 N=Na
Na
1 1 1
P (0) C N 0
    1
2
24 23
a 10 3 x 10
2 10
23
3 x 10
Une image sur 1 0 apparaîtra sous cette forme
Si on prend une image par seconde il faut attendre
23

Environ 1 0 3 x 1 0 milliards d’années pour voir apparaitre


cette forme. L’âge de l’univers: 15 milliards d’années
Chapitre 2 Notions de probabilités

6. Application: Gaz parfait dans un volume V


7. Conclusion
 La situation de n = 0 est pratiquement irréalisable sa
probabilité tend vers 0.
 Pour un système macroscopique où N ~ Na, la mesure
de n donnera toujours la valeur moyenne.
Chapitre 3 Description d’un système
statistique classique
On va combiner les lois de la mécanique classique avec
les lois de probabilités.
1. Rappel de mécanique
2. Soit un système de N particules.
3. Soit un repère galiléen (S) et vi est la
4. vitesse de la particule i par rapport à (S).
L’énergie cinétique du système est donnée par :
1
E c ( s)  mi v i
2

i 2
Chapitre 3 Description d’un système
statistique classique
1. Rappel de mécanique
2. On considère le repère barycentrique (B) tel que:
   (S) (B)

vi  v i (B )  v G (S)
G

3. Le théorème de Koenig nous donne:


1
E c (S)  E c(B)  m vG
2

2
4. m est la masse totale du système

5. Pour un système isolé, L’énergie mécanique E est une constante.


6. Si les forces internes dérivent d’un potentiel, alors l’énergie
7. mécanique du système est :
1
E (S)  E c(B)  E p  m vG 2
 2
E n er g i e i n t er n e U
Chapitre 3 Description d’un système
statistique classique
1. Rappel de mécanique
2. Généralement on considère un système au repos (Vg =
0).
3. Pour un système isolé, l’énergie mécanique E(S) est
4. constante donc l’énergie interne U est constante aussi.
5. Remarque:
E ( B )  E (i n t)
c p U  E ( B )  E (i n t)
c p

 Si fluctue alors
 L’énergie potentielle est définie à une constante prés.
Donc, l’énergie interne est définie aussi à une
constante prés. C’est sa variation qui possède une
signification physique.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
a) Etat macroscopique et état microscopique
 Etat macroscopique : donnée des paramètres
macroscopiques tels que la température, la pression,
l’énergie….
 Etat microscopique : donnée de l’état précis de toutes
les particules du système. Par exemple, pour un gaz de
molécules : l’état microscopique de ce système est
connu si on connait les données de position et
d’impulsion de toutes les molécules contenues dans
ce gaz.
Chapitre 3 Description d’un système
statistique classique
b) Espace de phase
c) Degré de liberté
d) Le nombre de degrés de liberté d’un système f est
égal
e) au nombre de coordonnées spatiales indépendantes à
f) l’aide desquelles on décrit le système.
g) Exemple:
G
h) Une molécule monoatomique, f =3
i) Une molécule diatomique, f =5
j) Un gaz parfait de N molécules monoatomiques, f =3N
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
c) Exemple du gaz parfait monoatomique
d) On considère un gaz parfait monoatomique de N
molécules.
 
 Etat macroscopique: donnée de T,r P U,….. pi
i

 Etat microscopique : donnée de et , i = 1…N.


On a : 6 N paramètres pour déterminer l’état microscopique
du gaz.
Le nombre de degré de liberté est, f =3N
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 1 degré de liberté
On considère une masse m accrochée à un ressort.
L’ensemble forme un oscillateur harmonique.

Système = (support + ressort + m)


x
Le système est isolé. D’autre part, le support qui est le mur
est confondu avec le centre de gravité de système donc:  v 0
Par conséquent l’énergie interne U est constante.
G
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 1 degré de liberté
U  Ec E p
2
1 px 1
U   mx
2

2 m 2
M(x,px)
d) A un instant donné, l’état du système estp x

e) décrit par la coordonnée x et la quantité


f) de mouvement px.
x
g) Le point M se déplace dans l’espace de phase à deux
h) dimensions.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 3 degrés de liberté
Un atome qui se déplace dans une boite de volume V.
L’état de l’atome est déterminé par la donnée des 3
coordonnées de l’espace et des 3 composantes de
l’impulsion : M(x,y,z,px,py,pz).
L’espace de phase est à 6 dimensions.
M est le point représentatif de l’état microscopique
du système et se déplace dans l’espace de phase au cours
du temps.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 3 N degrés de liberté
C’est le cas d’un gaz de N molécules monoatomiques.
L’état est représenté par le point M de coordonnées dans
l’espace de phase telles que :
x1…xN ;y1…yN ;z1…zN
M
Px1…pxN ;py1…pyN ;pz1…pzN

Les molécules entrent sans cesse en collision.


Les valeurs de la quantité de mouvement (pxi,pyi,pzi)
et la position des particules (xi ,yi ,zi ) changent
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
b) On considère un système macroscopique avec 
degrés de
c) liberté.
d) La position des points du système dans l’espace est
décrite
e) par  coordonnées spatiales : qi, i= 1… 
f) Le point décrivant l’état du système à un instant donné
est
g) défini par les  coordonnées spatiales qi et les 
h) composantes d’impulsion correspondantes pi.
L’espace de
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
b) Si on prend un petit volume dans l’espace de phase qp (qipi i=1,)
,
c) le système passera plusieurs fois par cet élément de volume pendant
un
d) intervalle de temps T suffisamment long.
e) Soit t la fraction de temps passé par le système dans l’état
microscopique
f) caractérisé par qp.
g) Si l’intervalle de temps T devient élevé,
t la probabilité pour que le
système P  lim
T  T
h) soit dans l’état microscopique correspondant à qp de l’espace de
phase
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
b) A la limite, on considère un élément de volume dans
l’espace
c) de phase dqdp tel que :
d) dqdp =dq1dp1 dq2dp2... dqfdpf
e) La probabilité de trouver le système dans un état de
f) coordonnée spatiale comprise entre qi et qi + dqi et une
g) impulsion comprise entre p et p +dpi (i=1, ) peut être
d P   q , p i dqdp i
 
h) exprimée par :
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
b) La probabilité dP doit satisfaire la condition de
normalisation ce
c) qui donne :    q , p  d qd p  1
esp a ce d e p h a se

d) Si on considère l’ensemble statistique de N systèmes, la


e) probabilité dP est égale au nombre Ni de systèmes dont le
f) point représentatif se retrouve dans l’élément de volume
dqdp.
g) Donc, tous les points représentatifs de l’ensemble
statistique
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
b) Pour connaître l’état macroscopique du système il suffit de connaître
la
c) fonction de distribution de la probabilité (p,q). Le calcul de la valeur
d) moyenne des paramètres macroscopiques se fait à l’aide de cette
fonction.
e) A   A  q , p    q , p  d qd p
La valeur moyenne d’un paramètre A(q,p) est donnée par:

f) La connaissance de la densité de phase nous permet de calculer la


valeur
g) moyenne de n’importe quel paramètre au lieu de suivre l’évolution du
h) système au cours du temps et de faire la moyenne sur le temps de ce
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
L’hypothèse ergodique :
 t0 T
L’égalité entre la moyenne sur le temps : 1
A 
T
 A ( t ) dt
et sa moyenne sur l’ensemble statistique: t0

A   A  q , p    q , p  d qd p
est appelé hypothèse ergodique.
Remarque:
Si on prend le cas d’un système isolé en équilibre, la densité
de phase est uniforme dans l’espace de phase et dans ce cas
tous les états microscopiques sont équiprobables. Pour que
l’hypothèse ergodique soit vérifiée, il faudrait que la trajectoire
temporelle de ce système passe par chaque point de l’espace
de phase mais ce n’est pas le cas pour certains systèmes.
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
On considère un volume w dans l’espace de phase et  une surface
entourant ce volume.

La variation du nombre de points représentatifs


des systèmes de l’ensemble statistique
pendant le temps dt est donné par :

 
    q, p  dqdp  dt
 t w 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
Cette variation est due au flux de points qui entrent dans le volume w
pendant le temps dt moins celui des points qui en sortent. Ce flux est
égal
 au nombre de points situé dans le volume cylindrique de longueur
v dt et de base d ,doncc’estla densité de ces points (q,p) multipliée
par l’élément de volume v dt d 
Le bilan du flux entrant et du flux sortant est
donné en intégrant ce flux sur la surface 
   
    q , p  v d   dt
 
Théorème de la divergence 
      
    q, p  v d   dt    di v   v  dqdp  dt
  w 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
c) L’ensemble statistique garde un nombre N constant de systèmes,
on a
d) ni apparition
  ni disparition
  de systèmes à l’intérieur du volume w,
donc :  di v   v   d w  0
w 
t 

Le Volume w est arbitraire,  l’intégral s’annule



 d i v   vsoit:
si l’intégrant s’annule,  0
t

di v   v 
       
On explicitedi v   v    :

  qi   pi 
i q i   p i  
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
        
di v   v      qi    pi 
i q i   p i  
         

 qi  pi
di v   v     qi  pi     
i  q i p i  i  q i p i 
 
c) On a les 2 équations de Hamilton qui sont: H   H
qi  et pi 
p i q i

        H H 
Ce qui donne: di v   v     qi  pi     
i  q i p i   
 q p p q i 
i i

i i

0
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville 
c) di v   v 
Finalement, en remplaçant par son expression, on a:

   H  H 
    0
t i  q i p i p i q i 
  
cr och et d e P oi sson :   , H 



d
dt

d  
d) On obtient le théorème de Liouville:   , H   0
e) dt t
La densité de phase est constante le long de la trajectoire.
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
c) Remarque 1 : Importance de l’énergie

d
d) Si 0 , alors la densité de phase  est une combinaison de q
dt
et p
e) indépendante du temps. C’est une intégrale du mouvement.
f) De plus si nous avons 2 sous-systèmes, la densité de phase du
g) système total est égale au produit des densité de chacun:
12=12
h) Donc, on a le logarithme de la densité de phase qui est additif:
i) log 12 = log 1 +log 2
j) Ceci implique que log  est une combinaisons linéaire des
intégrales
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
c) Remarque 1 : Importance de l’énergie
d) On peut toujours trouver un système de coordonnées
tel
e) que la quantité de mouvement et le moment
cinétique
f) s’annulent. On a alors:
g) log  =  +  U

h) D’où l’importance de l’énergie en physique statistique


Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
c) Remarque 2 : Equilibre thermodynamique
d) Dans ce cas , le système ne dépend pas explicitement
du 
0
e) temps:
t

f) L’ensemble statistique décrit par (q,p) est stationnaire.


g) Pour un tel système, la moyenne de n’importe quelle
h) grandeur physique est indépendante du temps: le , H  0
 
système
i) est en équilibre et le crochet de Poisson s’annule :
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Définition
b) Un système macroscopique est toujours soumis à
des
c) contraintes (N est constant, U constant …).
d) Ces contraintes imposent un domaine de l’espace de
e) phase où la densité de phase est non nulle.
Un état accessible est un état compatible avec ces
contraintes.
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Définition
Exemple: Oscillateur harmonique
On suppose que les frottements sont négligeables, donc le
système est isolé et son énergie est constante
(contrainte ← U constant ).
2 M(x,p x)
1 px 1
U   mx
2
 cte
2 m 2 px

Le point M décrivant l’état de l’oscillateur


harmonique se déplace sur une ellipse.
x
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
 On considère une particule qui se déplace dans une
seule direction (f =1)
Les contraintes : 0 ≤ x ≤ L ; -p0 ≤ px ≤ p0
p0

Le nombre d’états accessible au système est


Égal au nombre de points situées à l’intérieur
px

de la zone hachurée. x L
x

Mais principe d’Heisenberg: xpx ≥ /2


-p 0
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
b) La région accessible de l’espace de phase est divisée
en
c) cellules carrées de surface égale à h.
p 0

d) Chaque état microscopique du système Surface : xp =h.


x

p x

représenté non par un point mais par une


une cellule de surface: xpx=h. x L

Le nombre d’états accessible  est égal à -p 0

La surface de phase accessible


2 p L divisée par h.
 0

Pour cet exemple: h


Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
 On considère N particules et f =3N degrés de liberté
L’espace de phase est un hyper volume à 6N dimensions.
On a pour chaque paire de coordonnées d’espace et
d’impulsion : qipi=h avec i=1, f.
Le nombre d’états accessibles est :
H y p er vol u me a ccessi b l e
 f
h
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
b) Remarque:
c) La dimension de la cellule n’est pas nécessairement égale à h,
elle est
d) imposée par l’incertitude des mesures.
e) Mais la mécanique quantique qui, à la limite devrait donner le
cas
f) classique impose ce facteur. En fait, l’équivalence entre les états
g) microscopiques en mécanique
1 d p d qclassique et les micro-états
quantiques dw  f
N! h
h) impose un dimensionnement de la cellule tel que:
i)
Chapitre 4 Description d’un système
statistique quantique
I. Micro-état et Macro-état
 Un micro-état d’un système quantique est un état
parfaitement connu que l’on représente par un vecteur de
l’espace de Hilbert (ou ket) : 
 Un macro-état est un mélange statistique ou le
vecteur espace n’est pas entièrement déterminé. Il est
représenté par un ensemble de kets possibles  avec la
probabilité q de chacun.
La condition de normalisation dans ce cas est:
 q  1
Chapitre 4 Description d’un système
statistique quantique
II. Moyenne d’une observable
 Soit un système quantique dans le micro-état pur  et soit une
observable Â. La probabilité d’obtenir la valeur propre ai de
l’observable  lors d’une mesure est :
P(ai)=i 
i est le projecteur sur le ket propre de  dont la valeur propre est ai.
 Si le système est dans le macro-état représenté par le mélange
statistique . La probabilité pour que la mesure de l’observable Â
donne la valeur propre ai est:
P ( ai )   q      i
 

La valeur moyenne de l’observable 


 A Âest q  a:i     i   
donc
i 

 A    q   Â  

Ce qui donne :
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
En faisant intervenir les vecteurs propres de l’observable  et la
relation de fermeture relative à ces vecteurs :  a i   a i  1
On peut mettre la moyenne <A> sous la forme : i
 A    q   a j      ai   ai  aj 
Ou encore: i j 

 A     a j     q    | ai  a i  aj 
i j

On pose : D      q   


D est l’opérateur densité. Il suffit de connaître l’opérateur densité d’un
système pour calculer les moyennes de toutes les observables.
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
On peut réécrire la moyenne de  en fonction de l’opérateur densité:
 A     a j | D Â aj 
j

Soit:  A   T r  D A 
Remarques:
 La probabilité de la mesure de la valeur ai est donnée par:

P  a  T r D 
i  i 
 L’ensemble des valeurs  a 
D a j forment une matrice dans
i

la base des kets propres de l’observable Â. Seuls les éléments


diagonaux représentent les probabilités des valeurs propres.
 Pour un système dans le micro-état pur , l’opérateur densité
est :  D  |    |
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
Exemple:
Le cas d’un spin dans le mélange statistique tel qu’il soit
orienté selon Oz avec la probabilité 1/2 ou selon – Oz avec
la probabilité 1/2.
L’opérateur densité est: D  1 ( |    | )  1 ( |    | )
2 2

Propriétés de D :
  est hermitien car D      q    et q est réel
D 

 Tr( D ) = 1 car  q  1

 
  | D |   est p osi ti f  | car
 q est positif.

Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
IV. Théorème de Liouville
V. L’évolution dans le temps du système quantique obéit
à  | ( t )  
i  H | ( t ) 
VI. l’équation de Schröndinger
D  |    |
: dt

VII. Sachant que , on peut montrer facilement:


 D    
i  H,D
t  

VIII. Cette relation est la version quantique du théorème


de
Liouville. Le crochet de Poisson dans la relation classique
est remplacé par le commutateur dans la cas quantique.
Chapitre 4 Description d’un système
statistique quantique
IV. La mesure d’une observable
Le postulat de la mécanique quantique stipule que si le système se
trouve dans l’état  avant la mesure d’une observable Â, après la
mesure, il se retrouve dans l’un des états correspondant à la projection
de  sur le sous-espace associé aux valeurs propres de  :

Avec la probabilité: P(ai)=i 


Si la mesure donne la valeur ai alors l’état final du système est :

i |  
Chapitre 5 Distribution microcanonique

I. Distribution microcanonique
II. Un système isolé n’échangeant ni matière ni énergie avec
l’extérieur
III. tend vers un état d’équilibre thermodynamique, son état
macroscopique
IV. est décrit par quelques variables d’état. Les contraintes imposées
sur ce
V. système sont telles que : l’énergie interne U, le nombre de
particules N et
VI. le volume V sont fixés. Même si l’énergie est fixée, le système
parcourt
VII. tous les états microscopiques permis dans le cadre de cette
contrainte.
VIII. Pour un état macroscopique, on a un nombre très élevé d’états
IX. microscopiques. A l’équilibre, il n’y a aucune raison pour qu’un état
Chapitre 5 Distribution microcanonique

I. Distribution microcanonique
II. Exemple:
III. Pour un dé dont les 6 faces sont identiques sur le
plan
IV. mécanique, aucune des faces n’a une probabilité plus
V. élevée qu’une autre pour être réalisée lors d’un lancer.
VI. Donc la probabilité d’avoir un numéro parmi les six
est
VII. égale à 1/6.
Chapitre 5 Distribution microcanonique

I. Distribution microcanonique
En faisant intervenir la densité de phase, l’équiprobabilité
implique que (q,p) est constante dans le domaine du
volume de phase imposé par la contrainte U U , U  dU. 

   q , p   con st . U  U ,U  dU 
Soit : 
   q , p 0 a i l l eu r s

I. La condition de normalisation donne :

 d P 1     q , p  dw  con st . dqdp

1
 U 

II. (U) est le nombre d’états accessibles pour l’énergie


U.
Chapitre 5 Distribution microcanonique

I. Distribution microcanonique
II. On obtient finalement pour la distribution
microcanonique
III. une densité de phase sous la forme :
 1
  U  U ,U  dU 
  (U )
  0
 a i l l eu r s
Chapitre 5 Distribution microcanonique

II. Calcul du nombre d’états microscopiques


1) Densité d’états
2) Hypothèses :
 dU petit à l’échelle macroscopique : dU  U
 dU grand à l’échelle microscopique : dU  U/
L’énergie U et le volume V imposés sont des contraintes
dans l’hypervolume de phase. Le volume V dans lequel est
confiné le système impose une contrainte sur les
coordonnées spatiales des particules tandis que la
contrainte sur l’énergie U correspond à une intégration sur
une hypersurface.
Chapitre 5 Distribution microcanonique

II. Calcul du nombre d’états microscopiques


1) Densité d’états
2) Exemple: L’oscillateur harmonique (f = 1)
3) L’hypervolume est le plan (x,px), et l’hypersurface imposée M(x,p x)

px
4) par la contrainte de l’énergie U fixée est l’ellipse.
5) Le nombre d’états microscopiques correspondant
x
6) à un état macroscopique (U, N et V donnés) est
7) proportionnel à l’hypersurface définie par la contrainte
8) de l’énergie et du volume(équiprobabilité des états).
9) Cette hypersurface appelé densité d’états est (U: )   dqdp
E U
10) Le nombre d’états microscopiques est :
 U   U  dU
Chapitre 5 Distribution microcanonique

II. Calcul du nombre d’états microscopiques


1) Densité d’états
2)  dqdp
L’intégral est généralement difficile à calculer.
3) Par conséquent, pour calculer (U), on considère les
E U

4) hypervolumes (U) et (U+dU) tels que :


 (U) est l’hypervolume dont l’énergie E < U
 (U+dU) est l’hypervolume dont l’énergie E < U+dU
Dans ce cas, le nombre d’états microscopiques compris
dans la bande U , U  dU est
 donné par :
d  U 
  U   (   U  dU     U )  dU
dU
 
 U 
Chapitre 5 Distribution microcanonique

II. Calcul du nombre d’états microscopiques


2) Exemples
Exemple 1: Particule libre dans une boite à une dimension
|
o x
Contraintes : 0≤x≤L
U = constante  px  2 m U
0
Lx x

2 2 mU L
On a:   U  
h
d
1
2m L 
La densité d’états dans ce cas est :   U    U 2

dU h

1

2m LU 2

Et le nombre d’états microscopiques est :  U   dU


h
Chapitre 5 Distribution microcanonique

II. Calcul du nombre d’états microscopiques


2) Exemples
Exemple 2: Système macroscopique N= Na

On montre que: f
U 
 U  C  
 f 

Avec : C est une constante


 nombre de l’ordre de l’unité
Chapitre 5 Distribution microcanonique

III. Evolution d’un système isolé


On considère un gaz parfait de N molécules dans un volume initial Vi.
Le nombre initial d’états accessible au système est :

H y p er vol u mea ccessi b l e


 ...  dp ...dp1 3N

i    ... 
p1 p3 N
3N
dq1 ...dq 3 N 3N
h h

q1
q

3N

C
Vi

i  C V i 3 N

Si le gaz est à l’équilibre, tous les


1
états sont équiprobables et la
probabilité d’un état est : Pr  
i
Chapitre 5 Distribution microcanonique

III. Evolution d’un système isolé


A t = 0, on retire la cloison qui sépare les 2 parties.
Le nombre final d’états accessible au système est :
 f  C V fN
N
V f 
Vf
 f  i     f  i
 Vi 

1
A t = 0 la probabilité d’avoir la partie droite pleine est et celle de
i
l’avoir vide est nulle donc tous les états microscopiques ne sont pas
équiprobables. Le système n’est pas en équilibre. Il évolue vers
l’équilibre tel que tous ses états microscopiques soient équiprobables
Chapitre 5 Distribution
microcanonique++
III. Evolution d’un système isolé
Après un intervalle de temps t = 0, le système atteint l’équilibre.
Cherchons la probabilité pour retrouver la situation initiale :
x x x x x x x
x x
x x x x x
x x x x
x x x xx
x x x x x x x
x

Vf i 1
SI  2 P   0
Vi f 2
Na

Donc, l’évolution du système quand on enlève la paroi est irréversible.


Remarque:
Si la paroi est au bord de la boite alors Vi=Vf  i=f le processus est
réversible.
Chapitre 5 Distribution microcanonique

III. Entropie statistique


Soit un système isolé constitué de 2 sous systèmes (S1) et (S2) avec
les variables d’état respectivement (U1, N1 et V1) et (U2, N2 et V2).
Ces 2 systèmes échangent de l’énergie, de la matière et du volume.
U1 U2
N1 N2 U = U1+U2 = const.  dU = 0  dU1 = -dU2
V1 V2
N = N1+N2 = const.  dN = 0  dN1 = -dN2
V = V1+V2 = const.  dV = 0  dV1 = -dV2

Après un certain temps, l’équilibre est atteint et les valeurs Ui,Ni et Vi ;


i =1,2 atteignent leurs valeurs moyennes. Le nombre d’états
microscopiques du système global   Uest égal au produit des nombres
  1  U 1   2  U 2 
des états microscopiques des deux sous systèmes (les deux sous
Chapitre 5 Distribution microcanonique

III. Entropie statistique


IV. Pour un système isolé en équilibre le nombre d’états
V. microscopiques est maximal (Théorème  H):
m ax
  d0
VI. Ce qui donne:
1
 d   d 0
2 2 1

VII. Soit encore


d ln  
1
:   d ln     0
2

VIII. On peut réécrire la condition d’équilibre sous la


formed :l n     0 soi t l n      l n    
m ax

IX. En thermodynamique, l’entropie S est maximale


lorsque le
X. système est en équilibre et l’entropie de deux sous
S = k ln  
XI. systèmes est égale à la somme des entropies de
chacun
Chapitre 5 Distribution microcanonique

III. Entropie statistique


IV. Soit une grandeur A, sa moyenne est donnée par :
 A      q, p  A  q , p  d qd p

V. Pour l’entropie, on a:
S     q , p  k l n    d qd p
VI. En remplaçant  par son expression 1 on obtient:

VII. 
Remarque: S   k   l n    d qd p

Pour une distribution de probabilité discrète, la définition


de
l’entropie est: S  k  P l n P i i
i
Chapitre 5 Distribution microcanonique

III. Entropie statistique


IV. Considérons le lancer d’un dé :
 Le dé n’est pas truqué et toutes les faces sont équiprobables.
Le lancer de ce dé donnera un nombre égal de fois à tous les
numéros de sortir.
 Le dé est truqué et on a par exemple :Pi=1/10; i=1,5 et P6 = 5/10.
Dans ce cas le N° 6 sortira 5 fois plus que les autres. En résumé
nous avons plus d’information sur le résultat du lancer dans ce
cas par rapport à la situation précédente.
 Le dé est truqué de manière à avoir : Pi=0 i=1;5 et P6 =1. Dans
ce cas nous avons une information maximale puisque à coup
sur le lancer donnera la face N° 6.

Quand toutes les possibilités sont équiprobables, l’incertitude est la


plus élevée quant au résultat de l’expérience.
Chapitre 5 Distribution microcanonique

III. Entropie statistique


Comment quantifier cette incertitude?
Une fonction S(P1, P2, …Pn) qui quantifie cette incertitude peut être
définie de telle manière qu’elle vérifie les propriétés suivantes:
1) S(P1 , P2 , …Pn ) = 0 si P1 = P2 = …Pi-1 = Pi+1 = ...Pn et Pi = 1(un
événement est certain).
2) S(P1 , P2 , …Pn ) est maximale si Pi = const.
3) S(AB) = S(A) + S(B) si A et B sont indépendants. Si par
exemple l’incertitude sur l’événement A est nulle, l’incertitude
sur l’événement A et B ne doit pas être supérieure à
l’incertitude qui reste sur B.
4) La permutation de deux événements ne devrait pas changer
cette fonction : S(P1 , P2 , …Pi...Pk...Pn ) = S(P1 , P2 , …Pk...Pi...Pn ).
Chapitre 5 Distribution microcanonique

III. Entropie statistique


On montre qu’une telle fonction est donnée par
l’expression :

S  P1 , P2 , ... Pn    k  Pi l n  Pi 
i

• Exercice : Montrer qu’une fonction S = - k  pi log pi vérifie les


conditions (1)…(4)
• Exercice : Calculer les propriétés d’un système classique de N
oscillateurs harmoniques discernables.
Chapitre 6 Interaction entre systèmes

I. Introduction
II. Définition de la chaleur:
III. Situation initiale : On considère un système isolé (A)

UA=cte
Situation finale : On met le système A au contact d’un autre système B

UAvarie

Le système C = AB est isolé : UC est constante


Chapitre 6 Interaction entre systèmes

I. Introduction
II. Définition de la chaleur:
III. On suppose que les parois sont rigides et fixes. Dans
ce
IV. cas, le système A échange uniquement de la chaleur
avec
V. le système B:
• UA = QA
• UB = QB
C est isolé → UA + UB = UC = const.
 UA + UB = 0  QA + QB = 0
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


Soient les systèmes A et B séparés par une paroi rigide.

C=AB ; C est isolé UC = const.

Postulat: A l’équilibre, l’entropie SC est maximale.


UA et UB fluctuent autour de leurs valeurs moyennes
A(UA) : le nombre d’états accessibles à A d’énergie U  [UA,UA+dUA]
B(UB) : le nombre d’états accessibles à B d’énergie U  [UB,UB+dUB]
C(UC,UA):le nombre d’états accessibles à C tels que U  [UC,UC+dUC]
lorsque le système A possède l’énergie UA à dUA prés.
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


On a : C(UC,UA) = A(UA) B(UC-UA)
-
-
- -
A(UA) ------ - B(UC-UA)
-

C (UC) : le nombre d’états accessibles à C d’énergie U  [UC,UC+dUC]


La probabilité d’avoir un état accessible à C dans lequel le système A
possède l’énergie UA est :
 A (U A )  B (U C  U A )
P (U A ) 
 C (U C )
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


P(UA ) est une fonction de UA → Maximum de P(UA) ?
P(UA ) est max si A(UA) B(UC-UA) est max donc si log(A(UA) B(UCUA))
est max.
log(A(UA) B(UC-UA)) est max si log(A) + log(B) est max.
On a k(log(A) + log(B)) = SC donc SC doit être maximale à l’équilibre.
S C  S A  S B 
 0    
U A U U A
U A U U A
U A U U A
 A A A

S B S B

U A U B
Et on a : UB = UC-UA 
S A  S B 
  
U A U U A
U B U U B
A B
A l’équilibre :
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


A l’équilibre : S A  S B 
  
U A U U A
U B U U B
A B

1 S 
On pose :  
T U V , N
Donc, l’équilibre thermique est satisfait si: TA = TB
Remarque :
1  l og ( )
On définit le paramètre  par :   
kT U
Propriétés de la température absolue:
U 
Pour un grand système (N1) : S  con st . f k l og  
1 S f k U  f 
  con st .  kT  con st .
T U U f
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


Propriétés de la température absolue:
 kT est une énergie moyenne par degré de liberté.
 T est positive (en général)
 T est une fonction croissante de U
 On retrouve le principe Zéro : 2 Systèmes en équilibre avec un
3ème sont en équilibre entre eux
Chapitre 6 Interaction entre systèmes

III. Equilibre thermique et mécanique


Soient les systèmes A et B séparés par une paroi mobile.
(A)

(B) C=AB ; C est isolé UC = const. et VC = const.

Les deux systèmes peuvent échanger de la chaleur et du travail.


L’équilibre est obtenu lorsque SC est maximale :

A l’équilibre thermique et mécanique, on a:


T A TB et PA  PB
Chapitre 6 Interaction entre systèmes

IV. Echange de chaleur et de travail entre systèmes


V. Soient 2 systèmes séparés initialement A et B . Les 2 systèmes
sont à
VI. la température initiale respectivement TAi et TBi et la pression PAi et
PBi

On met ces 2 systèmes en contact.


 Si TAi = TBi et PAi = PBi  C=AB n’évolue pas, il est à l’équilibre.
 Si TAi  TBi et PAi  PBi  C=AB évolue jusqu’à l’équilibre tel que :
TA =TB=Tf et PA =PB=Pf  UA et UB vont varier mais UC ne varie pas
UC =0  UA +UB=0 UA =QA +WA et
UB=QB+WB, 1er principe de la thermodynamique
Chapitre 7 Distribution canonique

I. Définition d’un réservoir


II. Un système (B) constitue un réservoir pour un système (A) pour
une
III. grandeur extensive Y (chaleur, nombre de particules, …) si (B)
peut
IV. échanger des quantités quelconques deY sans modifier ses
propriétés.
V. Exemples : fB  fA (B)

Piston mobile
 Réservoir de volume (A)

Le volume de (A) peut varier et donc (A) peut


échanger du volume avec (B) sans modifier
le volume de (B)
 Réservoir de chaleur

(B) : gaz à la (B) est un réservoir de chaleur pour la molécule (A).


(A) : Une
molécule
Temp. T
(B) est un thermostat.
Chapitre 7 Distribution canonique

II. Distribution canonique


fB  fA
(B )
C = AB est isolé, UC = UA+UB = const.
TB (A )

UA  const.
B(UC-Ui) : Le nombre d’états accessibles à (B) d’énergie est UB=UC-Ui
C(UC) : Le nombre d’états accessible à (C).
pi la probabilité pour (A) d’être dans un état microscopique d’énergie Ui.
C  U C , U i   B  U C  U i 
 pi  
 U
C  C   U
C  C 

On a : Ui  UC  Développement de log B(UC-Ui) au voisinage de Ui


Chapitre 7 Distribution canonique

II. Distribution canonique

Développement de log B(UC-Ui):

d  l og   B  U U i     1 dS B 1
C
   
On a: dU  k dU kT
B
U B U C
B
Chapitre 7 Distribution canonique

II. Distribution canonique


U
B U   i

Ce qui donne : p i  C
e kT

C U C 

1 C
Avec:  
kT

Finalement, la probabilité pi s’écrit :


 U i
pi C e

Distribution canonique de Gibbs


Chapitre 7 Distribution canonique

II. Distribution canonique


Postulat :
La distribution de probabilité d’équilibre est celle qui correspond
au maximum de l’entropie.
Ce postulat nous permet de chercher la distribution de probabilité d’un
système quelconque à condition de tenir compte des contraintes
imposées à ce système.
Pour une distribution canonique, les deux conditions suivantes doivent
être respectées :
L’énergie moyenne du système U est donnée par:
U  U i p i  T r  D H 
Condition de normalisation : i

p
i
i
 Tr  D  1
Chapitre 7 Distribution canonique

II. Distribution canonique


On utilise la méthode des multiplicateurs de Lagrange:
On pose: f ( p )  U p  U
i  i i
et g ( p i )   p i  1
Et le maximum de ila fonction entropie avec iles contraintes est donnée
par le maximum de la fonction : sans les
h ( pi )  S ( pi )  b f ( pi )  a g ( pi )
contraintes.
On dérive la fonction h(pi) par rapport à pi :

dS ( p i )  b df ( p i )  a dg ( p i )  0
 k  dp
i
i
l n pi  1)  b U i dp i  a dp i   0  dp i

  k ln pi k bU i a  0
b U i
 pi  C e k
Chapitre 7 Distribution canonique

II. Distribution canonique


Pour calculer la constante de Lagrange b on a:

Et on retrouve la distribution canonique de Gibbs : pi  C e  U i


Chapitre 7 Distribution canonique

III. Fonction de partition


Pour déterminer la constante C de la distribution de Gibbs, on applique
1
la condition de normalisation :  p i  1  C   U
 U i
i e i

 e 

i
Z
Z
i
Z est la fonction de partition de la distribution canonique.
 U i
e
 pi 
Z

La somme dans la fonction de partition Z porte sur les états si le


niveau
Ei d’énergie est dégénéré alors :  U i
Z   gie
i
Chapitre 7 Distribution canonique

III. Fonction de partition


Dans le cas continu, la densité de phase se met sous la forme :
 U (q, p)
e
(q, p) 
1  U

(q, p)
f
e d qd p
h

1  U
Avec :  
(q, p)
Z f
e d qd p
h
Chapitre 7 Distribution canonique
III. Fonction de partition
Valeurs moyennes des grandeurs physiques du système :

1  U i 1 Z  l og Z
 Energie interne: U   U i p i   U e  
 
i
i Z i Z

 Energie Libre de Helmotz: F   k T l og Z

 l og Z
 Entropie: S   k  p i l og p i k   k l og Z
i 
U F
S 
T

 Forces généralisées:  W  X dx

force généralisée conjuguée de la variable x


exp:(-P,V), (V,Q) et (B,M)…
Chapitre 7 Distribution canonique

III. Fonction de partition


Valeurs moyennes des grandeurs physiques du système :

U 
 Forces généralisées:  W  X dx  dU  X  
x Q
U i 1  U i U i 1   U i
X   pi  e  i x  e 
i x Z i x Z
1 
X   l og Z 
 x
F
X 
x
Chapitre 7 Distribution canonique

IV. Application de la distribution canonique

G.P. en équilibre à la température T


On néglige les interactions et le poids des particules

a) G.P monoatomique
b) Une molécule peut être considérée comme un petit système en
contact
2
c) p
avec le thermostat qui est constitué par toutes les autres

molécules. 2 m        
d) r : p
Son énergie est r   r , r  dr  et p   p , p  dp 
   
  3 3
dP = probabilitédpour
P 
1ete vérifient
d r d p:
3
h z0

z0 est la fonction de partition d’une particule.


Chapitre 7 Distribution canonique

IV. Application de la distribution canonique


a) G.P. monoatomique
p x2  p 2y  p z2
1 
z0 
h
3  
dxdy dz e dp dp dp
  
2m
x y z

V I

La probabilité pour un atome de posséder la vitesse    


v  v , v  d v 
 
 1 m v 2
d Pv Ce 2 3
d v
Et le nombre d’atomes possédant la vitesse     est:
v  v , v  d v 
 

 1 m v 2
N (v )d v
3
C 'e 2 3
d v
Distribution des vitesses de Maxwell
Chapitre 7 Distribution canonique

IV. Application de la distribution canonique


b) G.P. polyatomique
c) Le mouvement est décomposé en 2 mouvements :
 Mouvement de translation du centre de gravité
 Mouvement interne autour de G (rotation et vibration)
2
L’énergie de la molécule est:   pG
tot
s
2m
L’état de la molécule est donné par  
rG , p G et s
Le nombre de molécules tel que        
r   r , r  dr  , p   p , p  dp  et d 'état i n tern e s

 C e   d 3 r d 3 p
3
F ( r , p , s) d r d p
3

Le nombre moyen de molécules tel que :     


  
r   r , r  dr  et p   p , p  dp   s
2
    p
3
F (r , p)d r d p
3
   e    C s
e
2m 3 3
d r d p

s

C'
Chapitre 7 Distribution canonique

V. Energie interne d’un G.P


a) G.P. monoatomique
i. La fonction de partition d’un atome
p2
1 
  2m 3 3
z0 3
e d r d p
h  
r p

   p x2 p y2 p z2
V   
d V   
3 2m 2m 2m
On a: r z0 3
e e e dp x dp y dp z

r
h   

a x 2 
On sait que:

e dx 
a
V 3
Ce qui donne: z0  3  2 m k T 
h
 l og z0 3 1 3
L’énergie moyenne par atome est:       kT
 2  2
Chapitre 7 Distribution canonique

V. Energie interne d’un G.P


a) G.P. monoatomique
ii. La fonction de partition du G.P.

N
iii. Donc la fonction de partition du gaz   z0 
Z est:

 2 m k T 
3 N /2

iv. Soit: Z V N
 
 
2
h
Chapitre 7 Distribution canonique

V. Energie interne d’un G.P


a) G.P. monoatomique
iii. Les grandeurs caractéristiques du G.P.
 L’énergie interne: U    l og Z   N  l og z0  N   U  3 N k T
  2

 L’énergie libre: F   k T l og Z
3N k T 2 m k T
F  N k T l og V  l og 2
2 h

U F 3 3 2 m k T
 L’entropie: S   N k  kN l og V  N k l og 2
T 2 2 h
F   k T l og Z  l og z0
 La pression  P    N kT
V V V
N kT
P 
V
Chapitre 7 Distribution canonique

V. Energie interne d’un G.P


b) G.P. quelconque
L’énergie d’une molécule est la somme de l’énergie de translation et de
l’énergie de rotation et de vibration:  i   i tr a n s   i i n t
La fonction de partition d’une molécule est dans ce cas:
z0    e    i
 e
  i tr a n s
 e
  i i n t
i i tr a n s i int

z0  z0 tr a n s z0 i n t
 L’énergie moyenne par molécule:

 l og z0  l og z0 tr a n s  l og z0 i n t 3
     kT   i nt (T )
   2
Chapitre 7 Distribution canonique

V. Energie interne d’un G.P


b) G.P. quelconque
 L’énergie interne du G.P.
U N 
3
U  N kT  N  i nt (T )
2
L’énergie interne du G.P. ne dépend que de la température.

 Pression du G.P.
F  
P    N kT l og z 0  
V V

   N kT
     P 
  N kT l og z 0 tr a n s   N kT l og z 0 i n t V
V V     
  n e d ép en d p a s d eV  
N kT   
V 0 
Chapitre 7 Distribution canonique

VI. Equipartition de l’énergie


En général l’énergie d’un système dépend de la position et de
l’impulsion : U ( q1 ...q f , p1 ... p f )
Supposons que l’énergie contient un terme quadratique tel que:
U  a q12  U '( q 2 ...q f , p1 ... p f )

1
(ex : l’oscillateur harmonique U  k x
2
 ...)
2

On cherche à calculer la moyenne du terme quadratique : 2


a q1
Chapitre 7 Distribution canonique

VI. Equipartition de l’énergie


Chapitre 7 Distribution canonique

VI. Equipartition de l’énergie


La valeur moyenne d’un terme quadratique quelconque du
type a q 2et a p dans
2
l’expression de l’énergie d’un système est égale à :
1
aq
2
 kT
2
Chapitre 7 Distribution canonique

VI. Capacité calorifique des G.P

 U 
Par définition: Cv  
 T V
3
L’énergie moyenne d’un GP est : U  N kT  N  int
2
 G.P. monoatomique int=0

 U  3 3
Cv    N k  N k
 T V 2 2

3
Cv  nR
2
Chapitre 7 Distribution canonique

VI. Capacité calorifique des G.P

 G.P. diatomique x

On néglige la rotation autour de z et y


m1 m2
Les mouvements de vibrations.

 L 2x L 2y
1 
On a :  r ot    
2 Ix Iy
 

L est le moment cinétique par rapport à G


Ix, Iy sont les moments d’inertie par rapport aux axes Gx et Gy (Ix=Iy).
Chapitre 7 Distribution canonique

VI. Capacité calorifique des G.P

 G.P. diatomique x

 L 2 L 2y
1 
   x   z

2 I 
r ot
I y
  m1 m2

2 2
3 3 1 Lx 1 Ly 3 1 1
 kT   r ot  kT    kT  kT  kT
2 2 2 I 2 I 2 2 2

5
 kT
2

Finalement on a : 5 5
U  N kT  Cv  nR
2 2
Chapitre 7 Distribution canonique

VI. Capacité calorifique des G.P

 G.P. diatomique x

2
Mécanique quantique   r ot  j  j  1 
z

2I y
m1 m2
2
rot ne varie pas de façon continue et la valeur minimale est égale à
I

Le calcul exact de la capacité calorifique Cv


à partir de l’expression quantique de
l’énergie donne une variation de Cv
en fonction de la température telle que :
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


1. Oscillateurs harmoniques classiques
1. On considère un ensemble d’oscillateurs harmoniques de
fréquence .
 p i2 1 
H ( qi , pi )     m q i 
2 2

i  2m 2 
2. Le Hamiltonien de ce système est:
3. La fonction de partition est :
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


1. Oscillateurs harmoniques classiques
1. La fonction de partition d’un oscillateur harmonique z0 est :

 2  kT 
N

  Z  
 h 
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


1. Oscillateurs harmoniques classiques
Energie libre:
 2  kT 
F  kT l og Z   N kT l og  
Pression  h  
 l og Z
P  0
V
Energie interne :
 l og Z
U   N kT


Entropie :
U F   2  kT     2 U  
S   N k 1  l og    N k  1  l og  
T   h     N h  
L’expression de l’entropie coïncide avec celle de la distribution
microcanonique.
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


2. Oscillateurs harmoniques quantiques
L’énergie d’un oscillateur harmonique est donnée par :
    n   ;
1
n
n  0, 1, 2, ...
 2 
La fonction de partition d’un oscillateur harmonique est :
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


2. Oscillateurs harmoniques quantiques
La fonction de partition des N oscillateurs est:
 
   
N

 e 2

Z 
    
 
1  e 
 
L’énergie interne:
 l og Z N    1  e    
U         2

 2 1  e    

N  1  e
   
U     

On retrouve le cas classique quand T : 2 1  e
  
N kT   
   
 
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


2. Oscillateurs harmoniques quantique
L’énergie libre:
N   2 kT    
F   kT l og Z   1  l og  1  e 
2   
La pression:
F
P   0
V
L’entropie:
U F  1 e    k    
S   N     
 l og  1  e 
T  1e
T   
Chapitre 7 Distribution canonique

VII.
Application de la distribution de Boltzmann
2.Oscillateurs harmoniques quantiques
La capacité calorifique:
  
U     1   
2
e
Cv    N k   

T  N , V  kT     2

1  e    
  
2
e
Si T est élevée alors   tend vers 0 : Cv  Nk  
 kT    
2

1  e 
Si T  a l or s C v  N k  nR  


Donc si la température est élevée, on retrouve la capacité 
2
  
calorifique d’un oscillateur harmonique classique.  
 kT 
 
Si T  0 a l or s C v  0
Si la température est très basse, les effets quantiques sont dominants,
la
capacité calorifique tend vers 0.
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


2. Oscillateurs harmoniques quantiques
La capacité calorifique:

Le rapport mesure compare la différence d’énergie entre les niveaux
kT
quantiques à l’énergie thermique moyenne disponible.
Si kT est élevée, la structure discrète des niveaux d’énergie n’apparaît plus et le
Comportement devient classique. Par contre, si cette valeur est faible
(température proche du zéro absolu), alors
l’énergie interne est celle du niveau
fondamental (n=0 et U=N/2).
Toutes les particules se retrouvent sur
le niveau fondamental. La capacité
d’absorber de l’énergie pour passer
aux niveaux supérieurs est nulle (Cv=0).
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
On considère un système de N molécules dipolaires dans un champ

magnétique B . Les dipôles ont tendance à s’aligner sur la direction du
champ magnétique pour minimiser leur énergie magnétique (principe
de
l’énergie minimale). D’autre part, pour une température donnée le
mouvement statistique tend à contrecarrer cet alignement (principe
d’entropie maximale).

On modélise ce phénomène, en considérant un systèmeB de N dipôles
discernables placés dans un champ magnétique parallèle à Oz. Les
mouvements de translation sont négligés.
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
Fonction de partition:
 
L’énergie du système est : U   i  B
i

Chaque état microscopique correspond à la donnée de N valeurs des 2


angles i et i de l’orientation des dipôles dans l’espace. N
Z   z0 
On suppose qu’il n’y a pas d’interactions
  entre les dipôles :
L’énergie d’un dipôle est :      B    B cos( )
Pour calculer z0, il faut intégrer sur tous l’espace de phase.
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
Fonction de partition:
Ici l’espace de phase est définie par les deux angles sphériques  et .
z
L’angle solide correspondant est donné par : 
si n  d  d  B

  2 
  B   B cos
z0  e dΩ   e d  si n  d 
0 0
y
 1
  B cos  Bx
 2  e si n  d   2  e

z0 dx
0 1 x
B
e  e   B
z0  2
B
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de La ngevin
La probabilité pour un dipôle d’avoir une orientation entre  et +d
et entre  et +d est : 
z
  B cos
e si n  d  d  B
1
d P     ,   si n  d  d   

z0
Avec,
 si n  cos   y

    si n  si n   

 cos  
  x

La valeur moyenne du moment magnétique d’un dipôle est donc


donnée par:   si n  cos   
  
      si n  si n   
  cos   
 
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
On a :
 si n  cos    si n  cos     ,   si n  d  d 
1   B cos
 si n  cos  
z0
 si n  cos  e si n  d  d 

2
1   B cos
 si n  cos  
z0
 cos  d   si n  e si n  d 

0

0

 si n  cos   0

De la même manière, on a :
 si n  si n   0
Le moment moyen d’un dipôle est donc dirigé selon Oz
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
Chapitre 7 Distribution canonique

VII.Application de la distribution de Boltzmann


3. Modèle de Langevin
Le moment magnétique total M est :
  F
M  N   N kT  l og z 0   kT  l og Z   
B B B
Le calcul donne:
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


3. Modèle de Langevin
Le tracé de la variation du moment magnétique total en fonction de la
variable x   B est:
• Pour T  0 on a: M  N 
Tous les dipôles sont orientés dans
la direction du champ magnétique.
N  2


• Pour T  (25°) on a:
M

M est linéaire en fonction



3 kT

B

du champ magnétique.
Le coefficient de proportionnalité  est appelé susceptibilité
N
2
magnétique: C
 
kT
3
 T

L oi d e C u ri e
Chapitre 7 Distribution canonique

VII.Application de la distribution de Boltzmann


4. Système paramagnétique de Pauli
La projection du moment magnétique de spin sur l’axe Oz ne peut
prendre que deux valeurs :  z   e
N
Les dipôles sont supposés ne pas interagir entre eux: Z   z0 
La fonction de partition z0 est : z0  e e B  e  e B
La valeur moyenne du moment magnétique totale est : M  N 
 e e B  e  e B 
M  N e   B  e B 
e
e
e 
M  N e th ( e B )

• Si 0  x  e B    M  N e
T

Tous les dipôles sont orientés dans la direction du champ magnétique


et on arrive à la saturation.
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


4. Système paramagnétique de Pauli
M  N e th ( e B )
• T  0  x  e B    M  N e
Si
Tous les dipôles sont orientés dans la direction du champ magnétique
et on arrive à la saturation.
 2
B
• SiT    x  e B  0  M  N e
0
kT

Les dipôles ont autant de chances d’être orientés dans la direction du


champ que dans la direction opposée et2 la résultante est nulle.
 B
• Si B  0  x  e B  0  M  N e
kT
Si T est de l’ordre de la température ambiante et B est faible nous avons
la relation de Curie : e2 C
N 
kT T
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


5. Fonction de partition de rotation d’une molécule diatomique
x
2
h
  J ( J  1) ; J  0, 1, 2, ...
8 I
J 2

y
m1 m2

N
Pas d’interactions entre les molécules  Z r ot   z0 r ot 
La fonction de partition canonique de rotation d’une molécule est:
  J
z 0 r ot   gJe
J

r
 J  J 1 
z 0 r ot    2 J  1 e T

J
Chapitre 7 Distribution canonique

VII. Application de la distribution de Boltzmann


5. Fonction de partition de rotation d’une molécule
diatomique x

On a: r/T  1 pour des température ambiantes.


 On peut

remplacerla somme par une intégral:
z

 J  J 1  r y

z 0 r ot   2 J  1e T
dJ m1 m2

ch g t d e v ari ab l e : y  J 2  J  d y  ( 2 J  1) d J
 r
y
z 0 r ot  e T
dy
0

T
z 0 r ot 
 r
Chapitre 7 Distribution canonique

VII.
Application de la distribution de Boltzmann
5.
Fonction de partition de rotation d’une molécule diatomique
Energie de rotation:
 l og Z r ot  l og z0 r ot  l og z0 r ot dT
U   N  N
r ot
  T d

2  l og z 0 r ot
U  N kT
r ot
T
U
r ot
 N kT

Capacité calorifique:

U r
Cv   Nk
T
Chapitre 8 Distribution grand canonique

I.
Distribution grand canonique
Le système étudié est un système ouvert qui peut échanger de l’énergie
et des particules.
R éser v oi r d e ch al eu r C = AB est isolé,
et d e par ti cu l es : (B )
T, UC = UA+UB = const.
U B,N B S y stèm e( A )
T,
U A ,N A NC = NA+NB = const.

On a:
U U
i
1 B
1
U C
U C

Ni NB
1 1
NC NC
Chapitre 8 Distribution grand canonique

I. Distribution grand canonique


On note PN,i la probabilité pour (A) d’être dans un état microscopique i
d’énergie Ui et un nombre de particules N. Dans ce cas, l’énergie de
(B) est: UB= UC-Ui et le nombre de particules de (B) est NB= NC-Ni.
Soit C(UC,Ui, NC,N) : le nombre d’états accessibles à (C) tels que A
possède l’énergie Ui et le nombre de particules N.
Soit B(UC-Ui, NC-N) : le nombre d’états accessibles à (B) dont
l’énergie est UB=UC-Ui et le nombre de particules est NB=NC-N.
Soit C(UC,NC) : lenombre
C 
U C , U total Ni  
, N C ,d’états U C U i , N
accessibles
B 
 Ni 
à C(C).
p N ,i  i

C U C
, NC  C U C
, NC 
Chapitre 8 Distribution grand canonique

I. Distribution grand canonique


Le développement limité de log B(UC-Ui, NC-N) donne:

La distribution de probabilité s’écrit dans ce cas :


  U i   N 
e
p N ,i 
  U i   N 
e
N ,i

C’est la distribution grand canonique.


Chapitre 8 Distribution grand canonique

I. Distribution grand canonique


La densité de phase dans le cas continu est donc :

  U  q , p   N 
e
  N , q, p  
1
h 
  U  q , p   N  3N 3N

3N
e d qd p
N 0

Remarque:

Cette distribution correspond à la probabilité de trouver le système dans


un états microscopique i tel que son énergie soit Ui et le nombre de
particules N à la température T et le potentiel .
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


La fonction de partition grand canonique est :

1
Z G T , V ,    3N  e
  U  q , p   N 
d
3N
qd
3N
p
N 0 h

Remarque :
Dans le cas ou les particules sont indiscernables il faut diviser la
fonction de partition par le facteur de Gibbs :

1 1
Z G T , V ,    3N  e
  U  q , p   N 
d
3N
qd
3N
p
N 0 N! h
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


La fonction de partition grand canonique peut se mettre sous la forme :

1
  e 
 U
N
 q, p 3N 3N
Z G T , V ,  3N
e d qd p
N 0 h

  e
N

Z G T , V ,  Z (T , V , N )
N 0

La fonction de partition grand canonique est une somme des fonctions



de partition canonique pondérée par le facteur fugacité : e
La distribution canonique s’écrit en fonction de la distribution
microcanonique de manière analogue, la somme est pondérée dans ce
cas par le facteur de Boltzmann: e  U i

Z T , V , N     e  U i
  (U i , V , N )
i
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


La fonction de partition grand canonique peut se mettre sous la forme :

1
  e 
 U
N
 q, p 3N 3N
Z G T , V ,  3N
e d qd p
N 0 h

  e
N

Z G T , V ,  Z (T , V , N )
N 0
La fonction de partition grand canonique est une somme des fonctions
 N 
de partition canonique pondérée par le facteur e , e est la fugacité.
La distribution canonique s’écrit en fonction de la distribution
microcanonique de manière analogue, la somme est pondérée dans ce
cas par le facteur de Boltzmann: e  U i

Z T , V , N     e  U i
  (U i , V , N )
i

(Ui,V,N) est le nombre d’états microscopique d’énergie Ui.


Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


Si les particules n’interagissent pas, la fonction de partition grand
canonique est :
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


Valeurs moyennes des grandeurs caractéristiques du système :
 Nombre moyen de particules :
 N   N p N ,i
N ,i

1   U i   N 
 N 
ZG
 Ne
N ,i

1 1 Z G
 N 
ZG  
1 l og Z G
 N 
 
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


Valeurs moyennes des grandeurs caractéristiques du système :
 Energie interne :
1   U i   N 
U 
ZG
U
N ,i
e

 l og Z G
U N 

 Le grand potentiel:
  T , V ,    kT l og Z G

 La pression:

P 
V
Chapitre 8 Distribution grand canonique

II. Fonction de partition grand canonique


Valeurs moyennes des grandeurs caractéristiques du système :
 L’entropie :
Chapitre 8 Distribution grand canonique

III. Distribution grand canonique pour un gaz parfait


Pas d’interactions entre les particules donc on a:
e  z0 ( T , V )
Z G T , V ,   e
Avec:
 2 m k T 
3 /2

z0V  
 
2
h
Ce qui donne: 3

 2  mkT
e  V 
2

  e  
2
h
Z G T , V ,

 Grand potentiel :
3

  2  mkT  2
  kT l og Z G  kT e V  
 
2
h
Chapitre 8 Distribution grand canonique

III. Distribution grand canonique pour un gaz parfait


 Nombre moyen de particules :
3

   2  mkT  2
 N   Ve  
  h
2

 Energie interne du gaz :
 l og Z G
U N 

3
 3

 2  mkT    3  2  mkT  
   N    e V 
2 2
U   e V  kT   
 h
2
  2  h
2

   
0

3
U   N  kT
2
Chapitre 8 Distribution grand canonique

III. Distribution grand canonique pour un gaz parfait


 Pression : 3

   2  mkT 
2
P   kT e  
V  h
2

 N  kT
P 
V

 Entropie :

3 3 3

   2  mkT     2 mkT  2 3   2  mkT  1


2 2
S   ke V    e V   kT e V  
T   
 h
2
 
 T h
2
 
2 
 h
2
 T


 N  U
T T T
Chapitre 8 Distribution grand canonique

IV. Equivalence entres les 3 ensembles

La distribution canonique est équivalente à la distribution


microcanonique si on remplace l’énergie constante du
système isolé par l’énergie moyenne du système fermé. De
même, la distribution grand canonique est équivalente à la
distribution canonique si on remplace le nombre de
particules constant du système fermé par le nombre de
particules moyen du système ouvert.
Chapitre 8 Distribution grand canonique

IV. Equivalence entres les 3 ensembles


Résumé:
IV.Ensemble IV.Ensemble IV.Ensemble grand
microcanonique canonique canonique

IV.U, N, V IV.T, N, V IV.T, , V


1   U i   N 
p  pi e  U i p N ,i e

 e
  U i   N 
Z   e  U i ZG
 i N ,i

 l og Z G
1
 N 
 
 l og Z  l og Z G
U  U N 
 

S  k l og  F  kT l og Z   kT l og Z G
Chapitre 8 Distribution grand canonique

V. Factorisation de la fonction de partition grand canonique

(S)=(S1)+(S2)
(S) échange l’énergie et
la matière avec le réservoir
(S1)et (S2) sont indépendants

Soit un état microscopique r du système (S). Les 2 sous systèmes sont


indépendants implique que l’état r est caractérisé par les deux états
microscopiques r1 et r2 des 2 sous systèmes. Dans ce cas,
U r  U r U r
1 2

N  N1  N 2
Chapitre 8 Distribution grand canonique

V. Factorisation de la fonction de partition grand canonique


La fonction de partition grand canonique du système (S) est :
  U r1 U r 2   N 1   N 2 
ZG  e
N ,r

  U r1   N 1    U r 2   N 2 
ZG  e
N 1 , r1
e
N 2 , r2

ZG  Z 1G Z 2G

La fonction de partition grand canonique d’un système composé de


deux
sous systèmes indépendants est égale au produit des fonctions de
partition grand canoniques des deux sous systèmes.
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie

0

-

1. Les particules sont indépendantes et indiscernables:


Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie
1. La fonction de partition d’une particule est:
 
z0 ( T , V )  e  e 
2. Ce qui donne :
e   e   e   
Z G T , V ,   e
3. Nombre moyen de particules
 l og Z G
1
N 
 
1     
N  e e e 
 
 N  e   e   e   
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie
1. Energie interne :
 l og Z G
U N 


U  e 
e

e  
 e

e

 e    

U   e   e    e  

2. On peut exprimer l’énergie interne en fonction du nombre moyen


de
3. particules et non en fonction du potentiel chimique, on obtient :
 
e  e 
U  N    
e  e 
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie
1. Nombre moyen de particules sur les deux niveaux :
N  N1  N 2   N  N 1    N 2 
 
U i
 N 1     N 2     U  N 1       N 2    

2. On trouve:
 
e
 N 1  N  
e  e  

e
 N 2  N  
e  e  
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie
1. Comparaison avec la distribution canonique
2. Le système est fermé avec un nombre N de particules.
1 N 1    N
Z   z0   e e 
N! N!

 l og Z  l og z0  
U   N  N l og  e  e   
  
 
e  e 
U  N  
e  e 
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


1. Système à deux niveaux d’énergie
1. Comparaison avec la distribution canonique
2. p1 la probabilité pour une particule d’être dans l’état d’énergie  et
p2
   
3. e celle e
dans l’état d’énergie -. On a :
p1    
z0 e  e 
 
e e
p2    
z0 e  e 

   
4. Par conséquent,
e le nombre
e moyen de particules sur chaque
 N 1  N p1  N  N  
niveau : z0 e  e 
 
e e
 N 2  N p2 N N  
z0 e  e 
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


2. Adsorption
• Les parois d’un recipient contenant un gaz
• peuvent adsorber les atomes du gaz dans
• des sites particuliers. On modélise ce
• phénomène en considérant que le solide
• constituant les parois est un système en
• contact avec un réservoir de température
• T et de potentiel chimique . Le réservoir
• ici est le gaz contenu dans le récipient.
La fonction de partition grand canonique
Chaque site qui adsorbe un atome du gaz est indépendant des autres.
La fonction de partition grand canonique du système (tous les sites) est
le produit des fonction de partition individuelles de chaque site.
Chapitre 8 Distribution grand canonique

VI. Quelques applications de la distribution grand canonique


2. Adsorption
La fonction de partition grand canonique
Les sites sont indépendants et discernables:
n
Z G   Z 0G 
Un site contient soit un atome et possède donc l’énergie -0, soit il est
vide et son énergie est nulle. Ceci donne pour la fonction de partition
grand canonique d’un site :
      
Z 0G  1  e 0

  0   
Z 0G 1 e

Ce qui donne :
n
  0
ZG  1  e e 
Chapitre 8 Distribution grand canonique

VI.Quelques applications de la distribution grand canonique


2. Adsorption
Le nombre moyen de atomes
 
 l og Z G
1 e e 0

Na  n
   
1e e 0

L’énergie des atomes adsorbés


 
 l og Z G e e 0
 n
U  N a   n  l og  1  e
  0
e 
  
1e e 
0

  0
e e
U  n  0   0
1e e
U  N a0
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
I. Introduction
En mécanique quantique les particules identiques sont
indiscernables.
L’indiscernabilité des particules  est liée à l’invariance du
P
  
Hamiltonien.   
ij

P i j  ( r1 , ...r , ...r j , ...)   ( r1 , ...r , ...r i , ...)



On introduit l’opérateur
i
tel que: j

 P i j
H
Pour tout i,j=1…N avec ij
Sachant  qu’on  a :[ , ] = 0. 
P i j  ( r1 , ...r , ...r j , ...)   ( r1 , ...r , ...r j , ...)
      
Cherchons  les
i

 valeurs  propres
  de cet opérateur:
i
 ( r1 , ...r j , ...ri , ...)   ( r1 , ...r , ...r j , ...)
i
  ( r , ...r , ...r , ...)   ( r , ...r , ...r , ...)
P ij 1 j 1 i
i j

     
  ( r , ...r , ...r , ...)
P    ( r1 , ...r , ...r j , ...)
2
ij
et   
1 ij
  
i   1
P i j  ( r1 , ...r , ...ri , ...)   ( r1 , ...r , ...r j , ...)

j i
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique

Les deux valeurs propre de l’opérateur de permutation
P sont donc:
ij

    1 La fonction d’onde est symétrique


    1 La fonction d’onde est antisymétrique

Pour un nombre quelconque de permutation, on associe l’opérateur
P :
     

P  (r , r
1 2
...r N )  ( r p 1
, r p ..., r p )
2 N

On considère un système de N particules n’interagissant pas entre


N
  h
elles.
H 
i
i

 
h résout
On
i
( r )  l’équation
i i
 ( r ) aux valeurs propres de l’hamiltonien à une
i i i
particule:
     
 ( r1 , r 2 ...r N )  1 ( r1 )2 ( r 2 )... N ( r N )
La fonction d’onde du système est alors:
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
En notation de Dirac, le vecteur ket associé est:
 k1 k 2 ... k N
k 1 , k 2 , ..., .k N
k1,…,kN désignent les nombres quantiques associés aux états à une
particule occupés.
Le vecteur bra correspondant s’écrit:
k 1 , k 2 , ..., .k N  k N ... k 2 k
  1 
La fonction d’onde ( r1 , r 2 ...r N ) ne posséde pas la propriété de
symétrie ou
d’antisymétrie assurant l’indiscernabilité des particules. Une
combinaison 
H
linéaire de toutes les permutations possibles de cette fonction est
aussi
solution de l’équation aux valeurs propres de
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
La fonction d’onde antisymétrique est donnée par:
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
La fonction d’onde symétrique est donnée par:

  
 (r )
1 1
 (r1 2
) . . .  (r1 N
)
  
 2
( r1 )  2
( r2 ) . . .  2
( rN )
   . . . . . .
 S
 r1 , r 2 , ..., r N   n orm
. . . . . .

. . . . . .
  
 ( r1 )  ( r2 ) . . .  ( rN )

N

 N N

P erm an en t
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
III. Remarque
Pour la fonction d’onde antisymétrique, 2 particules ne peuvent pas
être
dans le même état quantique sinon 2 lignes du déterminant seront
identiques ce qui donnera un fonction d’onde antisymétrique nulle :
C’est le
principe de Pauli pour les fermions.
 Fermions:1 spin 1/2 entier (électron, proton, neutron, muons.)

 N ! entier (photon, méson, particules … )


Bosons: spin

Les facteurs et norm sont des facteurs de normalisation.


Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
IV. Exemple
Système de 2 bosons:

La 1ère fonction d’onde symétrique normalisée est donnée par :


  1    
 S1
( r1 , r 2 )  1 ( r1 )2 ( r 2 )  1 ( r 2 )2 ( r1 ) 
2!
 

La 2ème fonction d’onde symétrique normalisée est donnée par :


  1 1    
 S2
( r1 , r 2 )  1 ( r1 )1 ( r 2 )  1 ( r 2 )1 ( r1 ) 
2! 4
 
Chapitre 10 Description grand
canonique d’un système quantique
I. Fonction de partition canonique
Pour un système quantique idéal (les particules n’interagissent pas)
,
N
l’opérateur
 Hamiltonien se met sous la forme:
H   hi
i

La fonction de partition canonique


1 est donnée par   :
 
 k1 , k 2 ..., k N e H k1 , k 2 ..., k N
AS
Z ( T , V , N )  tr  e 
H AS

N! k1 , k 2 ... k N

  
k 1 , k 2 ..., k N   1 ( r1 )2 ( r 2 )... N ( r N )
  
 ( r1 , r 2 , ..., r N )
S
 Distribution de MB: k1 , k 2 ..., k N  S

  
 ( r1 , r 2 , ..., r N )
A
 Distribution de BE: k1 , k 2 ..., k N  A

 Distribution de FD:
Chapitre 10 Description grand canonique
d’un système quantique
I. Fonction de partition canonique
 doivent vérifier l’équation aux valeurs propres:
Les fonction propres de
H N
 k , k ..., k
H
AS
E k 1 , k 2 ..., k N
AS
, av ec E  k
1 2 N i
i 1
Pour la distribution de MB:
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Pour la distribution de BE et de FD, les états symétriques et
antisymétriques
sont complètement déterminés si on connaît les états d’énergie à une
particule
occupés et le nombre de particules occupant chacun de ces états.
La répartition {n1, n2, …} des nombres d’occupations des états d’énergie
à
une particule permet de connaître l’état du système.
k 1 , k 2 ..., k N
AS

 Bosons: nk = 0,1,2,3,… n1 , n 2 ...,


AS

 Fermions: nk = 0,1
A

Au lieu de caractériser l’état 0,


du0,système
1, 0, 0, 1, ...
S
par , il devient
S

possible de le caractériser 0, 0, 1, 0, 0, 1, ...


par le vecteur d’état ou 0, 0, 2, 0, 0, 0, ...

Exemple :
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Les nombres d’occupation doivent vérifier les deux conditions



suivantes:
nk  N
k 1
 .

k 1
n  k k
E
 .
L’équation aux valeurs propres devient:
 n , n , ...
H
AS AS
E n1 , n 2 , ...
1 2

De
 même, on A S a: AS
N n1 , n 2 , ...  N n1 , n 2 , ...

Et:
 AS AS
n k n1 , n 2 , ...  nk n1 , n 2 , ...
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Deux états sont identiques si et seulement si tous les nombres
d’occupation nk
 n 'n n
AS
coïncident
AS
n1 ', n 2 ' ..., exactement.
n1 , n 2 ...,
1 1 2 ' n2
...

AS
n1 , n 2 ...,

   n de probabilité dans la base
L’expression de l’opérateur densité k k
k 1
 n , n ..., e
 
AS
AS
n1 ', n 2 ' ..., D 1 2
 n1 ' n1 n2 ' n2
...
Z T , V , N 


 n 
T , V , N    e
Avec:
k k
k 1
Z
 nk 
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Ici la sommation est effectuée sur toutes les répartitions permises {nk}
des
nombres d’occupation. Chacune de ces répartitions correspond à un
microétat
n k  0, 1 p ou r l es ferm i on s
du système. Cette sommation obéit aux 2 contraintes suivantes :
n k  0, 1, ..... p ou r l es b oson s

 . n
k 1
k
N

 .
Chapitre 10 Description grand canonique
d’un système quantique
III. La fonction de partition grand canonique
L’opérateur densité est donné par:

La fonction de partition grand canonique est donnée par:



 n  k  
  e
k
k 1
Z T , V ,
 nk 

Il n’y a plus la contrainte n k  N sur les répartitions {nk}, puisque le


k 1

nombre
de particules total n’es plus fixé à N.
Chapitre 10 Description grand canonique
d’un système quantique
IV. Application à la distribution de MB

N!
Les particules sont discernables, pour une répartition {nk}, on a
n1 ! n 2 ! ...n k ! ...

combinaisons possibles pour distribuer les N particules. En tenant


compte du
facteur de Gibbs 1/N! on a:
1
g MB{ n }

k
n1 ! n 2 ! ...n k ! ...

gMB est le poids de la répartition {nk} dans le cadre de la distribution


MB
Chapitre 10 Description grand canonique
d’un système quantique
IV. Application à la distribution de MB

La fonction de partition grand canonique devient:


Chapitre 10 Description grand canonique
d’un système quantique
V. Application à la distribution de BE
VI. Pour la distribution BE, le poids d’une répartition donnée {nk} est :
g BE { n
k }
1

VII. Le calcul de la fonction de partition grand canonique se fait donc


sans
VIII. contrainte sur les valeurs des nombres d’occupation des niveaux
d’énergie.
Chapitre 10 Description grand canonique
d’un système quantique
VI. Application à la distribution de FD
Pour la distribution FD, le poids d’une répartition donnée {nk} est :
1 si n k  0, 1

gFD{ n
k }

0 si n  0, 1
 k

Le calcul de la fonction de partition grand canonique donne :


Chapitre 11 Le gaz idéal de Bose Einstein

I. Introduction
Le gaz idéal de Bose Einstein donne un gaz parfait dans la limite
classique qui
correspond à des 2 températures élevées ou/et des densités faibles:
N 3 N  h 
    1
V V  2 m k T 

II. Le facteur de Bose


III. On a:
Chapitre 11 Le gaz idéal de Bose Einstein

II. Le facteur de Bose


Chapitre 11 Le gaz idéal de Bose Einstein

II. Le facteur de Bose


III. Le facteur de Bose doit être positif, ce qui implique que k >  
k. En
IV. particulier lorsque k = 0, ce qui donne  < 0. Le potentiel
chimique d’un gaz
V. de bosons est négatif.
1
nk    k  
e 1
Chapitre 11 Le gaz idéal de Bose Einstein

III. Le grand potentiel

  kT l og  Z B E  T , V , 
En utilisant l’expression de la fonction de partition grand canonique, on
obtient:

  kT  l og   1  e   e    k

k 0

On a :  
 N  
  T , V
 
 U T S   N  pV  S  
 T V , 
 
p  
 V T , 
Chapitre 11 Le gaz idéal de Bose Einstein

IV. Nombre moyen de particules

On peut calculer le nombre de particules moyen de 2 manières:

 N . N  T r  D N   
  S  N n , n , ...,
n1 , n 2 , ..., D
S
1 2
{ nk }


 N . 
 T , V
On obtient:
 
1
N    k  
   nk 
k 0 e 1 k 0
Chapitre 11 Le gaz idéal de Bose Einstein

V. Energie interne
  tr D H
L’énergie interne est donnée par:U  H  


Soit: U   l og  Z B E  T , V ,    N



U  k
  k  
k 0 e 1
La différence entre les niveaux d’énergie à une particule est très faible
et on
peut remplacer la sommation sur les niveaux d’énergie par une
k   g    d 
intégration:

g() est la densité d’état à une particule, c’est le nombre d’états dont
l’énergie
est comprise entre  et +d.
Chapitre 11 Le gaz idéal de Bose Einstein

V. Energie interne
Les états d’énergie à une particule donnés par:
2
 2
k
 
k 2

2 mV 3

Ce qui donne: 1
3
V
 

4  2 3
2 m2  2
d
k

g ( )

On obtient:
 
1
N    k  
   nk 
k 0 e 1 k 0
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein

Le nombre moyen de particules est :


2 V 3  1
1
N 
h
3
2 m2 
0
2

e
    
1
d

On pose : x=
V
l og  Z B E  T , V ,   g 5 /2   
 3

V
N  g 3 /2   
 3

1

x
k 1

 k  
Les intégralesg k    1
d x av ec 0   1 et k 
0
e
x
1

sont les fonctions de Bose Einstein


Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Allure de g1/2()
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Limite classique :
Pour des valeurs faibles de , on ga:3 /2     ce qui donne :
V
N  
 3

Le gaz quantique se comporte comme un gaz parfait classique quand la


température est élevée ou si le potentiel chimique est faible.
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Gaz de bosons dégénérés :
Le nombre de particules sur les états excités est donné par:
 2 m k T 
3 /2

N ex V   g 3 /2   
 
2
h

Pour =1: g3/2(1)=2.612


Le nombre de particules sur l’états fondamental est:
1
N0   
e 1
La température critique Tc est donnée par :
2
2 /3
2  N 
Tc   
mk V 
2 /3
2 .6 1 2
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Gaz de bosons dégénérés :

Vous aimerez peut-être aussi