Vous êtes sur la page 1sur 220

Physique statistique

Cours
Bibliographie
Roger Balian
Du microscopique au macroscopique
Cours de physique staristique de l’école polytechnique
(ellipses 1982)
Henri Bacry
Introduction aux concepts de la physique statistique (ellipses
1991)
Frederick Reif
Physique statistique volume 5 (armand colin 1972)
L.D. Landau et E.M. Lifshitz
Physique statistique (3ème edition 1980)
http://www.math.jussieu.fr/~helein/cours/mq.pdf
http://www.phys.ens.fr/~dalibard/
Chapitre 1 Introduction
1. Les états de la matière
 L’état solide : Les particules ne bougent pas ou très
peu. On peut avoir des solides cristallins où les
particules occupent des sites particuliers. On a aussi
des solides dits amorphes où la position des particules
est aléatoire.
 L’état liquide : Les particules sont libres et peuvent se
mouvoir dans différentes directions.
 L’état gazeux : Les particules sont complètement libres
et les interactions entre ces particules sont très faibles.
Chapitre 1 Introduction
2. Mouvement Brownien

Quand on observe une goutte d’un liquide au microscope,


les particules en suspension ont un mouvement aléatoire.
Chapitre 1 Introduction
2. Mouvement Brownien

chocs

Le mouvement d’une particule en suspension est dû aux


chocs successifs avec les molécules du liquide.
Chapitre 1 Introduction
3. Définition d’un système
• C’est l’ensemble des corps compris à l’intérieur d’une
surface fermée.

1er système : gaz

2ème système : gaz


+ chauffage

Un système macroscopique contient un nombre très grand de


particules de l’ordre du nombre d’Avogadro.
Chapitre 1 Introduction
3. Définition d’un système
Un système est isolé s’il n’échange ni énergie ni
matière avec le reste de l’univers. Un système fermé
échange de l’énergie mais pas de la matière avec le
reste de l’univers. Un système ouvert échange de
l’énergie et de la matière avec l’univers
Chapitre 1 Introduction
4. Description macroscopique d’un système

Particules en
mouvement

Pour suivre l’évolution d’un système macroscopique,


il suffit de résoudre l’équation dynamique du
mouvement pour toutes les particules comprises dans
ce système. Cela fait environ 1024 équations à résoudre.
Chapitre 1 Introduction
4. Description macroscopique d’un système

• En plus, il faut tenir compte des différentes interactions


entre les particules et connaitre à l’instant initial la
position et la vitesse de chacune de ces particules.
• Les ordinateurs à l’heure actuelle ne sont pas assez
puissants pour faire ce calcul.
• Donc même si on sait formuler le problème, il est
impossible matériellement de le résoudre.
Chapitre 1 Introduction
4. Description macroscopique d’un système

Pour un gaz parfait confiné dans un volume V, la


thermodynamique nous enseigne que pour connaître
l’état de ce gaz , il suffit de connaître quelques
variables macroscopiques tels que la température,
pression... Ce sont les variables d’état du système.
Chapitre 1 Introduction
4. Description macroscopique d’un système
• Variables d’état intensives, extensives

V1 V2

Considérons les deux volumes V1 et V2 contenant de


l’eau et échangeant de l’énergie.
Chapitre 1 Introduction
4. Description macroscopique d’un système
V1 V2

La température après un certain temps va être égale dans les


deux volumes : T1= T2=T.
Si on met les deux volumes en contact:
les volumes vont s’additionner pour donner le volume
total :V= V1+ V2.
Chapitre 1 Introduction
4. Description macroscopique d’un système

On dit que la température est une variable d’état


intensive tandis que le volume est une variable d’état
extensive.
 Variables intensives : T, P , ,…
 Variables extensives : V, m, …
Chapitre 1 Introduction
4. Description macroscopique d’un système
• Physique classique, physique statistique
 Physique classique : Etude des systèmes
macroscopiques sans faire appel à la structure
microscopique. Elle est basée sur les principes
généraux de la thermodynamique, de la mécanique,
de l’électromagnétisme.
 Physique statistique : Etude des systèmes
macroscopiques à partir de la structure microscopique
tout en considérant un nombre élevé de particules.
Chapitre 1 Introduction
5. Equilibre d’un système
Un système macroscopique est dit en équilibre si les
variables d’état ne varient pas en moyenne dans le
temps.
1er exemple :
La concentration de l’eau c(t) varie au
cours du temps:
Situation initiale : coloration non
homogène.
 Situation finale : coloration violette
homogène, donc on a un équilibre
(plus d’évolution au cours du temps).
Chapitre 1 Introduction
5. Equilibre d’un système
Remarque :
• A l’équilibre, on a des mouvements microscopiques
mais pas d’évolution macroscopique.
2ème exemple
N1(t) N2(t)
Chapitre 1 Introduction
5. Equilibre d’un système

On s’intéresse à l’évolution du nombre de molécules


dans chaque moitié du volume.
Même en équilibre le nombre de particules dans une
moitié du volume fluctue autour de la valeur moyenne
N/2.
Chapitre 1 Introduction
5. Equilibre d’un système

N1 (t ) La valeur moyenne N1 (t ) est

constante et est égale à N


N 2
2
Chapitre 1 Introduction
6. Equation d’état
L’expérience montre qu’il suffit de connaitre deux
variables pour caractériser l’état d’un système.
Exemples :
 Gaz parfait: l’équation d’état du gaz parfait PV  nRT
 Un fil métallique tendu

L’équation d’état du fil relie:



la température T, la tension du fil F

et la longueur du fil L: L=f(T, F ).
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
Etude d’un système → résoudre les équations de
mouvement de n particules (n  1)

→ où méthode statistique qui est

d’autant meilleure que n est élevé.


Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
• On considère un système (S) sur lequel on effectue N
mesures d’une grandeur physique a.
• On obtient les valeurs a1, a2, a3, a4, a5,… ai, …. an.
• Chacune de ces valeurs est réalisée un certain
nombre de fois.
• Par exemple la valeur ai est réalisée Ni fois.
Ni
• Sa fréquence est donné par le rapport : N .
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
• lorsque N tend vers l’infini, la limite de cette fréquence
donne la probabilité de réaliser la valeur ai.
Ni
Pi  lim
N  N
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
On peut procéder pour la mesure de la probabilité Pi
de deux manières suivantes :
 On doit répéter un grand nombre N de fois la mesure
pour le même système.
 On prend un grand nombre N de systèmes identiques
au système (S) et on mesure pour chacun d’eux la
grandeur a.
L’ensemble des N systèmes identiques est appelé
ensemble statistique
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
Le résultat de la mesure de la grandeur a est appelé
en terme de probabilité : événement.
L’ensemble de tous les événements  est appelé
espace entier ou univers des possibles:   a1 , a2 , a3 ,..., ai ,...an 
Par opposition,  est l’espace vide ou l’événement
impossible.
Exemple:
Lancer une pièce: 2 événements ={Pile, Face}
Lancer un dé : 6 événements ={1,2,3,4,5,6}
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
Avec l’ensemble statistique on peut soit :
 Mesurer la grandeur a pour chacun de ces systèmes.
 Construire un ensemble représentatif en mettant a
priori le nombre N1 de résultats pour la valeur a1 et N2
pour la valeur a2 …
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
Exemple:
Considérons le lancer d’une pièce :

 On peut avoir N pièces identiques et le lancer de ces pièces donne par


exemple:

NF = NP = N/2
Chapitre 2 Notions de probabilités
1. Ensemble statistique. Probabilités
 Si la pièce n’est pas truquée et que les faces sont
parfaitement identiques (le centre de gravité
coïncide avec le centre géométrique)

NF
= NF = NP = N/2
NP
Chapitre 2 Notions de probabilités
2. Propriétés
Considérons deux événements A et B:
 L’événement AB est l’événement A ou B (réalisé si
soit A soit B est réalisé).
 L’événement AB est l’événement A et B (réalisé si
à la fois A et B sont réalisés).
A

AB
AB
B
Chapitre 2 Notions de probabilités
2. Propriétés
 Deux événements A et B sont dits incompatibles ou
exclusifs si AB= ( ne peuvent pas être réalisés
simultanément comme par exemple pour le lancer d’un
dé l’événement 1 et l’événement 3).

A
A
AB

B
B

A et B événements non exclusifs A et B événements exclusifs


Chapitre 2 Notions de probabilités
2. Propriétés
 P()=1
 P( )=0
 Pour deux événement incompatibles A et B, la
probabilité de AB est P(AB)=P(A)+P(B).
 Pour deux événements quelconques A et B, la
probabilité de AB est P(A B)=P(A)+P(B)- P(AB)
(voir demo TD)
 Pour deux événements indépendants A et B, la
probabilité de AB est P(AB)=P(A)*P(B)
Chapitre 2 Notions de probabilités
3. Probabilité conditionnelle
C’est la probabilité de réaliser l’événement A lorsque
l’événement B est réalisé. Elle est donnée par :
P( A  B)
P( A / B ) 
P( B)
Dans le cas ou les deux événement A et B ne sont pas
indépendants, on a: P(AB)=P(B)*P(A/B),
Exemple
le lancer d’un dé: Evénement A: 3
P(A/B)=1/4
Evénement B: 3
Chapitre 2 Notions de probabilités
4. Valeur moyenne écart quadratique
Valeur moyenne:
a1, a2, …, ai…an N1a1  N 2 a2  ...  N i ai  ...  N n an
a
N  N  ...  N  ...  N
 1  2    i     n
N
N1, N2,…, Ni,…Nn n
a   P (ai ) ai
Propriétés : n
i 1

 .f (a)  
i 1
P( ai ) f (ai )

 .f (a)  g (a)  f (a)  g (a)


 . f (a)   f (a)
Chapitre 2 Notions de probabilités
4. Valeur moyenne écart quadratique
Ecart quadratique:
C’est une mesure de dispersion.
ai  ai  a  ai  0
Donc pour mesurer la dispersion on utilise :
   ai   0
2

fréquence d’apparition

 a ai a
: Dispersion relative
a2
 : Variance
Chapitre 2 Notions de probabilités
5. Distribution binomiale
a. Quelques rappels
 Factoriel : N entier, N ! = N( N-1)(N-2)…2x1
 Permutation : Considérons un nombre N d’éléments numérotés
de 1 jusqu’à N. on dispose de N cases pour les ranger. Le
nombre de permutations est égal au nombre de façons de ranger
les N éléments dans les N cases.
Chapitre 2 Notions de probabilités
5. Distribution binomiale
a. Quelques rappels:
On a  N possibilités de remplir la 1ère case
N-1 possibilités de remplir la 2ème case


1 possibilité de remplir la dernière case
Finalement, c’est N(N-1)(N-2)….2x1 = N ! Permutations
Chapitre 2 Notions de probabilités
5. Distribution binomiale
a. Quelques rappels:
 Arrangements:
Considérons un nombre N éléments et un nombre n cases.
Pour remplir la 1ère case, on a N possibilités
Pour la 2ème case on a N-1 possibilités
Pour la nème case on a N-n+1 possibilités.
Finalement, c’est N(N-1)(N-2)…(N-n+1) arrangements de n
n N!
éléments parmi N éléments AN 
 N  n !
Chapitre 2 Notions de probabilités
5. Distribution binomiale
a. Quelques rappels:
 Combinaison :Le nombre de combinaisons de n
éléments choisis parmi N éléments ne dépend pas de
l’ordre avec lequel on remplit les cases .

Même combinaison mais arrangements différents


Chapitre 2 Notions de probabilités
5. Distribution binomiale
a. Quelques rappels:
Le nombre de combinaison est donc égal au nombre
d’arrangements divisé par le nombre de permutations n !
n ANn
C 
N
n!

Soit:

n N!
C 
N
 N  n ! n !
Chapitre 2 Notions de probabilités
5. Distribution binomiale
b. Distribution binomiale
Problème de la marche au hasard : On prend l’exemple d’un
homme qui se déplace sur une ligne droite. Il n’as le droit que de faire
un pas soit vers la gauche soit vers la droite. Chaque pas qu’il fait est
indépendant du pas précédent. Soit d la longueur d’un pas qui est
constante. d

droite
gauche

La probabilité de faire un pas vers la droite est p et celle de faire un


pas vers la gauche est q : p + q = 1
Chapitre 2 Notions de probabilités
5. Distribution binomiale
b. Distribution binomiale
• Question: Après N pas au total, quelle-est la
probabilité que l’homme ait fait n pas a droite?
• Réponse: Il s’agit de savoir combien on peut former
de combinaisons de n pas à droite parmi N pas au
total et quelle est la probabilité de chacune de ces
combinaisons?
• Donc cette probabilité est proportionnelle à : CNn
• Les pas sont indépendants donc la probabilité d’une
n N n
séquence est : Pc (n)  p q
Chapitre 2 Notions de probabilités
5. Distribution binomiale
• Distribution binomiale

• Exemple au tableau
Chapitre 2 Notions de probabilités
5. Distribution binomiale
b. Distribution binomiale
Les combinaisons sont exclusives . Donc la probabilité de
réaliser n pas à droite parmi N pas au total est :
P (n)   Pc (n)

Soit,

P(n)  C Nn p n q N  n

Loi de probabilité binomiale


Chapitre 2 Notions de probabilités
5. Distribution binomiale
b. Distribution binomiale
Proptiétés:
TD → La valeur la plus probable de n est : nmax= Np = n
L’écart quadratique  est:  = p q N
Chapitre 2 Notions de probabilités
5. Distribution binomiale
c. Distribution Gauss
On considère la distribution binomiale lorsque N  1.
Question: Quelle-est la valeur n pour laquelle p(n) est
Maximale?
Réponse: P(n) max → log(P(n)) max
d log  P (n)  log( P (n  1)  log  P(n)   P (n  1) 
  log  
dn n 1 n  P ( n ) 
Car: N  1 → n  1 → n+1-n  dn (n peut être considérée
comme une variable continue).
Chapitre 2 Notions de probabilités
5. Distribution binomiale
c. Distribution Gauss
En remplaçant par leur expression P(n+1) et P(n), on a :
d log  P(n)   N n p
 log   0  n  N p n
dn  n q
Le développement limité de log(P(n)) au voisinage de n :
   
2
d log  P (n)  nn d log  P (n)  nn 2

 
log  P (n)   log P(n) 
dn 1!

dn 2
2!
 ...
      n n       n  n
0 1

Npq
Ce qui donne finalement la distribution de Gauss :
1
 2
( n  n )2
2
P ( n)  P (n ) e
Chapitre 2 Notions de probabilités
5. Distribution binomiale
b. Distribution binomiale
Proptiétés:
TD → La valeur de P( n ) est calculée en T.D.
Chapitre 2 Notions de probabilités
5. Distribution binomiale
c. Distribution Gauss

P( n )

P (n)
P( n ) /e

n  n   2    P ( n) 
e

n
Chapitre 2 Notions de probabilités
6. Application: Gaz parfait dans un volume V
On considère un gaz parfait isolé et à l’équilibre dans une
boite de volume V.
La probabilité pour qu’une molécule soit à droite est p et
celle pour qu’elle soit à gauche est q.

n et n’ ne sont pas constants.


Distribution binomiale:

P (n)  C Nn p n q N n
Chapitre 2 Notions de probabilités
6. Application: Gaz parfait dans un volume V
N
Si V = V’ = V/2 → p = q = 1/2 → n
2
P(5) ~1/4 et P(2) ~1/23

x x
x x
x x x x
Situation uniforme : P(5) > P(2)
x x

x x x
x
x x x
x Situation non uniforme : P(2) < P(5)
x
x
Chapitre 2 Notions de probabilités
6. Application: Gaz parfait dans un volume V
La probabilité P(0):
 N=4
4
1 1
x P(0)  C40   
x x  2  16
x Une image sur 16 apparaîtra sous cette forme

 N=Na
Na
0 1 1 1
P(0)  CN a    1024
 3x10 23
1
2 2 10
23
Une image sur 103x10 apparaîtra sous cette forme
Si on prend une image par seconde il faut attendre
3x1023
Environ 10 milliards d’années pour voir apparaitre
cette forme. L’âge de l’univers: 15 milliards d’années
Chapitre 2 Notions de probabilités
6. Application: Gaz parfait dans un volume V
Conclusion
 La situation de n = 0 est pratiquement irréalisable sa
probabilité tend vers 0.
 Pour un système macroscopique où N ~ Na, la mesure
de n donnera toujours la valeur moyenne.
Chapitre 3 Description d’un système
statistique classique
On va combiner les lois de la mécanique classique avec
les lois de probabilités.
1. Rappel de mécanique
Soit un système de N particules.
Soit un repère galiléen (S) et vi est la
vitesse de la particule i par rapport à (S).
L’énergie cinétique du système est donnée par :
1
Ec ( s )   mi vi 2
i 2
Chapitre 3 Description d’un système
statistique classique
1. Rappel de mécanique

On considère
 le repère
 barycentrique (B) tel que:
   (S) (B)

v i  vi ( B )  v G ( S )
G

Le théorème de Koenig nous donne:


1
Ec ( S )  Ec ( B)  m vG 2
2
m est la masse totale du système

Pour un système isolé, L’énergie mécanique E est une constante.


Si les forces internes dérivent d’un potentiel, alors l’énergie
mécanique du système est :
1
E ( S )  Ec ( B)  E p  m vG 2
   2
Energie int erne U
Chapitre 3 Description d’un système
statistique classique
1. Rappel de mécanique
Généralement on considère un système au repos (Vg = 0).
Pour un système isolé, l’énergie mécanique E(S) est
constante donc l’énergie interne U est constante aussi.
Remarque:
 Si Ec ( B)  E p (int) fluctue alors U  Ec ( B)  E p (int)
 L’énergie potentielle est définie à une constante prés.
Donc, l’énergie interne est définie aussi à une
constante prés. C’est sa variation qui possède une
signification physique.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
a) Etat macroscopique et état microscopique
 Etat macroscopique : donnée des paramètres
macroscopiques tels que la température, la pression,
l’énergie….
 Etat microscopique : donnée de l’état précis de toutes
les particules du système. Par exemple, pour un gaz
de molécules : l’état microscopique de ce système est
connu si on connait les données de position et
d’impulsion de toutes les molécules contenues dans ce
gaz.
Chapitre 3 Description d’un système
statistique classique
b) Espace de phase
c) Degré de liberté
Le nombre de degrés de liberté d’un système f est égal
au nombre de coordonnées spatiales indépendantes à
l’aide desquelles on décrit le système.
Exemple:
Une molécule monoatomique, f =3 G

Une molécule diatomique, f =5


Un gaz parfait de N molécules monoatomiques, f =3N
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
c) Exemple du gaz parfait monoatomique
On considère un gaz parfait monoatomique de N molécules.
 Etat macroscopique: donnée de T, P U,…..
 Etat microscopique : donnée de ri et pi , i = 1…N.
On a : 6 N paramètres pour déterminer l’état microscopique

du gaz.
Le nombre de degré de liberté est, f =3N
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 1 degré de liberté
On considère une masse m accrochée à un ressort.
L’ensemble forme un oscillateur harmonique.

Système = (support + ressort + m)


x

Le système est isolé. D’autre part, le support qui est le mur 



est confondu avec le centre de gravité de système donc: vG  0
Par conséquent l’énergie interne U est constante.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 1 degré de liberté
U  Ec  E p
1 px2 1
U  m x2
2 m 2
A un instant donné, l’état du système est px
M(x,px)

décrit par la coordonnée x et la quantité


de mouvement px.
Le point M se déplace dans l’espace de phase à deux x

dimensions.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 3 degrés de liberté
Un atome qui se déplace dans une boite de volume V.
L’état de l’atome est déterminé par la donnée des 3
coordonnées de l’espace et des 3 composantes de
l’impulsion : M(x,y,z,px,py,pz).
L’espace de phase est à 6 dimensions.
M est le point représentatif de l’état microscopique
du système et se déplace dans l’espace de phase au cours
du temps.
Chapitre 3 Description d’un système
statistique classique
2. Espace de phase
d) Espace de phase
 Système à 3 N degrés de liberté
C’est le cas d’un gaz de N molécules monoatomiques.
L’état est représenté par le point M de coordonnées dans
l’espace de phase telles que :
x1…xN ;y1…yN ;z1…zN
M
Px1…pxN ;py1…pyN ;pz1…pzN

Les molécules entrent sans cesse en collision.


Les valeurs de la quantité de mouvement (pxi,pyi,pzi)
et la position des particules (xi ,yi ,zi ) changent
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
On considère un système macroscopique avec  degrés de
liberté.
La position des points du système dans l’espace est décrite
par  coordonnées spatiales : qi, i= 1… 
Le point décrivant l’état du système à un instant donné est
défini par les  coordonnées spatiales qi et les 
composantes d’impulsion correspondantes pi. L’espace de
phase est à 2 dimensions.
Chaque point de l’espace de phase correspond à un état
microscopique du système.
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
Si on prend un petit volume dans l’espace de phase qp (qipi i=1,),
le système passera plusieurs fois par cet élément de volume pendant un
intervalle de temps T suffisamment long.
Soit t la fraction de temps passé par le système dans l’état
microscopique
caractérisé par qp.
Si l’intervalle de temps T devient élevé, la probabilité pour que le système
soit dans l’état microscopique correspondant à qp de l’espace de phase
est donnée par le rapport: t
P  lim
T  T
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
A la limite, on considère un élément de volume dans l’espace
de phase dqdp tel que :
dqdp =dq1dp1 dq2dp2... dqfdpf
La probabilité de trouver le système dans un état de
coordonnée spatiale comprise entre qi et qi + dqi et une
impulsion comprise entre pi et pi+dpi (i=1, ) peut être
exprimée par : dP    q, p  dqdp

(p,q) est appelée densité de phase


Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
La probabilité dP doit satisfaire la condition de normalisation ce
qui donne :   q, p  dqdp  1

espace de phase

Si on considère l’ensemble statistique de N systèmes, la


probabilité dP est égale au nombre Ni de systèmes dont le
point représentatif se retrouve dans l’élément de volume dqdp.
Donc, tous les points représentatifs de l’ensemble statistique
seront distribués dans l’espace de phase avec une distribution
donné par la densité de phase (p,q).
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
a) Définition
Pour connaître l’état macroscopique du système il suffit de connaître la
fonction de distribution de la probabilité (p,q). Le calcul de la valeur
moyenne des paramètres macroscopiques se fait à l’aide de cette
fonction.
La valeur moyenne d’un
A paramètre
 A q, p A(q,p)
q, p est donnée par:
    
dqdp

La connaissance de la densité de phase nous permet de calculer la valeur


moyenne de n’importe quel paramètre au lieu de suivre l’évolution du
système au cours du temps et de faire la moyenne sur le temps de ce
paramètre.
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
L’hypothèse ergodique :
t T
1
0

L’égalité entre la moyenne sur le temps : A   A(t ) dt


T t
et sa moyenne sur l’ensemble statistique: A  A q, p  q, p dqdp
0

    
est appelé hypothèse ergodique.
Remarque:
Si on prend le cas d’un système isolé en équilibre, la densité
de phase est uniforme dans l’espace de phase et dans ce cas
tous les états microscopiques sont équiprobables. Pour que
l’hypothèse ergodique soit vérifiée, il faudrait que la trajectoire
temporelle de ce système passe par chaque point de l’espace
de phase mais ce n’est pas le cas pour certains systèmes.
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
On considère un volume w dans l’espace de phase et  une surface
entourant ce volume.

La variation du nombre de points représentatifs


des systèmes de l’ensemble statistique
pendant le temps dt est donné par :

 
    q, p  dqdp  dt
 t w 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
Cette variation est due au flux de points qui entrent dans le volume w
pendant le temps dt moins celui des points qui en sortent. Ce flux est
égal
 au nombre de points situé dans le volume cylindrique de longueur
v dt et de base d ,donc  c’est
 la densité de ces points (q,p)
multipliée v dt d 
par l’élément de volume
Le bilan du flux entrant et du flux sortant est
 ce flux 
donné en intégrant  la surface 
sur
    q, p  vd  dt
 

Théorème de la divergence  


    
 
    q, p  vd  dt    div  v dqdp  dt
  w 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
L’ensemble statistique garde un nombre N constant de systèmes, on a
ni apparition ni disparition de systèmes à l’intérieur du volume w, donc :
   
 
w  t  div  v  dw  0
Le Volume w est arbitraire, l’intégral s’annule
si l’intégrant s’annule, soit:
 
t
 
 div  v  0

 
On explicite div  v :
     
 
 
div  v     qi  
i qi   pi
  
  pi 
 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
        
 
div  v     qi  
i qi   pi 
  pi 

 
        
 q  pi
 
div  v   
i  qi
qi  pi      i 
pi  i  qi pi


 
On a les 2 équations de Hamilton qui sont:  H  H
qi  et p i  
pi qi

Ce qui donne:         H H 
 
div  v   
i  qi
qi 
pi
pi     
q  p

p q

  i   i  i   i i 
 
0
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville

Finalement, en remplaçant
 
div  par
v son expression, on a:

   H  H 
    0
t q p p q
 i   i  i   i  i 
crochet de Poisson: , H 
           
d
dt
On obtient le théorème de Liouville:
d 
  , H   0
La densité de phase est constante le long de la trajectoire.
dt t

 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
Remarque 1 : Importance de l’énergie

Si , alors la densité de phase  est une combinaison de q et p


indépendante du temps. C’est une intégrale du mouvement.
De plus si nous avons 2 sous-systèmes, la densité de phase du
d  est égale au produit des densité de chacun:  = 
système total0 12 1 2

dta le logarithme de la densité de phase qui est additif:


Donc, on
log 12 = log 1 +log 2
Ceci implique que log  est une combinaisons linéaire des intégrales
premières du mouvement: l’énergie, la quantité de mouvement et le
moment cinétique

 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
Remarque 1 : Importance de l’énergie
On peut toujours trouver un système de coordonnées tel
que la quantité de mouvement et le moment cinétique
s’annulent. On a alors:
log  =  +  U

D’où l’importance de l’énergie en physique statistique

 
Chapitre 3 Description d’un système
statistique classique
3. Densité de phase
b) Théorème de Liouville
Remarque 2 : Equilibre thermodynamique
Dans ce cas , le système ne dépend pas explicitement du
temps:   0
t
L’ensemble statistique décrit par (q,p) est stationnaire.
Pour un tel système, la moyenne de n’importe quelle
grandeur physique est indépendante du temps: le système
est en équilibre et le crochet de Poisson s’annule :  , H   0

 
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Définition
Un système macroscopique est toujours soumis à des
contraintes (N est constant, U constant …).
Ces contraintes imposent un domaine de l’espace de
phase où la densité de phase est non nulle.
Un état accessible est un état compatible avec ces
contraintes.

 
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Définition
Exemple: Oscillateur harmonique
On suppose que les frottements sont négligeables, donc le
système est isolé et son énergie est constante
(contrainte ← U constant ).
M(x,px)
1 px2 1
U  m x 2  cte
2 m 2 px

Le point M décrivant l’état de l’oscillateur


harmonique se déplace sur une ellipse.
x
 
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
 On considère une particule qui se déplace dans une
seule direction (f =1)
Les contraintes : 0 ≤ x ≤ L ; -p0 ≤ px ≤ p0
p0
Le nombre d’états accessible au système est
Égal au nombre de points situées à l’intérieur px

de la zone hachurée. x L
x
Mais principe d’Heisenberg: xpx ≥ /2
-p0

 
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
La région accessible de l’espace de phase est divisée en
cellules carrées de surface égale à h.
Chaque état microscopique du système p 0
Surface : xp =h.
représenté non par un point mais par une p
x

une cellule de surface: xpx=h.


x L
Le nombre d’états accessible  est égal à
La surface de phase accessible divisée par h. -p0

2 p0 L
Pour cet exemple: 
h
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
 On considère N particules et f =3N degrés de liberté
L’espace de phase est un hyper volume à 6N dimensions.
On a pour chaque paire de coordonnées d’espace et
d’impulsion : qipi=h  avec i=1, f.
Le nombre d’états accessibles est :
Hypervolume accessible

hf
Chapitre 3 Description d’un système
statistique classique
IV. Etats accessibles. Contraintes
a) Calcul du nombre d’états accessibles
Remarque:
La dimension de la cellule n’est pas nécessairement égale à h, elle est
imposée par l’incertitude des mesures.
Mais la mécanique quantique qui, à la limite devrait donner le cas
classique impose ce facteur. En fait, l’équivalence entre les états
microscopiques en mécanique classique et les micro-états quantiques
impose un dimensionnement de la cellule tel que:

1 dpdq
d wl’espace
dw est l’élément de volume de  def phase
N! h
les particules en mécanique quantique sont indiscernables, ce n’est
pas le cas en mécanique classique. 
Chapitre 4 Description d’un système
statistique quantique
I. Micro-état et Macro-état
 Un micro-état d’un système quantique est un état
parfaitement connu que l’on représente par un vecteur de
l’espace de Hilbert (ou ket) : 
 Un macro-état est un mélange statistique ou le
vecteur espace n’est pas entièrement déterminé. Il est
représenté par un ensemble de kets possibles  avec la
probabilité q de chacun.
La condition de normalisation dans ce cas est:
q

 1
Chapitre 4 Description d’un système
statistique quantique
II. Moyenne d’une observable
 Soit un système quantique dans le micro-état pur  et soit une
observable Â. La probabilité d’obtenir la valeur propre ai de
l’observable  lors d’une mesure est :
P(ai)=i 
i est le projecteur sur le ket propre de  dont la valeur propre est ai.
 Si le système est dans le macro-état représenté par le mélange
statistique . La probabilité pour que la mesure de l’observable Â
donne la valeur propre ai est: P (ai )   q     i   

La valeur moyenne de l’observable


 A Â est donc :
  q ai     i   
i 

 A    q    Â   
Ce qui donne : 
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
En faisant intervenir les vecteurs propres de l’observable  et la
relation de fermeture relative à ces vecteurs :  ai   ai  1
i
On peut mettre la moyenne <A> sous la forme :
 A    q  a j      ai   ai  a j 
i j 
Ou encore:
 A     a j     q   | ai  ai  a j 
i j

    q 
On pose : D    

 est l’opérateur densité. Il suffit de connaître l’opérateur densité d’un


D
système pour calculer les moyennes de toutes les observables.
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
On peut réécrire la moyenne de  en fonction de l’opérateur densité:
Âa 
 A    aj | D j
j

Soit:
Remarques:
 
 A   Tr D A

 La probabilité de la mesure de la valeur ai est donnée par:



P  ai   Tr D 
i 
L’ensemble des valeurs  a D  a forment une matrice dans
i j
la base des kets propres de l’observable Â. Seuls les éléments
diagonaux représentent les probabilités des valeurs propres.
 Pour un système dans le micro-état pur , l’opérateur densité
est :
  |    |
D
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
Exemple:
Le cas d’un spin dans le mélange statistique tel qu’il soit
orienté selon Oz avec la probabilité 1/2 ou selon – Oz avec
la probabilité 1/2.
L’opérateur densité est:

Propriétés de :
est hermitien car  et 1 1
 D  q(|est réel
   |)  (|    |)
 Tr( ) = 1 car 2 2
 car q est positif.

D
    q 

D D    


D  q 1
 |   est positif  |  
 | D
Chapitre 4 Description d’un système
statistique quantique
III. L’opérateur densité
Théorème de Liouville
L’évolution dans le temps du système quantique obéit à
 |  (t )  
l’équation de Schröndinger : i  H |  (t ) 
 dt
Sachant que D  |   | , on peut montrer facilement:

D
i ,D
 H 
t  
Cette relation est la version quantique du théorème de
Liouville. Le crochet de Poisson dans la relation classique
est remplacé par le commutateur dans la cas quantique.
Chapitre 4 Description d’un système
statistique quantique
IV. La mesure d’une observable
Le postulat de la mécanique quantique stipule que si le système se
trouve dans l’état  avant la mesure d’une observable Â, après la
mesure, il se retrouve dans l’un des états correspondant à la projection
de  sur le sous-espace associé aux valeurs propres de  :

Avec la probabilité: P(ai)=i 

Si la mesure donne la valeur ai alors l’état final du système est :

i | 
Chapitre 5 Distribution microcanonique
I. Distribution microcanonique
Un système isolé n’échangeant ni matière ni énergie avec l’extérieur
tend vers un état d’équilibre thermodynamique, son état macroscopique
est décrit par quelques variables d’état. Les contraintes imposées sur ce
système sont telles que : l’énergie interne U, le nombre de particules N et
le volume V sont fixés. Même si l’énergie est fixée, le système parcourt
tous les états microscopiques permis dans le cadre de cette contrainte.
Pour un état macroscopique, on a un nombre très élevé d’états
microscopiques. A l’équilibre, il n’y a aucune raison pour qu’un état
microscopique soit plus probable qu’un autre état microscopique. Tous
les états microscopiques sont équiprobables. C’est le postulat
d’équiprobabilité de tous les états microscopiques pour une distribution
microcanonique.
Chapitre 5 Distribution microcanonique
I. Distribution microcanonique
Exemple:
Pour un dé dont les 6 faces sont identiques sur le plan
mécanique, aucune des faces n’a une probabilité plus
élevée qu’une autre pour être réalisée lors d’un lancer.
Donc la probabilité d’avoir un numéro parmi les six est
égale à 1/6.
Chapitre 5 Distribution microcanonique
I. Distribution microcanonique
En faisant intervenir la densité de phase, l’équiprobabilité
implique que (q,p) est constante dans le domaine du
volume de phase imposé par la contrainte U U ,U  dU .

   q, p   const. U  U ,U  dU 
Soit : 
   q, p   0 ailleurs

La condition de normalisation donne :


 dP 1     q, p  dw  const.  dqdp
 
1
U 

(U) est le nombre d’états accessibles pour l’énergie U.


Chapitre 5 Distribution microcanonique
I. Distribution microcanonique
On obtient finalement pour la distribution microcanonique
une densité de phase sous la forme :

 1
  U  U , U  dU 
 (U )
  0 ailleurs

Chapitre 5 Distribution microcanonique
II. Calcul du nombre d’états microscopiques
1) Densité d’états
Hypothèses :
 dU petit à l’échelle macroscopique : dU  U
 dU grand à l’échelle microscopique : dU  U/
L’énergie U et le volume V imposés sont des contraintes
dans l’hypervolume de phase. Le volume V dans lequel est
confiné le système impose une contrainte sur les
coordonnées spatiales des particules tandis que la
contrainte sur l’énergie U correspond à une intégration sur
une hypersurface.
Chapitre 5 Distribution microcanonique
II. Calcul du nombre d’états microscopiques
1) Densité d’états
Exemple: L’oscillateur harmonique (f = 1)
M(x,px)
L’hypervolume est le plan (x,px), et l’hypersurface imposée
px
par la contrainte de l’énergie U fixée est l’ellipse.
Le nombre d’états microscopiques correspondant x
à un état macroscopique (U, N et V donnés) est
proportionnel à l’hypersurface définie par la contrainte
de l’énergie et du volume(équiprobabilité des états).
Cette hypersurface appelé densité d’états est :  (U )   dqdp
E U
Le nombre d’états microscopiques est :
 U    U  dU
Chapitre 5 Distribution microcanonique
II. Calcul du nombre d’états microscopiques
1) Densité d’états
L’intégral  dqdp est généralement difficile à calculer.
E U
Par conséquent, pour calculer (U), on considère les
hypervolumes (U) et (U+dU) tels que :
 (U) est l’hypervolume dont l’énergie E < U
 (U+dU) est l’hypervolume dont l’énergie E < U+dU
Dans ce cas, le nombre d’états microscopiques compris
dans la bande U ,U  dU  est donné par :
d  U 
 U   ( U  dU    U  )  dU
 dU
 
 U 
Chapitre 5 Distribution microcanonique
II. Calcul du nombre d’états microscopiques
2) Exemples
Exemple 1: Particule libre dans une boite à une dimension 
|
o x
Contraintes : 0≤x≤L
U = constante  px  2 m U
0
Lx x

2 2 mU L
On a:  U  
h
d 2 m L  12
La densité d’états dans ce cas est :  U    U
dU h
1

2 m LU 2
Et le nombre d’états microscopiques est :  U   dU
h
Chapitre 5 Distribution microcanonique
II. Calcul du nombre d’états microscopiques
2) Exemples
Exemple 2: Système macroscopique N= Na

On montre que: f
U 
 U   C  
 f 

Avec : C est une constante


 nombre de l’ordre de l’unité
Chapitre 5 Distribution microcanonique
III. Evolution d’un système isolé
On considère un gaz parfait de N molécules dans un volume initial Vi.
Le nombre initial d’états accessible au système est :

Hypervolumeaccessible p
 ...  dp ...dp
p
1 3N

i  3N
  ...  dq1...dq3 N 1 3 N 3 N
h q1 q3 N    h   
      C
Vi

i  C Vi 3 N

Si le gaz est à l’équilibre, tous 1les états sont équiprobables et la


probabilité d’un état est : Pr  
i
Chapitre 5 Distribution microcanonique
III. Evolution d’un système isolé
A t = 0, on retire la cloison qui sépare les 2 parties.
Le nombre final d’états accessible au système est :
 f  CV fN
N
 Vf 
Vf
 f  i     f  i
 Vi 

1
A t = 0 la probabilité d’avoir la partie droite pleine est et celle de
i
l’avoir vide est nulle donc tous les états microscopiques ne sont pas
équiprobables. Le système n’est pas en équilibre. Il évolue vers
l’équilibre tel que tous ses états microscopiques soient équiprobables
Chapitre 5 Distribution microcanonique+
+

III. Evolution d’un système isolé


Après un intervalle de temps t = 0, le système atteint l’équilibre.
Cherchons la probabilité pour retrouver la situation initiale :
x x x x x x x
x x x x x x x
x x x x
x x x xx
x x x x x x x
x

Vf i 1
SI 2  P   Na  0
Vi f 2
Donc, l’évolution du système quand on enlève la paroi est irréversible.

Remarque:
Si la paroi est au bord de la boite alors Vi=Vf  i=f le processus est
réversible.
Chapitre 5 Distribution microcanonique
III. Entropie statistique
Soit un système isolé constitué de 2 sous systèmes (S 1) et (S2) avec
les variables d’état respectivement (U 1, N1 et V1) et (U2, N2 et V2).
Ces 2 systèmes échangent de l’énergie, de la matière et du volume.

U1 U2
U = U1+U2 = const.  dU = 0  dU1 = -dU2
N1 N2
V1 V2 N = N1+N2 = const.  dN = 0  dN1 = -dN2
V = V1+V2 = const.  dV = 0  dV1 = -dV2

Après un certain temps, l’équilibre est atteint et les valeurs U i,Ni et Vi ;
i =1,2 atteignent leurs valeurs moyennes. Le nombre d’états
microscopiques du système global est égal au produit des nombres
des états microscopiques des deux sous systèmes (les deux sous
 U   1 U1   2 U 2 
systèmes sont indépendants):
Chapitre 5 Distribution microcanonique
III. Entropie statistique
Pour un système isolé en équilibre le nombre d’états
microscopiques est maximal (Théorème H):    max  d   0
Ce qui donne: 1d  2   2 d 1  0
Soit encore : d ln  1   d ln  2   0
On peut réécrire la condition d’équilibre sous la forme :
d ln     0 soit ln     ln   max
En thermodynamique, l’entropie S est maximale lorsque le
système est en équilibre et l’entropie de deux sous
systèmes est égale à la somme des entropies de chacun
d’eux. Donc, on a: S= k ln   
Chapitre 5 Distribution microcanonique
III. Entropie statistique
Soit une grandeur A, sa moyenne est donnée par :
 A      q, p  A  q, p  dqdp

Pour l’entropie, on a: S     q, p  k ln    dqdp


1
En remplaçant  par son expression   on obtient:

S  k   ln    dqdp
Remarque:
Pour une distribution de probabilité discrète, la définition de
l’entropie est:
S   k  Pi ln Pi
i
Chapitre 5 Distribution microcanonique
III. Entropie statistique
Considérons le lancer d’un dé :
 Le dé n’est pas truqué et toutes les faces sont équiprobables.
Le lancer de ce dé donnera un nombre égal de fois à tous les
numéros de sortir.
 Le dé est truqué et on a par exemple :Pi=1/10; i=1,5 et P6 =
5/10. Dans ce cas le N° 6 sortira 5 fois plus que les autres. En
résumé nous avons plus d’information sur le résultat du lancer
dans ce cas par rapport à la situation précédente.
 Le dé est truqué de manière à avoir : Pi=0 i=1;5 et P6 =1. Dans
ce cas nous avons une information maximale puisque à coup
sur le lancer donnera la face N° 6.

Quand toutes les possibilités sont équiprobables, l’incertitude est la


plus élevée quant au résultat de l’expérience.
Chapitre 5 Distribution microcanonique
III. Entropie statistique
Comment quantifier cette incertitude?
Une fonction S(P1, P2, …Pn) qui quantifie cette incertitude peut être
définie de telle manière qu’elle vérifie les propriétés suivantes:
1) S(P1, P2, …Pn) = 0 si P1 = P2 = …Pi-1 = Pi+1 = ...Pn et Pi = 1(un
événement est certain).
2) S(P1, P2, …Pn) est maximale si Pi = const.
3) S(AB) = S(A) + S(B) si A et B sont indépendants. Si par exemple
l’incertitude sur l’événement A est nulle, l’incertitude sur
l’événement A et B ne doit pas être supérieure à l’incertitude qui
reste sur B.
4) La permutation de deux événements ne devrait pas changer cette
fonction : S(P1, P2, …Pi...Pk...Pn) = S(P1, P2, …Pk...Pi...Pn).
Chapitre 5 Distribution microcanonique
III. Entropie statistique
On montre qu’une telle fonction est donnée par
l’expression :
S  P1 , P2 ,...Pn    k  Pi ln  Pi 
i

• Exercice : Montrer qu’une fonction S = - k  pi log pi vérifie


les conditions (1)…(4)
• Exercice : Calculer les propriétés d’un système classique
de N oscillateurs harmoniques discernables.
Chapitre 6 Interaction entre systèmes

I. Introduction
Définition de la chaleur:
Situation initiale : On considère un système isolé (A)

UA=cte
Situation finale : On met le système A au contact d’un autre système B

UAvarie

Le système C = AB est isolé : UC est constante


Chapitre 6 Interaction entre systèmes

I. Introduction
Définition de la chaleur:
On suppose que les parois sont rigides et fixes. Dans ce
cas, le système A échange uniquement de la chaleur avec
le système B:
 UA = QA
 UB = QB
C est isolé → UA + UB = UC = const.
 UA + UB = 0  Q A + QB = 0
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


Soient les systèmes A et B séparés par une paroi rigide.

C=AB ; C est isolé UC = const.

Postulat: A l’équilibre, l’entropie S C est maximale.


UA et UB fluctuent autour de leurs valeurs moyennes
A(UA) : le nombre d’états accessibles à A d’énergie U  [UA,UA+dUA]
B(UB) : le nombre d’états accessibles à B d’énergie U  [UB,UB+dUB]
C(UC,UA):le nombre d’états accessibles à C tels que U  [UC,UC+dUC]
lorsque le système A possède l’énergie U A à dUA prés.
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


On a : C(UC,UA) = A(UA) B(UC-UA)
-
-
- -
A(UA)  ------ - B(UC-UA)
-

C (UC) : le nombre d’états accessibles à C d’énergie U  [UC,UC+dUC]


La probabilité d’avoir un état accessible à C dans lequel le système A
possède l’énergie UA est :
 A (U A ) B (U C  U A )
P (U A ) 
C (U C )
Chapitre 6 Interaction entre systèmes
II. Equilibre thermique
P(UA ) est une fonction de UA → Maximum de P(UA) ?
P(UA ) est max si A(UA) B(UC-UA) est max donc si log(A(UA) B(UCUA))
est max.
log(A(UA) B(UC-UA)) est max si log(A) + log(B) est max.
On a k(log(A) + log(B)) = SC donc SC doit être maximale à l’équilibre.


SC  S A  S B 
  0    
U A C-U
Et on a : UB = U U A
A
U
U A U  U A U 
A A U A A U A

S B S
A l’équilibre :  B
U A U B

S A  S B 
  
U A U  U B U U B
A U A B
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


A l’équilibre :
S A  S B 
  
On pose : U A U  U B U U B
A U A B

Donc, l’équilibre1thermique est
S  satisfait si: TA = TB
 
Remarque : T U V , N
On définit le paramètre  par :

Propriétés de la température absolue:


Pour un grand système (N1) :
1  log()
 
kT U

U 
S  const. f k log  
1 S fk U  f 
  const.  k T  const.
T U U f
Chapitre 6 Interaction entre systèmes

II. Equilibre thermique


Propriétés de la température absolue:
 kT est une énergie moyenne par degré de liberté.
 T est positive (en général)
 T est une fonction croissante de U
 On retrouve le principe Zéro : 2 Systèmes en équilibre avec un
3ème sont en équilibre entre eux
Chapitre 6 Interaction entre systèmes
III. Equilibre thermique et mécanique
Soient les systèmes A et B séparés par une paroi mobile.

(A) C=AB ; C est isolé UC = const. et VC = const.


(B)
Les deux systèmes peuvent échanger de la chaleur et du travail.
L’équilibre est obtenu lorsque SC est maximale :

SC  S A  S B 
 0   
U A U  U A U U A U B U U B
A U A
   A     B 
1 1
TA TB
A l’équilibre thermique et mécanique, on a:
SC  S A  S B 
 0   
VA V  VA V V A VB V V B
A V A
   A     B 
PA PB
TA TB

TA  TB et PA  PB
Chapitre 6 Interaction entre systèmes

IV. Echange de chaleur et de travail entre systèmes


Soient 2 systèmes séparés initialement A et B . Les 2 systèmes sont à
la température initiale respectivement T Ai et TBi et la pression PAi et PBi

On met ces 2 systèmes en contact.


 Si TAi = TBi et PAi = PBi  C=AB n’évolue pas, il est à l’équilibre.
 Si TAi  TBi et PAi  PBi  C=AB évolue jusqu’à l’équilibre tel que : TA=TB=Tf
et PA=PB=Pf  UA et UB vont varier mais UC ne varie pas
UC=0  UA+UB=0
UA=QA+WA et UB=QB+WB, 1er principe de la thermodynamique
Chapitre 7 Distribution canonique

I. Définition d’un réservoir


Un système (B) constitue un réservoir pour un système (A) pour une
grandeur extensive Y (chaleur, nombre de particules, …) si (B) peut
échanger des quantités quelconques deY sans modifier ses propriétés.
Exemples : fB  fA

 Réservoir de volume (B)


Le volume de (A) peut varier et donc (A) peut
échanger du volume avec (B) sans modifier (A)
Piston mobile

le volume de (B)
 Réservoir de chaleur

(B) est un réservoir de chaleur pour la molécule (A).


(B) est un thermostat.
(B) : gaz à la (A) : Une
Temp. T molécule
Chapitre 7 Distribution canonique

II. Distribution canonique

fB  fA
(B)
TB (A) C = AB est isolé, UC = UA+UB = const.

UA  const.
B(UC-Ui) : Le nombre d’états accessibles à (B) d’énergie est U B=UC-Ui
C(UC) : Le nombre d’états accessible à (C).
pi la probabilité pour (A) d’être dans un état microscopique d’énergie U i.
 C U C , U i   B U C  U i 
pi  
C U C  C U C 

On a : Ui  UC  Développement de log B(UC-Ui) au voisinage de Ui


Chapitre 7 Distribution canonique

II. Distribution canonique

Développement de log B(UC-Ui):

log   B U C  U i   log   B U C  
0
d  log   B U C  U i  
  Ui
dU B U U C
B

d
2
 log   U  U i   U i
2

 B
2
C
 2 ...
dU B 

d log   B U C  U i  

 
1 dS B

1

On a: dU B  k dU B kT
U B UC
Chapitre 7 Distribution canonique

II. Distribution canonique


U
 B U C   kTi
Ce qui donne : pi  e
C U C 

1 C
Avec:  
kT

Finalement, la probabilité pi s’écrit :


  Ui
pi  C e

Distribution canonique de Gibbs


Chapitre 7 Distribution canonique

II. Distribution canonique


Postulat :
La distribution de probabilité d’équilibre est celle qui correspond
au maximum de l’entropie.
Ce postulat nous permet de chercher la distribution de probabilité d’un
système quelconque à condition de tenir compte des contraintes
imposées à ce système.
Pour une distribution canonique, les deux conditions suivantes doivent
être respectées :

L’énergie moyenne du système U est donnée par: U   U i pi  Tr  DH 


i

Condition de normalisation : p
i
i  Tr  D   1
Chapitre 7 Distribution canonique

II. Distribution canonique


On utilise la méthode des multiplicateurs de Lagrange:

On pose: f ( pi )   U i pi  U et g ( pi )   pi 1
i i
Et le maximum de la fonction entropie avec les contraintes est donnée
par le maximum de la fonction : h( pi )  S ( pi )  bf ( pi )  ag ( pi ) sans les
contraintes.
On dérive la fonction h(pi) par rapport à pi :

dS ( pi )  bdf ( pi )  adg ( pi )  0
 k  dp ln p  1)  bU dp  adp   0
i
i i i i i  dpi

  k ln pi  k  bU i  a  0
 bU i
 pi  C e k
Chapitre 7 Distribution canonique

II. Distribution canonique


Pour calculer la constante de Lagrange b on a:
S  1    
bU
 i
     k  pi ln Ce k 
U V T U  i  
   
     
  k ln C  pi    b  U i pi 
U  
i  U  i   
       1       U   
0 b
Finalement on obtient :
1
b
T retrouve la distribution canonique de Gibbs :
Et on
pi  C e  U i
Chapitre 7 Distribution canonique

III. Fonction de partition


Pour déterminer la constante C de la distribution de Gibbs, on applique
1
la condition de normalisation :  pi  1 C   U
  Ui
i e i

Z  e  i  
i
Z
Z est la fonction de partition de la distribution canonique.

e  Ui
 pi 
Z

La somme dans la fonction de partition Z porte sur les états si le niveau


Ei d’énergie est dégénéré alors :
  Ui
Z   gi e
i
Chapitre 7 Distribution canonique

III. Fonction de partition


Dans le cas continu, la densité de phase se met sous la forme :

e  U ( q, p )
 ( q, p ) 
1   U (q, p )
 e dqdp
hf

1   U ( q, p )
Avec : Z  e dqdp
hf
Chapitre 7 Distribution canonique
III. Fonction de partition
 Valeurs moyennes des grandeurs physiques du système :

 Energie interne: 1   Ui 1 Z  log Z


U   U i pi  Ui e  
 Energie Libre de Helmotz: i Z i Z  
F   k T log Z
 Entropie:
 log Z
S   k  pi log pi   k   k log Z
i 
 Forces généralisées:U F
S
T
force généralisée conjuguée de la variable x
 W etXdx
exp:(-P,V), (V,Q) (B,M)…
Chapitre 7 Distribution canonique

III. Fonction de partition


 Valeurs moyennes des grandeurs physiques du système :

U 
 Forces généralisées:  W  X dx  dU  X  
x Q
U i 1  U U i 1   U i
X   pi
i
 e i
x Z i x
 
 Z i x
e 
1 
X   log Z 
 x
F
X
x
Chapitre 7 Distribution canonique
IV. Application de la distribution canonique

G.P. en équilibre à la température T


On néglige les interactions et le poids des particules

a) G.P monoatomique
Une molécule peut être considérée comme un petit système en contact
avec le thermostat qui est constitué par toutes les autres molécules.
2
Son énergie est :   p
2 m          
dP = probabilité pour r et pvérifient : r   r , r  dr  et p   p, p  dp 
   
1 e   d 3r d 3 p
dP  3
h z0
z0 est la fonction de partition d’une particule.
Chapitre 7 Distribution canonique
IV. Application de la distribution canonique
a) G.P. monoatomique
px2  p2y  pz2
1 
z0  3  dxdydz e 2 m dp
x dp y dp z
h             
V I
    
La probabilité pour un atome de posséder la vitesse
v   v, v  dv 
  1 m v2
d Pv  Ce 2 d 3v
Et le nombre d’atomes possédant la vitesse     est:
v   v, v  dv 

3
  1 m v2
N (v)d v  C ' e 2 d 3v
Distribution des vitesses de Maxwell  
Chapitre 7 Distribution canonique
IV. Application de la distribution canonique
b) G.P. polyatomique
Le mouvement est décomposé en 2 mouvements :
 Mouvement de translation du centre de gravité 
 Mouvement interne autour de G (rotation et vibration)

L’énergie de la molécule est:

L’état de la molécule est donné par

Le nombre de molécules tel que pG2


 tot  s
Le nombre moyen de molécules tel que :
2m 
  rG , pG et s
         
r   r , r  dr  , p   p, p  dp  et d'état interne s
 
F (r , p, s )d 3rd 3 p  C e    d 3r d 3 p
         
r   r , r  dr  et2 p   p, p  dp   s
      p
F ( r , p ) d 3 r d 3 p    e    s  C e 2 m d 3r d 3 p
 s    
C'
Chapitre 7 Distribution canonique
V. Energie interne d’un G.P
a) G.P. monoatomique
i. La fonction de partition d’un atome
p2
1 
z0 
h3 e
 
2 m d 3r d 3 p
r p
   px2 p2 p2
V   y  z
On a:
 r V 
  e
3 2m e 2m e 2m
d z0  3 dpx dp y dpz

r
h   

On sait que: a x 2 


e dx 
a
Ce qui donne: z  V
 
3
0 3
2 m k T
h
L’énergie moyenne par atome est:  log z0 3 1 3
      kT
 2 2
Chapitre 7 Distribution canonique
V. Energie interne d’un G.P
a) G.P. monoatomique
ii. La fonction de partition du G.P.
pi2
 
1 2m
3N 
Z e i
d 3N
q d 3N
p
h
 p12   p32N 
V   V  
  3 e 2 m
d p1  x......x  3  e
3 2 m
d p3 N 
3

h  h 
        
        
z0 z0
Z   z0 
N
Donc la fonction de partition du gaz est:

3 N /2
Soit:  2 m k T 
Z V N  2 
 h 
Chapitre 7 Distribution canonique
V. Energie interne d’un G.P
a) G.P. monoatomique
iii. Les grandeurs caractéristiques du G.P.
 L’énergie interne:
 log Z  log z0 3
 L’énergie libre: U   N  N  U  N kT
  2
F  k T log Z
 L’entropie:
3N k T 2 m k T
F   N k T log V  log
 La pression 2 h2
U F 3 3 2 m k T
S  N k  kN log V  N k log
T 2 2 h2
F   k T log Z  log z0
P    N k T
V V V
N kT
P
V
Chapitre 7 Distribution canonique
V. Energie interne d’un G.P
b) G.P. quelconque
L’énergie d’une molécule est la somme de l’énergie de translation et de
l’énergie de rotation et de vibration:
 i  ce
La fonction de partition d’une molécule est dans

cas: i int
itrans

z0   e   i   e   itrans
 e   i int
i itrans i int
 z0  z0par
L’énergie moyenne trans z0int
molécule:

 log z0  log z0trans  log z0int 3


     k T   int (T )
   2
Chapitre 7 Distribution canonique
V. Energie interne d’un G.P
b) G.P. quelconque
 L’énergie interne du G.P.

U  N
3
U  N G.P.
L’énergie interne du  int (T )que de la température.
k T neNdépend
2
 Pression du G.P.

F  
P    N kT log z0  
V V

   N kT
    P 
  N kT log z0trans   N kT log z0int 
  
 V
V        V 


ne dépend pas deV  
N kT          
V 0 
Chapitre 7 Distribution canonique
VI. Equipartition de l’énergie
En général l’énergie d’un système dépend de la position et de
l’impulsion :
Supposons que l’énergie contient un terme quadratique tel que:
U (q1...q f , p1... p f )
(ex : l’oscillateur harmonique )
2
U  a q  U '(q ...q , p ... p )
1 2 f 1 f
On cherche à calculer la moyenne du terme quadratique :
1 2
U k x  ...
2

aq12
Chapitre 7 Distribution canonique
VI. Equipartition de l’énergie
2  U

aq12 
  1 e dq1...dp f
... aq
 U
 
... e dq1...dp f

aq 2

  aq e
2
1
  aq12
dq1   
... e  U '
dq2 ...dp f 
 e    ... e 
1   aq12  U '
dq1 dq2 ...dp f
a 
2   a 3
     

  aq12
 aq e
2
1 dq1
1
aq12  

 aq12  kT
  aq12 2
e dq1
    



a
Chapitre 7 Distribution canonique

VI. Equipartition de l’énergie


La valeur moyenne d’un terme quadratique quelconque du
2 2
type aq et ap dans l’expression de l’énergie d’un système est égale à :
1
aq 2  k T
2
Chapitre 7 Distribution canonique
VI. Capacité calorifique des G.P

Par définition:  U 
Cv   
 T V
L’énergie moyenne d’un GP est :
3
 G.P. monoatomique int=0 U N k T  N  int
2

 U  3 3
Cv     N k  Nk
 T V 2 2
3
Cv  nR
2
Chapitre 7 Distribution canonique
VI. Capacité calorifique des G.P

 G.P. diatomique
x
On néglige la rotation autour de z et
Les mouvements de vibrations.
z
On a : y
m1 m2

L est le moment cinétique par rapport à G


Ix, Iy sont les moments d’inertie
2 par rapport aux axes G x et Gy (Ix=Iy).
1  Lx Ly 
2

 rot    
2  I x I y 
Chapitre 7 Distribution canonique
VI. Capacité calorifique des G.P

 G.P. diatomique x

1  L2x Ly 
2

 rot     z

2 I I  y
  m1 m2

2
3 3 1 L2x 1 Ly 3 1 1
  k T   rot  k T    kT  kT  kT
2 2 2I 2 I 2 2 2
5
  kT
2
Finalement on a :
5 5
U N k T  Cv  nR
2 2
Chapitre 7 Distribution canonique
VI. Capacité calorifique des G.P

 G.P. diatomique

x
Mécanique quantique 

rot ne varie pas de façon continue et la valeur minimale est égale à2
 rot  j  j  1 z

Le calcul exact de la capacité calorifique Cv 2I y


m1 m2
à partir de l’expression quantique de
l’énergie donne une variation de Cv
2
en fonction de la température telle que : I
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
1. Oscillateurs harmoniques classiques
On considère un ensemble d’oscillateurs harmoniques de fréquence .

Le Hamiltonien de ce système est:


La fonction de partition est :  pi2 1 2 2
H (qi , pi )     m qi 
i  2m 2 
 pi2 1   p2 1 
1     m 2 qi2 
 1    i  m 2 qi2 
 2m 2 
Z  N e
h
 2m 2  N N
d qd p  N
h
e
i
 
dqi dpi
N
  p2 1 
   i  m 2 qi2  
1  2m 2 
Z   e  
dqi dpi 
h 
 
Z   z0 
N
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
1. Oscillateurs harmoniques classiques

La fonction de partition d’un oscillateur harmonique z0 est :

 pi2 1
 

 m 2 qi2  
1  2m 2 

z0   e 
dqi dpi

h 
 pi2 
 2 kT
1


1
   m 2 q 2 
i 
  
 2m    z 0 
z0   e 2 
dqi  e  
dpi  h
h  

        

   
 2 kT 2 mkT 
m 2 
N
 2 kT 
Z  
 h 
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
1. Oscillateurs harmoniques classiques
Energie libre:
 2 kT 
F   kT log Z   NkT log  
Pression  h 
 log Z
P  0
V
Energie interne :
 log Z
U   NkT

Entropie :
U F   2 kT     2 U  
S  Nk 1  log    Nk  1  log  
T   h     Nh  
L’expression de l’entropie coïncide avec celle de la distribution
microcanonique.
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
2. Oscillateurs harmoniques quantiques
L’énergie d’un oscillateur harmonique est donnée par :
 1
 n    n   ; n  0,1, 2,...
 2
La fonction de partition d’un oscillateur harmonique est :

    n  1  
z0   e    n   e  2

n n   
 
    e 2
z0 e 2  e    n
  z0 
n  1  
e   

  
 e 
    n
z0  e 2 
n 
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
2. Oscillateurs harmoniques quantiques
La fonction de partition des N oscillateurs est:
N
     
 e 2 
Z 


1 e 
   


L’énergie interne:
 log Z N   1  e    
U         2 
 2  1 e       
N   1  e    
U   
On retrouve le cas classique quand T : 2  1  e  

NkT   
   
 
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
2. Oscillateurs harmoniques quantique
L’énergie libre:
N   2kT
F  kT log Z 
2 
 1 

log1  e 
   


La pression:
F
P   0
V
L’entropie:
U F  1 e    k    
S
T
 N  
T   

 

log 1  e  
 1 e 
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
2. Oscillateurs harmoniques quantiques
La capacité calorifique:

e   
2
U     1  
Cv    Nk     
 
2
T  N ,V  kT  1  e   
e   
2
  
Si T est élevée alors   tend vers 0 : Cv  Nk  
 
2
 kT  1  e  
Si T   alors Cv  Nk  nR      
Donc si la température est élevée, on retrouve la capacité 
2
  
calorifique d’un oscillateur harmonique classique.  
 kT 
 
Si T  0 alors Cv  0
Si la température est très basse, les effets quantiques sont dominants, la
capacité calorifique tend vers 0.
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
2. Oscillateurs harmoniques quantiques
La capacité calorifique:

Le rapport mesure compare la différence d’énergie entre les niveaux
kT
quantiques à l’énergie thermique moyenne disponible.
Si kT est élevée, la structure discrète des niveaux d’énergie n’apparaît plus et le
Comportement devient classique. Par contre, si cette valeur est faible
(température proche du zéro absolu), alors
l’énergie interne est celle du niveau
fondamental (n=0 et U=N/2).
Toutes les particules se retrouvent sur
le niveau fondamental. La capacité
d’absorber de l’énergie pour passer
aux niveaux supérieurs est nulle (Cv=0).
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
On considère un système de N molécules dipolaires dans un champ
magnétique . Les dipôles ont tendance à s’aligner sur la direction du

champ magnétiquepour minimiser leur énergie magnétique (principe de
l’énergie minimale).BD’autre part, pour une température donnée le
mouvement statistique tend à contrecarrer cet alignement (principe
d’entropie maximale).
On modélise ce phénomène, en considérant un système de N dipôles
discernables placés dans un champ magnétique parallèle à Oz. Les
mouvements de translation sont négligés.


B
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
Fonction de partition:
L’énergie du système est :  
U    i  B
Chaque état microscopique correspond à la donnée
i de N valeurs des 2
angles i et i de l’orientation des dipôles dans l’espace.
On suppose qu’il n’y a pas d’interactions entre les dipôles :

Z   z0 
N
L’énergie d’un dipôle est :
 
Pour calculer z0, il faut intégrer sur tous l’espace de phase.
     B    B cos( )
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
Fonction de partition:
Ici l’espace de phase est définie par les deux angles sphériques  et .
z

L’angle solide correspondant est donné par : sin  d d B 

   2 
  B   B cos
z0   e dΩ    e d sin  d
0 0
y
 1
  B cos   Bx 
z0  2  e sin  d  2  e dx
0 1 x

e   B  e   B
z0  2
B
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de La ngevin
La probabilité pour un dipôle d’avoir une orientation entre  et +d
et entre  et +d est : 
z

e   B cos sin  d d B
d P    ,   sin  d d 
1 

z0
Avec,
  sin  cos   y

    sin  sin   

 cos  
  x

La valeur moyenne du moment magnétique d’un dipôle est donc


donnée par:    sin  cos   
 
      sin  sin   
  cos   
 
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
On a :
 sin  cos    sin  cos    ,   sin  d d
1   B cos
 sin  cos  
z0  sin  cos  e sin  d d
2
1   B cos
 sin  cos  
z0 0 cos  d   sin  e sin  d
   
0
 sin  cos   0

De la même manière, on a :


 sin  sin   0
Le moment moyen d’un dipôle est donc dirigé selon Oz
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
   B cos
    cos  
z0  cos  e sin  d d
 
2   B cos 2 1    B cos
 
z0 0
e sin  cos  d  
z0 0   B
e sin  d


1 1     B cos 
  2  e sin  d 
z0  B  0 
1 1 
  z0 
z0  B
1 
 log z0 
 B
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
Le moment magnétique total M est :
  F
M  N   NkT  log z0   kT  log Z   
B B B
Le calcul donne:  e  B  e   B
  
M  NkT  log  2  
B   B 

M
N  eB
 e   B


1 
  B    B
 e e B
 
 1 
M  N   coth  B  
        
B
La fonctionde Langevin:L ( x )
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
3. Modèle de Langevin
Le tracé de la variation du moment magnétique total en fonction de la
variable est:
• Pour T  x0 on
a: B
Tous les dipôles sont orientés
M dans
 N
la direction du champ magnétique.

• Pour T  (25°) on a:
est linéaire en fonction N2
du champ magnétique. M B
3appelé
Le coefficient de proportionnalité  est
kT susceptibilité magnétique:
M 

N2 C
 
  3kT T
Loi de Curie
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
4. Système paramagnétique de Pauli
La projection du moment magnétique de spin sur l’axe Oz ne peut
prendre que deux valeurs :  z   e
Z   z0 
N
Les dipôles sont supposés ne pas interagir entre eux:
La fonction de partition z0 est : z  e e B  e  e B
0
La valeur moyenne du moment magnétique totale est : M  N
 e e B  e  e B 
M  N e   B   B 
e e e 
e

M  N eth( e B )
• Si  0  x   B    M  N 
T e e
Tous les dipôles sont orientés dans la direction du champ magnétique et on
arrive à la saturation.
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
4. Système paramagnétique de Pauli
M  N eth( e B)
• T  0  x  e B    M  N e
Si
Tous les dipôles sont orientés dans la direction du champ magnétique et
on arrive à la saturation.
e2 B
• SiT    x  e B  0  M  N  0
kT
Les dipôles ont autant de chances d’être orientés dans la direction du
champ que dans la direction opposée et2 la résultante est nulle.
e B
• Si B  0  x  e B  0  M  N
kT
Si T est de l’ordre de la température ambiante et B est faible nous avons
la relation de Curie : e2 C
N 
kT T
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
5. Fonction de partition de rotation d’une molécule diatomique
x
2
h
 J  J ( J  1) 2
; J  0,1, 2,...
8 I
z

y
m1 m2

Pas d’interactions entre les molécules  Z rot   z0 rot 


N

La fonction de partition canonique de rotation d’une molécule est:


  J
z0 rot   g J e
J

 J  J 1 r
z0 rot    2 J  1 e T

J
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
5. Fonction de partition de rotation d’une molécule
diatomique x

On a: r/T  1 pour des température ambiantes.


 On peut

remplacer la somme par une intégral: z

 J  J 1 r y
z0 rot   2 J  1e T
dJ m1 m2

chgt de variable : y  J 2  J  dy  (2 J  1) dJ
 r
y
z0 rot   e T
dy
0

T
z0 rot 
r
Chapitre 7 Distribution canonique
VII. Application de la distribution de Boltzmann
5. Fonction de partition de rotation d’une molécule diatomique
Energie de rotation:
 log Z rot  log z0 rot  log z0 rot dT
U rot   N  N
  T d
2  log z0 rot
U rot  NkT
T
U rot  NkT

Capacité calorifique:
U r
Cv   Nk
T
Chapitre 8 Distribution grand canonique
I. Distribution grand canonique
Le système étudié est un système ouvert qui peut échanger de
l’énergie
et desdeparticules.
Réservoir chaleur
et de particules : (B)
T,
Système(A)
C = AB est isolé,
UB,NB
T,
UA,NA UC = UA+UB = const.

NC = NA+NB = const.
Ui U
 1  B 1
On a: UC UC
Ni N
 1  B 1
NC NC
Chapitre 8 Distribution grand canonique
I. Distribution grand canonique
On note PN,i la probabilité pour (A) d’être dans un état microscopique i
d’énergie Ui et un nombre de particules N. Dans ce cas, l’énergie de
(B) est: UB= UC-Ui et le nombre de particules de (B) est NB= NC-Ni.
Soit C(UC,Ui, NC,N) : le nombre d’états accessibles à (C) tels que A
possède l’énergie Ui et le nombre de particules N.
Soit B(UC-Ui, NC-N) : le nombre d’états accessibles à (B) dont
l’énergie est UB=UC-Ui et le nombre de particules est NB=NC-N.
Soit C(UC,NC) : le nombre total d’états accessibles à (C).
C U C , U i , N C , N i   B U C  U i , NC  Ni 
p N ,i  
C U C , NC  C U C , NC 
Chapitre 8 Distribution grand canonique
I. Distribution grand canonique
Le développement limité de log B(UC-Ui, NC-N) donne:
1 S 1
 
k U B kT
             
  log   B U C  U i , N C  N i  
log   B U C  U i , N C  N i ,   log   B U C , N C    Ui
U B U U
B C

  log   B U C  U i , N C
 N i   
  N i ...
N B 
             UU B C

1 S  

k N B kT

La distribution de probabilité s’écrit dans ce cas :


  U i   N 
e
p N ,i 
  U i   N 
e
N ,i

C’est la distribution grand canonique.


Chapitre 8 Distribution grand canonique
I. Distribution grand canonique

La densité de phase dans le cas continu est donc :

e 
  U  q , p   N 

  N , q, p   
1   U  q , p   N  3 N

N 0 h
3N 
e d q d 3N
p

Remarque:

Cette distribution correspond à la probabilité de trouver le système dans


un états microscopique i tel que son énergie soit Ui et le nombre de
particules N à la température T et le potentiel .
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
La fonction de partition grand canonique est :

1   U  q , p   N  3 N
Z G T ,V ,     3N 
e d q d 3N
p
N 0 h

Remarque :
Dans le cas ou les particules sont indiscernables il faut diviser la
fonction de partition par le facteur de Gibbs :

1 1   U  q , p   N  3 N
ZG T ,V ,     3N 
e d q d 3N
p
N 0 N ! h
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
La fonction de partition grand canonique peut se mettre sous la forme :

1
Z G T ,V ,     e  N
 3N 
e  U q , p  3 N
d q d 3N
p
N 0 h

Z G T ,V ,     e  N
 Z (T ,V , N )
N 0

La fonction de partition grand canonique est une somme des fonctions



de partition canonique pondérée par le facteur fugacité : e
La distribution canonique s’écrit en fonction de la distribution
microcanonique de manière analogue, la somme est pondérée dans ce
 U
cas par le facteur de Boltzmann: e i

Z T ,V , N    e  Ui   (U ,V , N )
i
i
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
La fonction de partition grand canonique peut se mettre sous la forme :

1
Z G T ,V ,     e 
 N
3N 
e  U q , p  3 N
d q d 3N
p
N 0 h

Z G T ,V ,     e 
 N
Z (T ,V , N )
La fonction de partition grandN canonique
0
est une somme des fonctions
de partition canonique pondérée par le facteur e , N eest  la fugacité.

La distribution canonique s’écrit en fonction de la distribution


microcanonique de manière analogue, la somme est pondérée dans ce
cas par le facteur de Boltzmann:  Ui
e


Z T ,V , N    e  Ui  (U ,V , N )
i
(Ui,V,N) est le nombre d’étatsi microscopique d’énergie Ui.
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
Si les particules n’interagissent pas, la fonction de partition grand
canonique est :

Z G T ,V ,     e  N
  z0 (T ,V ) 
N

N 0

Z G T ,V ,     e z0 (T ,V ) 
 N

N 0

e z0 (T ,V )
Z T ,V ,    e
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
Valeurs moyennes des grandeurs caractéristiques du système :
 Nombre moyen de particules :
 N   N pN ,i
N ,i

1   Ui   N 
 N 
ZG
 Ne
N ,i

1 1 Z G
 N 
Z G  
1  log Z G
 N 
 
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
Valeurs moyennes des grandeurs caractéristiques du système :
 Energie interne :
1   U i   N 
U
ZG
U e
N ,i

 log Z G
U N 

 Le grand potentiel:
 T ,V ,     kT log Z G

 La pression:

P
V
Chapitre 8 Distribution grand canonique
II. Fonction de partition grand canonique
Valeurs moyennes des grandeurs caractéristiques du système :
 L’entropie :
S   k  pN ,i log pN ,i
N ,i

S   k  pN ,i  log Z G   U i   N 
N ,i

S   pN ,i k log Z g   pN ,i k U i   pN ,i k  N
N ,i       N ,i     N ,i     
k log ZG 1U  N 
T T
U   N 
S  k log Z G 
T
U   N 
S    U  TS    N 
T
Chapitre 8 Distribution grand canonique
III. Distribution grand canonique pour un gaz parfait
Pas d’interactions entre les particules donc on a:
e z0 (T ,V )
Z G T , V ,    e

Avec:
3/2
 2 m k T 
z0  V  2 
 h 
Ce qui donne: 3

e V  2 mkT 2

Z G T ,V ,    e  h2 

 Grand potentiel :
3
 2 mkT  2
   kT log Z G  kTe V  2 
 h 
Chapitre 8 Distribution grand canonique
III. Distribution grand canonique pour un gaz parfait

 Nombre moyen de particules :3


   2 mkT  2
 N    Ve  2 
  h 

 Energie interne log


du gaz :
ZG
U N 

3 3
 
 2 mkT  2 3  2 mkT  
2

U    N  e V    e V   kT 
h 2
 2  h2  
           

 
0
3
U   N  kT
2
Chapitre 8 Distribution grand canonique
III. Distribution grand canonique pour un gaz parfait
3
 Pression :
  2 mkT  2
P  kTe   2 
V  h 
 N  kT
P
V

 Entropie :
3 3 3
   2 mkT     2 mkT  3   2 mkT  1
2 2 2
S   ke V  2   e V 2   kTe V  2 
T     h   T  h 
                  T
2  h

 N  U
T T T
Chapitre 8 Distribution grand canonique

IV. Equivalence entres les 3 ensembles

La distribution canonique est équivalente à la distribution


microcanonique si on remplace l’énergie constante du
système isolé par l’énergie moyenne du système fermé. De
même, la distribution grand canonique est équivalente à la
distribution canonique si on remplace le nombre de
particules constant du système fermé par le nombre de
particules moyen du système ouvert.
Chapitre 8 Distribution grand canonique

IV. Equivalence entres les 3 ensembles


Résumé:
Ensemble Ensemble Ensemble grand
microcanonique canonique canonique

U, N, V T, N, V T, , V
1 p N ,i  e
  U i   N 
p  pi  e  Ui

ZG   e
  U i   N 
Z   e  U i
 i N ,i
1  log Z G
 N 
 
 log Z  log Z G
U  U N 
 

S  k log  F   kT log Z    kT log Z G


Chapitre 8 Distribution grand canonique
V. Factorisation de la fonction de partition grand canonique
S
(S)=(S1)+(S2)
Réservoir
T, (S) échange l’énergie et
S1
la matière avec le réservoir
S2
(S1)et (S2) sont indépendants

Soit un état microscopique r du système (S). Les 2 sous systèmes sont


indépendants implique que l’état r est caractérisé par les deux états
microscopiques r1 et r2 des 2 sous systèmes. Dans ce cas,
U r  U r1  U r2
N  N1  N 2
Chapitre 8 Distribution grand canonique
V. Factorisation de la fonction de partition grand canonique
La fonction de partition grand canonique du système (S) est :
  U r1 U r2   N1   N 2 
ZG   e
N ,r

  U r1   N1    U r2   N 2 
ZG  e
N1 , r1
e
N 2 , r2

Z G  Z1G Z 2G

La fonction de partition grand canonique d’un système composé de


deux
sous systèmes indépendants est égale au produit des fonctions de
partition grand canoniques des deux sous systèmes.
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie

0

-

Les particules sont indépendantes et indiscernables:



1  N
Z G T ,V ,    
N !
  0
e  z (T , V ) 
N

N 0

1 
 e z0 (T ,V ) 
N
Z G T ,V ,    
N 0 N !

e z0 (T ,V )
Z T ,V ,    e
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie
La fonction de partition d’une particule est:
z0 (T , V )  e     e 
Ce qui donne :
e e  e  
Z G T ,V ,    e

Nombre moyen de particules


1  log Z G
 N 
 
1   
 N 
 

e e  e    
 N  e  e   e   
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie
Energie interne :
 log Z G
U N 

  
U   e   e   e    


e e  e    
U   e   e    e  

On peut exprimer l’énergie interne en fonction du nombre moyen de


particules et non en fonction du potentiel chimique, on obtient :

e    e 
U  N    
e  e 
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie
Nombre moyen de particules sur les deux niveaux :
N  N1  N 2   N  N1    N 2 

U i  N1    N 2    U  N1      N 2    

On trouve:
e  
 N1  N  
e  e  
e 
 N 2  N  
e  e  
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie
Comparaison avec la distribution canonique
Le système est fermé avec un nombre N de particules.
1 1 
Z
N!
 0
z
N

N!
 e  e 
  N

 log Z  log z0 
U   N  N log e   e   
  
e    e 
U  N   
e  e 
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
1. Système à deux niveaux d’énergie
Comparaison avec la distribution canonique
p1 la probabilité pour une particule d’être dans l’état d’énergie  et p2
celle dans l’état d’énergie -. On a :
e  e  
p1    
z0 e  e 
e  e 
p2    
z0 e  e 
Par conséquent, le nombre moyen de particules sur chaque niveau :
e   e 
 N1  N p1  N  N  
z0 e  e 
e  e 
 N 2  N p2  N  N  
z0 e  e 
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
2. Adsorption
• Les parois d’un recipient contenant un gaz
• peuvent adsorber les atomes du gaz dans
• des sites particuliers. On modélise ce
• phénomène en considérant que le solide
• constituant les parois est un système en
• contact avec un réservoir de température
• T et de potentiel chimique . Le réservoir
• ici est le gaz contenu dans le récipient.
La fonction de partition grand canonique
Chaque site qui adsorbe un atome du gaz est indépendant des autres.
La fonction de partition grand canonique du système (tous les sites) est
le produit des fonction de partition individuelles de chaque site.
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
2. Adsorption
La fonction de partition grand canonique
Les sites sont indépendants et discernables:
 
n
ZG  Z 0G
Un site contient soit un atome et possède donc l’énergie -0, soit il est
vide et son énergie est nulle. Ceci donne pour la fonction de partition
grand canonique d’un site :
Z 0G  1  e  0 
    

  0   
Z 0G  1  e

Ce qui donne :
 
n
  0
ZG  1  e e
Chapitre 8 Distribution grand canonique
VI. Quelques applications de la distribution grand canonique
2. Adsorption
Le nombre moyen de atomes
1  log Z G e  e  0
Na  n
  1  e  e  0

L’énergie des atomes adsorbés


 log Z G e  e  0 
 
n
  0
U   Na   n   0
 log 1  e e
 1 e e 
e  e  0
U  n 0
1  e  e  0
U   N a 0
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
I. Introduction
En mécanique quantique les particules identiques sont indiscernables.
L’indiscernabilité des particules est liée à l’invariance du Hamiltonien.
On introduit l’opérateur  ij tel que:
P
     
 ij  (r ,...r ,...r ,...)   ( r ,...r ,...r i ,...)
P 1 i j 1 j

Pour tout i,j=1…N avec ij


Sachant qu’on a :[H  ,P  ij ] = 0.
Cherchons
  les  valeurs propres
  decet opérateur:
 ij  (r ,...r ,...r ,...)   (r ,...r ,...r ,...)
P      
1 j 1 j
  
i
  
i
 (r1 ,...rj ,...ri ,...)   (r1 ,...ri ,...rj ,...)
 ij  (r ,...r ,...r ,...)   (r ,...r ,...r ,...)
P 1 i j 1 j i

et      
P ij  (r ,...r ,...r ,...)   2 (r ,...r ,...r ,...)
1
 j 
i 1
  i 
j
  1
P ij  (r ,...r ,...r ,...)   (r ,...r ,...r ,...)
1 j i 1 i j
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
 ij donc:
Les deux valeurs propre de l’opérateur de permutation sont
P
    1La fonction d’onde est symétrique
    1La fonction d’onde est antisymétrique
Pour un nombre quelconque de permutation, on associe l’opérateur 
:P
    
  
P  (r , r ...r )   (r , r ..., r )
1 2 N p1 p2 pN
On considère un système de N particules n’interagissant pas entre elles.
N
  h
H i
On résout l’équation
i aux valeurs propres de l’hamiltonien à une particule:
 
hi i (ri )   i i (ri )
La fonction d’onde du système est alors:
     
 (r1 , r2 ...rN )  1 (r1 )2 (r2 )... N ( rN )
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
En notation de Dirac, le vecteur ket associé est:
k1 , k2 ,...,.k N  k1 k2 ... k N
k1,…,kN désignent les nombres quantiques associés aux états à une
particule occupés.
Le vecteur bra correspondant s’écrit:
k1 , k2 ,...,.k N  k N ... k2 k1
  
La fonction d’onde  (r1 , r2 ...rN ) ne posséde pas la propriété de symétrie
ou
d’antisymétrie assurant l’indiscernabilité des particules. Une combinaison
 cette fonction est aussi
linéaire de toutes les permutations possibles deH
solution de l’équation aux valeurs propres de
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
La fonction d’onde antisymétrique est donnée par:

  
1 (r1 ) 1 (r2 ) . . . 1 (rN )
  
2 (r1 ) 2 (r2 ) . . . 2 (rN )
  1 . . . . . .
A
 
 r1 , r2 ,..., rN 
N! . . . . . .
. . . . . .
  
 (r )  (r ) . . .  N ( rN )
 N 1  N 2       
Déterminant deSlater
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
II. Fonction d’onde symétrique et fonction d’onde antisymétrique
La fonction d’onde symétrique est donnée par:

  
1 (r1 ) 1 (r2 ) . . . 1 (rN )
  
2 (r1 ) 2 (r2 ) . . . 2 (rN )
  . . . . . .
S

 r1 , r2 ,..., rN   norm
. . . . . .
. . . . . .
  
 (r )  (r ) . . .  (r )
 N 1  N 2      N N
Permanent
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
III. Remarque
Pour la fonction d’onde antisymétrique, 2 particules ne peuvent pas être
dans le même état quantique sinon 2 lignes du déterminant seront
identiques ce qui donnera un fonction d’onde antisymétrique nulle : C’est
le
principe de Pauli pour les fermions.
 Fermions: spin 1/2 entier (électron, proton, neutron, muons.)
 1
Bosons: spin entier (photon, méson, particules … )
N!
Les facteurs et norm sont des facteurs de normalisation.
Chapitre 9 Les fonction d’onde
symétrique et antisymétrique
IV. Exemple
Système de 2 bosons:

La 1ère fonction d’onde symétrique normalisée est donnée par :


  1    
S1
 (r1 , r2 )  1 (r1 ) 2 (r2 )  1 (r2 ) 2 (r1 ) 
2!  

La 2ème fonction d’onde symétrique normalisée est donnée par :


 1 1    
S2
 (r1 , r2 )  1 (r1 )1 (r2 )  1 ( r2 )1 (r1 ) 
2! 4  
Chapitre 10 Description grand
canonique d’un système quantique
I. Fonction de partition canonique
Pour un système quantique idéal (les particules n’interagissent pas),
l’opérateur Hamiltonien se met sous la forme:
N
H  h

 i
i

La fonction de partition canonique est donnée par :


Z (T , V , N )  tr e 
  H
 
1

N ! k1 ,k2 ...k N
AS
k1 , k2 ..., k N e   H
k1 , k 2 ..., k N
AS

  
 Distribution de MB: k1 , k2 ..., k N   1 (r1 )2( r2 )...N ( rN )
S S
  
 Distribution de BE: k1 , k2 ..., k N  (r1 , r2 ,..., rN )
A
  
A
 Distribution de FD: k1 , k2 ..., k N  ( r1 , r2 ,..., rN )
Chapitre 10 Description grand canonique
d’un système quantique
I. Fonction de partition canonique
 doivent vérifier l’équation aux valeurs propres:
Les fonction propres de H N
 k , k ..., k
H
AS
 E k1 , k2 ..., k N
AS
, avec E    ki
1 2 N
i 1
Pour la distribution de MB: N
   ki
1
Z (T , V , N )  
N ! k1 ,k2 ...k N
k1 , k2 ..., k N e i k1 , k 2 ..., k N

1 N
   ki
 
N ! ki i 1
k i e ki

1 N    ki
  
N ! i 1 ki
k i e ki

1 N    ki
  
N ! i 1 ki
e

ki ki

     1 
zi
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Pour la distribution de BE et de FD, les états symétriques et antisymétriques
sont complètement déterminés si on connaît les états d’énergie à une particule
occupés et le nombre de particules occupant chacun de ces états.
La répartition {n1, n2, …} des nombres d’occupations des états d’énergie à
une particule permet de connaître l’état du système.
 Bosons: nk = 0,1,2,3,…
 Fermions: nk = 0,1
AS
Au lieu de caractériser l’état du système par k1 , k2 ..., ,kilN devient
possible de le caractériser par le vecteur d’état n1 , n2 ...,
AS

Exemple :
 Système de 2 fermions: A
0, 0,1, 0, 0,1,...
 Système de 2 bosons: S S
0, 0,1, 0, 0,1,... ou 0, 0, 2, 0, 0, 0,...
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Les nombres

d’occupation doivent vérifier les deux conditions suivantes:
  nk  N . 
k 1

 n 
k 1
k k  E.
L’équation aux valeurs propres devient:
 n , n ,...
H
AS
 E n1 , n2 ,...
AS
1 2

De même, on a:
 n , n ,...
N
AS
 N n1 , n2 ,...
AS
1 2

Et:
nk n1 , n2 ,...
AS AS
 nk n1 , n2 ,...
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Deux états sont identiques si et seulement si tous les nombres d’occupation nk
coïncident exactement.
AS AS
n1 ', n2 '..., n1 , n2 ...,   n1 ' n1 n2 ' n2 ...
AS
n1 , n2 ...,
L’expression de l’opérateur densitéde probabilité dans la base  :
   nk  k

AS  n , n ..., 
AS e k 1

n1 ', n2 '..., D  n1 ' n1 n2 ' n2 ...


Z T ,V , N 
1 2

Avec: 
   nk  k
Z T ,V , N    e k 1
nk 
Chapitre 10 Description grand canonique
d’un système quantique
II. La seconde quantification
Ici la sommation est effectuée sur toutes les répartitions permises {nk} des
nombres d’occupation. Chacune de ces répartitions correspond à un microétat
du système. Cette sommation obéit aux 2 contraintes suivantes :
nk  0,1 pour les fermions
 .
nk  0,1,..... pour les bosons

 . n
k 1
k N
Chapitre 10 Description grand canonique
d’un système quantique
III. La fonction de partition grand canonique
L’opérateur densité est donné par:
AS
AS  n , n ..., AS 1    N
 H 
 n , n ..., AS
n1 ', n2 '..., D  n1 ', n2 '..., e
Z T , V ,  
1 2 1 2


  nk  k   
e k 1
 est donnée par:
La fonction de partition grand canonique  n2 ' n2 ...
Z T ,V ,  
n1 ' n1


Il n’y a plus la contrainte    nk  ksur
  les répartitions {nk}, puisque le nombre

T ,V , 
deZparticules  
totaln’es plus
e fixé à N.
k 1

nk 

n
k 1
k N
Chapitre 10 Description grand canonique
d’un système quantique
IV. Application à la distribution de MB

Les particules sont discernables, pour une répartition {nk}, on a N!


n1 !n2 !...nk !...
combinaisons possibles pour distribuer les N particules. En tenant compte du
facteur de Gibbs 1/N! on a:

1
g
gMBMB
est{nle 
k } poids de la répartition {n k} dans le cadre de la distribution MB
n1 ! n2 !...nk !...
Chapitre 10 Description grand canonique
d’un système quantique
IV. Application à la distribution de MB

La fonction de partition grand canonique devient:



  nk ( k   )
Z MB T ,V ,     g MB{nk }e k 1

nk 

e  e  ... e 
n1 n2 nk
  1       2       k   


n1  0, n2  0,... nk  0 n1 ! n2 ! nk !
...

    k   
 e e

k 0
Chapitre 10 Description grand canonique
d’un système quantique
V. Application à la distribution de BE
Pour la distribution BE, le poids d’une répartition donnée {nk} est :
g BE{nk }  1

Le calcul de la fonction de partition grand canonique se fait donc sans


contrainte sur les valeurs des nombres d’occupation des niveaux d’énergie.
   nk (  k   )
Z BE T ,V ,     g BE{nk }e k 1
nk 

e  e  ...e 
n1 n2 nk

n1  0, n2  0,...nk  0
  1       2       k   
...


1

k 0 1  e    k
e 
Chapitre 10 Description grand canonique
d’un système quantique
VI. Application à la distribution de FD
Pour la distribution FD, le poids d’une répartition donnée {nk} est :
1 si nk  0,1

g FD{nk }  
0 si n  0,1
 k

Le calcul de la fonction de partition grand canonique donne :



  nk ( k   )
Z FD T ,V ,     g FD{nk }e k 1

nk 
1

e  e  ...e 
n1 n2 nk

n1  0, n2  0,...nk  0
  1       2       k   
...


  1  e   e   k 
k 0
Chapitre 11 Le gaz idéal de Bose Einstein

I. Introduction
Le gaz idéal de Bose Einstein donne un gaz parfait dans la limite classique qui
correspond à des températures élevées ou/et des densités faibles:
N 3 N  h2 
    1
V V  2 m k T 
II. Le facteur de Bose
On a: nk  tr D 
 n 
k  S
n1 , n2 ,...,
{ nk }
 n n , n ,...,
D k 1 2
S


   nk  k   
1
 n1 , n2 ,..., nk n1 , n2 ,...,
S S
 e k 0
Z BE T , V ,   {nk }

   nk  k   
1
 
Z BE T , V ,   {nk }
nk e k 0
Chapitre 11 Le gaz idéal de Bose Einstein

II. Le facteur de Bose

    nk  k    

1 1  
 nk   
Z BE T ,V ,     k  {nk }
e k 0 

 T , 
1 

  k
 log Z BE T , V ,  

Le facteur de Bose est donc:


1
 nk  
 e
  k   

1
Chapitre 11 Le gaz idéal de Bose Einstein

II. Le facteur de Bose


Le facteur de Bose doit être positif, ce qui implique que k >    k. En
particulier lorsque k = 0, ce qui donne  < 0. Le potentiel chimique d’un gaz
de bosons est négatif. 4

1
nk 
e 
 k  

1 <nk>

0
0 1 2 3


Chapitre 11 Le gaz idéal de Bose Einstein

III. Le grand potentiel

   kT log  Z BE T ,V ,  
En utilisant l’expression de la fonction de partition grand canonique, on obtient:



On a :  kT  log
k 0
1  e
   k
e 

 
 N  
  T ,V
 
  U  T S   N   pV   S  
 T V , 
 
p  
 V T , 
Chapitre 11 Le gaz idéal de Bose Einstein

IV. Nombre moyen de particules

On peut calculer le nombre de particules moyen de 2 manières:

 .

 .
N    Tr DN
N  
 S
n1 , n2  
,..., N
D  n , n ,...,
1 2
{nk }
S

On obtient: 
N 
 T ,V


1 
N    k   
   nk 
k 0 e 1 k 0
Chapitre 11 Le gaz idéal de Bose Einstein
V. Energie interne

 
L’énergie interne est donnée par:
  tr D
U H H
Soit:


U  
log  Z BE T ,V ,     N 
 d’énergie à une particule est très faible et on
La différence entre les niveaux
peut remplacer la sommation sur les niveaux d’énergie par une intégration:

k
U    k   
g() est la densité d’étatk  e 1
à 0une particule, c’est le nombre d’états dont l’énergie
est comprise entre  et +d.

 
  g   d 
k
Chapitre 11 Le gaz idéal de Bose Einstein

V. Energie interne
Les états d’énergie à une particule donnés par:

2
2
 k
 
Ce quik donne: 2
2 mV 3

3 1
V
k 
On obtient:
4  2 3
 2 m  2  2 d

      
g ( )


1 
N    k   
   nk 
k 0 e 1 k 0
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein

Le nombre moyen de particules est :

 1
2 V 3
1
On pose : x=3 
N  2 m        d 

2 2
h 0 e 1

V
log  Z BE T ,V ,    3
g 5/2  
Les intégrales

V
N  g 3/2deBose
sont les fonctions
3  Einstein
 1

x k 1
g k     dx avec 0   1 et k  
 k  0  e 1
1 x
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Allure de g1/2()
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Limite classique :
Pour des valeurs faibles de , on a: g3/ 2     ce qui donne :
V
N  3

Le gaz quantique se comporte comme un gaz parfait classique quand la


température est élevée ou si le potentiel chimique est faible.
Chapitre 11 Le gaz idéal de Bose Einstein
VI. La condensation de Bose Einstein
Gaz de bosons dégénérés :
Le nombre de particules sur les états excités est donné par:

3/2
 2 m k T 
N
Pour =1: V 
ex g (1)=2.612 2  g 3/2  
3/2

Le nombre de particules
hsur l’étatsfondamental est:

La température critique Tc est donnée par :

1
N0 
e    1

2/3
2 2  N 
Tc   
2.6122/3 m k  V 
Chapitre 11 Le gaz idéal de Bose Einstein

VI. La condensation de Bose Einstein


Gaz de bosons dégénérés :

Vous aimerez peut-être aussi