Vous êtes sur la page 1sur 34

Chapitre 1 .

Introduction

1. Les états de la matière

La matière macroscopique est constituée d’un grand nombre d’atomes, de molécules et


d’ions. Cette matière se retrouve sous différentes formes (solide, liquide ou gazeuse)

 L’état solide : Les particules ne bougent pas ou très peu. On peut avoir des solides
cristallins où les particules occupent des sites particuliers et la structure de l’ensemble
est périodique (cas de NaCl, diamant …) on a aussi des solides dits amorphes où la
position des particules est aléatoire sans aucune structure périodique (cas du carbone
amorphe, verre …..).
 L’état liquide : Les particules sont libres et peuvent se mouvoir dans différentes
directions mais elles restent soumises à leur interactions mutuelles (forces
électromagnétiques).
 L’état gazeux : Les particules sont complètement libres et les interactions entre ces
particules sont très faibles (Les particules entrent en collision les unes contres les
autres).
L’état liquide est intermédiaire entre l’état solide et l’état gazeux.
Outre cette classification générale, il existe un état intermédiaire entre l’état solide et l’état
liquide : c’est l’état mésomorphe. Les cristaux liquides en sont un exemple. Dans ce cas, les
molécules sont allongées et ont toutes une orientation particulière mais la position est
aléatoire (état nématique). Les particules peuvent s’arranger en couche (état smectique).

2. Mouvement Brownien

Quand on observe une goutte d’un liquide au microscope on s’aperçoit que les particules en
suspension ont un mouvement aléatoire. La représentation de ce mouvement est schématisée
ci-dessous.
chocs

La particule effectue des segments de droite désordonnés en changeant à chaque fois de façon
aléatoire sa direction. Le mouvement d’une particule en suspension est dû aux chocs
successifs avec les molécules du liquide.
3. Définition d’un système

C’est l’ensemble des corps compris à l’intérieur d’une surface fermée.

1er système : gaz

2ème système : gaz + chauffage

Un système macroscopique contient un nombre très grand de particules de l’ordre du nombre


d’Avogadro (~ 6.023 1023).
Un système est isolé s’il n’échange ni énergie ni matière avec le reste de l’univers. Un
système fermé échange de l’énergie mais pas de la matière avec le reste de l’univers. Et un
système ouvert échange de l’énergie et de la matière avec l’univers.

4. Description macroscopique d’un système

Pour suivre l’évolution d’un système macroscopique (exemple un gaz


occupant un volume V), il suffit de résoudre l’équation dynamique du
mouvement pour toutes les particules comprises dans ce système. Cela
fait environ 1024 équations à résoudre en tenant compte des différentes
interactions entre les particules et connaissant à l’instant initial la
position et la vitesse de chacune de ces particules. Les ordinateurs à
Particules en l’heure actuelle ne sont pas assez puissants pour faire ce calcul. Donc
mouvement même si on sait formuler le problème, il est impossible matériellement
de le résoudre.

Pour un gaz parfait confiné dans un volume V, la thermodynamique nous enseigne que pour
connaître l’état de ce gaz , il suffit de connaître quelques variables macroscopiques tels que la
température, pression, nombre de particules, masse……). Ce sont les variables d’état du
système.

Variables d’état intensives, extensives

V1 V2
Considérons les deux volumes V1 et V2 contenant de l’eau et échangeant de l’énergie. La
température après un certain temps va être égale dans les deux volumes : T1= T2=T. Si on met
les deux volumes en contact (on enlève la paroi qui les sépare), les volumes vont
s’additionner pour donner le volume total :V= V1+ V2. On dit que la température est une
variable d’état intensive tandis que le volume est une variable d’état extensive.
 Variables intensives : T, P , ,…
 Variables extensives : V, m, nombre de particules par unité de volume…

Physique classique, physique statistque

 Physique classique : Etude des systèmes macroscopiques sans faire appel à la structure
microscopique. Elle est basée sur les principes généraux de la thermodynamique, de la
mécanique, de l’électromagnétisme …...Pa exemple le premier et le second principe
pour la thermodynamique, les équations de Hamilton et de Navier et Stokes pour la
mécanique et les équations de Maxwell pour l’électromagnétisme……
 Physique statistique : Etude des systèmes macroscopiques à partir de la structure
microscopique tout en considérant un nombre élevé de particules constituant ce
système.

5. Equilibre d’un système

Un système macroscopique est dit en équilibre si les variables d’état ne varient pas en
moyenne dans le temps.

1er exemple :

La concentration de l’eau c(t) varie au cours du temps ( c(t) représente la concentration du


permanganate, le permanganate de potassium est diffusé dans l’eau).
 Situation initiale : coloration non homogène.
 Situation finale : coloration violette homogène, donc on a un équilibre (il n’y a plus
d’évolution au cours du temps).
La concentration de l’eau en moyenne reste constante c(t ) .

Remarque :

A l’équilibre, on a des mouvements microscopiques mais pas d’évolution macroscopique.


2ème exemple

N1(t) N2(t)

On s’intéresse à l’évolution du nombre de molécules dans chaque moitié du volume V/2.


Les molécules du gaz sont très agitées et passent continuellement d’une moitié du volume à
l’autre. Même en équilibre le nombre de particules dans une moitié du volume fluctue autour
de la valeur moyenne N/2.

N
La valeur moyenne N1 (t ) est constante et est égale à de même pour la valeur
2
moyenne N 2 (t ) . Quand N est très grand les fluctuations deviennent relativement faibles.

6. Equations d’état
L’expérience montre qu’il suffit de connaitre deux variables pour caractériser l’état d’un
système.

Exemples :
 Pour un gaz parfait. P, V, T
Il suffit de connaitre par exemple la température T
et le volume V et l’équation d’état du gaz parfait
PV  nRT donne la pression P.

 Pour un fil métallique tendu.


L’équation d’état du fil relie les 3 variables suivantes :
La température T, la tension du fil F et la longueur
du fil L. On détermine la longueur L en fonction
des deux autres variables L=f(T, F ).

Remarque :
L’équation d’état n’a un sens qu’à l’équilibre.
Chapitre 2 Notions de probabilités

1. Ensemble statistique. Probabilités

Etude d’un système → résoudre les équations de mouvement de N particules (N  1).


→ où méthode statistique d’autant meilleure que N est élevé.

On considère un système S, on veut mesurer une grandeur a. En effectuant N mesures, on


trouve les valeurs a1, a2, a3, a4, a5,… ai, …. an. Chacune de ces valeurs est réalisée un certain
nombre de fois. Par exemple la valeur ai est réalisée Ni fois et sa fréquence est donné, dans ce
Ni
cas, par le rapport :
N
Ni
fi 
N

On estime que lorsque N tend vers l’infini, la limite de cette fréquence donne la probabilité de
réaliser la valeur ai.

Ni
Pi  lim fi  lim
N  N  N

On peut procéder pour la mesure de la probabilité Pi de deux manières suivantes :


 On doit répéter un grand nombre N de fois la mesure pour le même système dans des
conditions identiques.
 On prend un grand nombre N de systèmes identiques au système S et on mesure pour
chacun d’eux la grandeur a.
L’ensemble des N systèmes identiques est appelé ensemble statistique.

Le résultat de la mesure de la grandeur a est appelé en terme de probabilité : événement.


L’ensemble de tous les événements  est appelé espace entier ou univers des possibles. Par
opposition,  est l’espace vide ou l’événement impossible. Dans l’exemple ci-dessus, on a :
  a1 , a2 , a3 ,..., ai ,...an 
Exemple1 : le lancer d’une pièce de monnaie
Pour un lancer d’une pièce nous n’avons au total que deux événements : l’événement pile ou
l’événement face, tel que   P, F  .
Pour un lancer d’un dé, on a 6 événements   1, 2,3, 4,5,6 .

Avec l’ensemble statistique on peut procéder de deux manières possibles:


 Mesurer la grandeur a pour chacun de ces systèmes.
 Construire un ensemble représentatif en mettant à priori le nombre N1 de résultats
pour la valeur a1 et N2 pour la valeur a2 ……
Considérons le lancer d’une pièce :
 On peut avoir N pièces identiques et le lancer de ces pièces donne par exemple:

NF = NP = N/2
 Si la pièce n’est pas truquée et que les faces sont parfaitement identiques (le centre de
gravité coïncide avec le centre géométrique) alors théoriquement on a :

NF
= NF = NP = N/2
NP

2. Propriétés

Considérons deux événements A et B : L’événement A ou B (réalisé lorsque soit A soit B est


réalisé) est noté : AB. L’événement A et B (réalisé lorsque A et B le sont) est noté : AB.
 P()=1
 P()=0
 Deux événements A et B sont dits incompatibles si AB= ( ne peuvent pas
être réalisés simultanément comme par exemple pour un dé l’événement 1 et
l’événement 3.
 Pour deux événement incompatibles A et B, la probabilité de l’événement AB
est P(AB)=P(A)+P(B)
 Pour deux événements quelconques A et B, la probabilité de l’événement AB
est P(AB)=P(A)+P(B)- P(AB)
 Pour deux événements indépendants A et B, la probabilité de l’événement AB
est P(AB)=P(A) P(B)

A A
AB
B
B

A et B événements non exclusifs A et B événements exclusifs


3. Probabilité conditionnelle

C’est la probabilité de réaliser l’événement A lorsque l’événement B est réalisé. Elle est
donnée par :
P( A  B)
P( A / B) 
P( B)

4. Valeur moyenne écart quadratique

Valeur moyenne

En considérant la mesure de la grandeur a dans l’exemple ci-dessus, la valeur moyenne est


déterminée en sommant toutes les valeurs obtenues et en tenant compte de la fréquence
chacune.

a1, a2, …, ai…an

N1a1  N 2 a2  ...  Ni ai  ...  N n an


a
N1  N 2  ...  Ni  ...  N n
N
N1, N2,…, Ni,…Nn

La valeur moyenne est déterminée parfaitement à partir de la loi de probabilité liée à cette
grandeur :
n
a   P(ai ) ai
i 1
Propriétés :
n
f (a)   P(ai ) f (ai )
i 1

f ( a )  g ( a )  f ( a )  g (a )

 f (a)   f (a)
Si a et b sont deux résultats indépendants : f (a) g (b)  f (a) g (b)

Ecart quadratique

C’est une mesure de dispersion des résultats mesurée autour de la valeur moyenne.
ai  ai  a  ai  0 (la moyenne des différence des valeurs mesurées par rapport à la
valeur moyenne est forcément nulle et ne permet donc pas de mesurer la dispersion autour de
la valeur moyenne.

Donc pour mesurer la dispersion on utilise l’écart quadratique moyen défini par:

   ai  0
2
Pour illustrer l’importance de cette grandeur dans la caractérisation de la dispersion, deux lois
de probabilité sont représentées dans la figure suivante :

Fréquence d’apparition

a ai a ai

L’écart quadratique représente l’intervalle à partir de la moyenne dans les deux sens allant
jusqu’à la valeur ayant une probabilité presque la moitié de la probabilité maximale.

est la dispersion relative
a
 2 est la variance

5. Distribution binomiale

a) Quelques rappels

 Factoriel : N entier, N ! = N( N-1)(N-2)…(2)(1)

 Permutation : Considérons un nombre N d’éléments numérotés de 1 jusqu’à N. on


dispose de N cases pour les ranger. Le nombre de permutations est égal au nombre de
façons de ranger les N éléments dans les N cases.

On a : N possibilités de remplir la 1ère case


N-1 possibilités de remplir la 2ème case
.
.
.
1 possibilité de remplir la dernière case

Finalement, on a N(N-1)(N-2)….(2)(1) = N ! Permutations


 Arrangements : Considérons un nombre N éléments et n cases (n  N). Pour remplir la
1ère case, on a N possibilités, pour la 2ème case on a N-1 possibilités … et pour la nème
case on a N-n+1 possibilités.
Finalement, on a N(N-1)(N-2)…(N-n+1) arrangements de n éléments parmi N éléments

ANn  N  N  1 N  2  N  n  1


N  n !  N !
 N  n  !  N  n !
Soit :
N!
ANn 
 N  n !
 Combinaisons : Le nombre de combinaisons de n éléments choisis parmi N éléments ne
dépend pas de l’ordre avec lequel on remplit les cases.

Même combinaison mais arrangements différents

Le nombre de combinaison est donc égal au nombre d’arrangements divisé par le nombre de
permutations n !
N!
CNn 
 N  n  !n !
b) Distribution binomiale

Problème de la marche au hasard :


On prend l’exemple d’un homme qui se déplace sur une ligne droite et qui n’as le droit de
faire qu’un seul pas à la fois soit vers la gauche soit vers la droite. A chaque fois qu’il fait un
pas, le pas suivant est indépendant du pas précédent. Soit d la longueur d’un pas qui est
constante. On suppose que la probabilité de faire un pas vers la droite est p et que la
probabilité de faire un pas vers la gauche est q (la somme des deux probabilités est égale à la
probabilité de l’événement univers et donc on a : p + q = 1).
d

droite
gauche
Après que l’homme ait fait N pas au total, quelle est la probabilité qu’il ait fait n pas à droite
(donc N-n pas à gauche) ? Il s’agit de savoir combien on peut former de combinaisons de n
pas à droite parmi N pas au total en numérotant les pas.

Exemple :

Pour N = 5 pas au total, combien de choix a t’on de faire n = 3 pas à droite ? Au total il y a
C53  10 manières de faire 3 pas à droite parmi 5 pas au total. On note les combinaisons
possibles selon le schéma ci-dessus :
1er pas 2ème pas 3ème pas 4ème pas 5ème pas
    
droite droite gauche droite gauche

ddgdg

Les 10 combinaisons sont : dddgg, ddgdg, ddggd,dgdgd, dgddg, dggdd, gdgdd, gddgd, ggddd
et gdddg.
La probabilité pour faire un pas à droite est p et celle pour faire un pas à gauche est q, donc la
probabilité de la séquence dddgg par exemple est p p p q q (les pas successifs sont des
événements indépendants entre eux). Donc la probabilité de la séquence dddgg est p3q2
( Ps (3)  p 3 q 53 ). On obtient la même expression de la probabilité pour n’importe quelle
séquence parmi les dix choix. Autrement dis, pour le cas général de N pas au total la
probabilité de réaliser une séquence parmi les CNn choix d’obtenir n pas a droite par analogie
de l’exemple précédent est:

Ps (n)  p n q N n

Les dix séquences sont exclusives entre elles donc la probabilité de réaliser n pas à droite
parmi N pas au totale doit être égale la somme des probabilités. P(n)   Ps(n)
s
Finalement on obtient la distribution binomiale :

P(n)  CNn p n q N n

c) Distribution Gauss

On considère la distribution binomiale lorsque N  1. On montre que dans ce cas l’expression


de la loi binomiale tend vers une fonction analytique.
On va chercher la valeur de n pour laquelle P(n) est maximale. Il suffit de chercher la valeur n
pour laquelle la fonction log P(n) est maximale.
On a (n +1) – n = 1 n  ce qui implique que n peut être considérée comme une variable
continue et dn ~ (n+1) –n est une variation infinitésimale de la variable n.

d log  P(n)  log( P(n  1)  log  P(n)   P(n  1) 


  log  
dn n 1 n  P ( n) 

En remplaçant par leur expression P(n+1) et P(n), on a :

d log  P(n)   N n p
 log    0  nm  N p
dn  n q
On peut montrer que la valeur moyenne de la distribution binomiale est donnée par :
n   n P ( n)  N p
Donc, la valeur moyenne est aussi la valeur dont la probabilité est maximale lorsque N  1
( nm  n  Np ).
Le développement limité de log(P(n)) au voisinage de n donne :

   
2
d log  P(n)  nn d 2 log  P(n)  nn

log  P(n)   log P(n)  dn 1!

dn 2 2!
 ...
nn nn
0 1

Npq

On peut montrer que l’écart quadratique moyen de la distribution binomiale est donné par :

 
2
2  nn  N p q

Ce qui donne finalement pour P(n) :


1
 ( n  n )2
2 2
P ( n)  P ( n) e

C’est la distribution de Gauss.

P( n )
Équat
ion
P(2-3
n )/2


Si n  n     P ( n) 
P ( n)
2
Équati
on 2-3

n
Équ
atio
n 2-3
6. Application : Gaz parfait dans un volume

On considère un gaz parfait isolé et à l’équilibre dans une boite de volume V.

La probabilité pour qu’une molécule soit à droite est p


Et celle pour qu’elle soit à gauche est q.
n et n’ ne sont pas constants. On a une distribution
binomiale comme dans le cas de la marche au hasard.

P(n)  CNn p n q N n

N
Si V = V’ = V/2 → p = q = 1/2 → n
2
 Supposons N=10 → n  5

x x
x x Situation uniforme : P(5) > P(2)
x x x x
x x

x x x Situation non uniforme : P(2) < P(5)


x
x x x
x
x
x

P(5) ~1/4
P(2) ~ 1/23

Pour illustrer l’état d’équilibre d’un gaz dans un volume, on considère la probabilité d’obtenir
une moitié de volume complètement vide pour les deux cas suivants: N = 4 et N = Na
 P(0) ?
 N=4
4
1 1
x P(0)  C40   
 2  16
x x
Une image sur 16 apparaîtra sous cette forme
x
 N = Na
Na
1 1 1
x x x P(0)  CN0 a     1
xxx x 2 1024
2 3x1023
10
x xx x x 23
xx x Une image sur 103x10 apparaîtra sous cette forme.
xxx xx Si on prend une image par seconde, il faudrait attendre
x x x
xx xx 23
environ 103x10 milliards d’années pour voir cette image
x x x x
alors que l’age de l’univers est au maximum 15 milliards
d’années.

Conclusion
La situation de n = 0 est pratiquement irréalisable sa probabilité tend vers 0, pour un système
macroscopique ou N ~ Na, la mesure de n donnera toujours la valeur moyenne n
Chapitre 3 Description d’un système statistique
classique

On va combiner les lois de la mécanique classique avec les lois de probabilités.

I. Rappel de mécanique

Considérons un système de N particules qui interagissent entre elles.

Soit un repère galiléen (S) et vi est la vitesse de la particule i par rapport à (S).

L’énergie cinétique du système est donnée par :

1
Ec   mi vi 2 (S) (B)
i 2

Si les forces internes dérivent d’un potentiel, alors G

l’énergie mécanique du système est :


E (S )  Ec  E p

Pour un système isolé, E est une constante.


On considère le repère barycentrique (B) en translation par rapport au repère (S) tel que :
vi  v i ( B)  v G ( S )
1
Théorème de Koenig : Ec ( S )  Ec ( B)  m vG 2
2
m est la masse totale (   mi )
i
Donc on a :
1
E ( S )  Ec ( B)  E p  m vG 2
2
Energie int erne U

L’énergie interne du système est égale à la somme de l’énergie cinétique dans le repère
barycentrique et de l’énergie potentielle due aux interactions entre les particules.
U  Ec ( B)  E p (int)
Remarque :
Si Ec ( B)  E p (int) fluctue alors U  Ec ( B)  E p (int)
C’est la moyenne sur toutes les valeurs possibles.
L’énergie potentielle est définie à une constante prés. Donc, l’énergie interne est définie aussi
à une constant prés, c’est sa variation qui possède une signification physique.
II. Espace de phase

1. Degré de liberté d’un système


Etat macroscopique : donnée des paramètres macroscopiques tels que la température, la
pression, l’énergie….
Etat microscopique : les données de l’état précis de toutes les particules du système. Par
exemple, pour un gaz de molécules : l’état microscopique de ce système est connu si on
connaît les données de position et d’impulsion de toutes les molécules contenues dans ce gaz.

- position ri de chaque particule.


- quantité de mouvement p i de chaque particule

Définition :
Le nombre de degrés de liberté d’un système  est égal au nombre de coordonnées
indépendantes à l’aide desquelles on décrit le système.
Par exemple, pour un gaz parfait à N atomes le nombre de degrés de liberté  =3N

Exemple du gaz parfait monoatomique

Si le système est un atome unique dans un volume V


L’atome est assimilé à un point matériel de masse m libre de se déplacer dans les 3 directions
de l’espace et donc pour localiser sa position dans l’espace il faut connaître les 3 coordonnées
d’espace : x, y et z. Donc le degré de liberté d’un atome d’un gaz parfait est f = 3.

On peut généraliser facilement à un gaz parfait constitué de N atomes enfermé dans une boite
de volume V. Puisque le gaz parfait, il n y a pas d’interaction entre les atomes qui sont
indépendants les uns des autres. Donc, chaque atome peut se déplacer librement
indépendamment des autres atomes. Dans ce cas, il faut connaître les coordonnées de tous les
atomes du gaz pour décrire le système. Le nombre des coordonnés est donc 3*N, ce qui
donne un degré de liberté du gaz parfait monoatomique f = 3N.

2. Espace de phase

a) Système à 1 degré de liberté ( = 1)


On considère une masse m accrochée à un ressort. L’ensemble forme un oscillateur
harmonique

x
Système = (support + ressort + m)
Le système est isolé donc son énergie mécanique est constante. D’autre part, le support qui est
le mur est confondu avec le centre de gravité de système donc vG = 0. Par conséquent
l’énergie interne U est constante.
U  Ec  E p
En exprimant l’énergie cinétique en fonction de la quantité de mouvement : px  m v x
1 1 px 2
Ec  m vx2 
2 2 m
1 2
Et l’énergie potentielle : E p  kx
2
1 px 2 1
Donc, U   m x2
2 m 2
A un instant donné t, l’état du système est décrit par la coordonnée selon l’axe des x et la
quantité de mouvement selon cet axe px.

M(x,px)
px

x
Le point M se déplace dans l’espace de phase à deux dimensions.

b) Système à 3 degrés de liberté ( = 3)

C’est le cas d’un atome qui se déplace dans une boite de volume V. Dans ce cas le point M
appartient à un espace de phase à 6 dimensions. L’état est déterminé par la donnée des 3
coordonnées de l’espace et des 3 composantes de l’impulsion : M(x,y,z,px,py,pz).

c) Système à 3N degrés de liberté ( =3N)

C’est le cas d’un gaz de N molécules monoatomiques. L’état est représenté par le point M de
coordonnées dans l’espace de phase telles que :

 x1.....xN , y1..... yN , z1.....z N
M

 px1 ... pxN , p y1 ... p yN , pz1 ... pzN

M est le point représentatif de l’état microscopique du système et se déplace dans l’espace de


phase au cours du temps.

Les particules entrent sans cesse en collision et les valeurs de


la quantité de mouvement changent ( pxi , p yi , pzi varient)
De même la position des particules changent ( xi , yi , zi varient)
III. Densité de phase
1) Définition

On considère un système macroscopique avec f degrés de liberté. La position des points du


système dans l’espace sont décrit par  coordonnées spatiales : qi, i= 1… . L’état du système
à un instant donné est défini par les  coordonnées spatiales qi et les  composantes
d’impulsion correspondantes pi. Le point associé à l’état du système appartient à un espace de
phase à 2f dimensions. Chaque point de l’espace de phase correspond à un état microscopique
donné du système. Pour un système avec un degré de liberté élevé, le nombre d’interactions
est très élevé (collisions). Si on prend un petit volume dans l’espace de phase qp ( qipi
i=1,f) centré sur l’état microscopique M(q , p), le système passera plusieurs fois par cet
élément de volume pendant un intervalle de temps T suffisamment long. Soit t l’intervalle
de temps pendant lequel le système est dans l’état microscopique caractérisé par M(q , p). Si
l’intervalle de temps T devient élevé, la probabilité pour que le système soit dans l’état
microscopique correspondant qp de l’espace de phase est donnée par :
t
P  lim
T  T

A la limite, on considère un élément de volume dans l’espace de phase dqdp tel que :

dqdp =dq1dp1 dq2dp2... dqfdpf

La probabilité de trouver le système dans un état de coordonnée spatiale comprise entre q et q


+ dq et une impulsion comprise entre p et p+dp peut être exprimée par :

dP    q, p  dqdp
(p,q) est appelée densité de phase ou fonction de distribution. La probabilité dP doit
satisfaire la condition de normalisation ce qui donne :

   q, p  dqdp  1
L’intégration se fait sur tout l’espace de phase accessible.

Si on considère l’ensemble statistique de N systèmes, la probabilité dP est égale à la fraction


Ni/N ou Ni est le nombre de systèmes dont le point représentatif se retrouve dans l’élément de
volume dqdp. Donc, tous les points représentatifs de l’ensemble statistique seront distribués
dans l’espace de phase avec une distribution donné par la densité de phase (p,q).
Pour connaître l’état macroscopique du système il suffit de connaître la fonction de
distribution de la probabilité. Le calcul de la valeur moyenne des paramètres macroscopiques
se fait à travers cette fonction. Pour calculer la valeur moyenne d’un paramètre A(q,p), il faut
multiplier ce paramètre par la fonction de distribution et intégrer sur tous les états possibles
(sur tout l’espace de phase accessible) :

A   A  q, p   q, p  dqdp

La connaissance de la densité de phase à travers l’ensemble statistique, nous permet de


calculer la valeur moyenne de n’importe quel paramètre au lieu de suivre l’évolution du
système au cours du temps et de faire la moyenne sur le temps.
L’hypothèse ergodique :
t0 T
1
L’égalité entre la moyenne sur le temps du paramètre A : A 
T 
t0
A(t ) dt et sa moyenne sur

l’ensemble statistique A   A  q, p   q, p  dqdp est appelé hypothèse ergodique. Si on prend


le cas d’un système isolé en équilibre, la densité de phase est uniforme dans l’espace de phase
et dans ce cas tous les états microscopiques sont équiprobables. Pour que l’égalité postulée
par l’hypothèse ergodique soit vérifiée, il faudrait que la trajectoire temporelle de ce système
passe un même nombre de fois par chaque point de l’espace de phase.

2) Théorème de Liouville

On considère un volume w dans l’espace de phase et  une surface qui entoure ce volume.
La variation du nombre de points représentatifs des systèmes de l’ensemble statistique
pendant le temps dt est donné par :
 
    q, p  dqdp  dt
 t w 

Cette variation est due au flux de points qui entrent dans le volume w pendant le temps dt
moins celui des points qui sortent de ce volume. Pour un élément de surface d  , le flux à
travers cet élément de surface est égal au nombre de points situé dans le volume cylindrique
de l’espace de phase de longueur v dt et de base d  .

Ici, v est un vecteur à 2f dimension dont les composantes sont : q1 , q 2 ... q f , p1 , p 2 ... p f
Le bilan du flux entrant et du flux sortant est donné en intégrant ce flux sur toute la surface  :

 
     q, p  vd  dt
 
A l’aide du théorème de la divergence, l’intégral ci-dessus devient :

 
 
   div  v dqdp  dt
w 

Etant donné que l’ensemble statistique garde un nombre N constant de systèmes, on n’a pas
de source de systèmes à l’intérieur du volume w, donc :
 
  t  div   v   dqdp  0

w
Le volume w étant arbitraire l’intégral s’annule si l’intégrant s’annule, soit :

t
 div  v  0  
Remarque :

L’équation analogue pour un écoulement de fluide est l’équation de conservation de masse.

 
On explicite div  v ;
    
 
div  v  
i
  qi  
qi 

  pi 
 pi  
Soit,
   
   q  pi
 
div  v   
i  qi
qi  pi      i 
pi  i  qi pi


 

Or les équations du mouvement sont données en fonction du Hamiltonien H du système :

 H
 q 
pi
i


 p   H
 i qi
Le deuxième terme de l’expression de div  v est :  
 H H 
   q p   0
pi qi 
i  i i

Finalement, on a :

   H  H 
    0
t i  qi pi pi qi 

En introduisant le crochet de Poisson, on a :

d  
   , H   0
dt t
C’est le théorème de Liouville.
La densité de phase est constante le long de la trajectoire, ceci implique que les points
représentatifs de l’ensemble statistique se déplacent dans l’espace de phase de la même
manière qu’un fluide incompressible se déplace dans l’espace physique.

3) Signification de l’énergie
Une des conséquences du théorème de Liouville est que la densité de phase peut être
exprimée en fonction des intégrales premières du mouvement. De plus la probabilité est
multiplicative, on a :
log 12 = log 1 +log 2.
La probabilité d’un état d’un système composé de 2 sous systèmes est le produit des
probabilités des états des 2 sous systèmes.
Donc on peut exprimer la densité de phase comme une combinaison linéaire des intégrales
additives du mouvement qui sont l’énergie, la quantité de mouvement et le moment cinétique.
On peut toujours trouver un système de coordonnées tel que la quantité de mouvement et le
moment cinétique s’annulent. Dans ce cas on exprime la densité de phase en fonction de
l’énergie du système :
log  =  +  U

C’est l’énergie qui est le paramètre fondamental dans la détermination de la densité de phase
d’un système.

Equilibre thermodynamique :

Le système ne dépend pas explicitement du temps:  0 L’ensemble décrit par la densité
t
de phase (q,p) est stationnaire. Il est clair que pour un tel système, la moyenne de n’importe
quelle grandeur physique est indépendante du temps. Le système est alors en équilibre et le
crochet de Poisson s’annule :  , H   0

Remarque :
Une densité de phase qui ne dépend pas du point représentatif de l’état du système dans
l’espace de phase est uniforme ce qui revient à dire que tous les états sont équiprobables.

IV. Etats accessibles. Contraintes

A. Définition

Un système macroscopique est toujours soumis à des contraintes (Par exemple : le volume V
ou se trouvent les particules est limité, l’énergie U est constante …….). Ces contraintes
imposent un domaine de l’espace de phase où la densité de phase est non nulle. Un état
accessible est un état compatible avec ces contraintes. L’espace de phase accessible regroupe
donc tous les points représentatifs des états du système et qui respectent les contraintes
imposées.

Exemple : oscillateur harmonique

On suppose que les frottements sont négligeables, donc le système est isolé et son énergie
interne est constante (contrainte   est constante).

1 px2 1
  m  2 x 2  cte
2 m 2
Le point M décrivant l’état de l’oscillateur harmonique dans l’espace de phase à deux
dimensions M(x,px) se déplace uniquement sur une ellipse.

M(x,px)
px

B. Calcul du nombre d’états accessibles

 Cas f = 1 (particule virtuelle libre dans une boite monodimensionnelle : la


particule se déplace dans une seule direction)
0  x  L
Contraintes : 
 po  px  po

p0

px

x L
x

-p0

La région accessible de l’espace de phase est celle hachurée. Le nombre d’états accessible au
système est égal au nombre de points situés à l’intérieur de la zone hachurée. Mais, le principe
d’incertitude d’Heisenberg stipule qu’on ne peut pas connaître à la fois la position et la vitesse
d’une particule avec une précision infinie, soit xpx ≥  /2. Donc, la région accessible de
l’espace de phase doit être divisée en petites cellules de volume dans l’espace de phase égal à
la constante de Planck h. Chaque état microscopique du système est représenté non pas par un
point mais par une cellule de l’espace de phase: xpx = h.

p0
Cellule : xp x= h.
px

x L
x

-p0
Le nombre d’états accessible est égal alors au volume de phase accessible divisée par h.
Dans ce cas, si on note  le nombre d’états accessible, on a :

2 p0 L

h

 Cas f > 1 (un nombre N de particules)

Dans ce cas, l’espace de phase est un hyper volume à 2f dimensions. On a pour chaque paire
de coordonnées d’espace et d’impulsion : qipi = h ; i = 1, …. Par conséquent, le nombre
d’états accessibles est :

Hypervolume accessible

hf

Remarque :

En fait, la correspondance entre le nombre d’états microscopiques en mécanique classique et


celui déterminé par la mécanique quantique impose une correction en divisant par le facteur
de Gibbs N !. Si les particules sont indiscernables comme le cas des atomes d’un gaz parfait.
On remplace l’élément de volume de l’espace de phase par l’élément de volume corrigé
1 df p d fq
suivant : dw  .
N! hf
Chapitre 4 Distribution microcanonique

I. Distribution microcanonique

Un système isolé n’échangeant ni matière ni énergie avec l’extérieur tend vers un état
d’équilibre thermodynamique dont l’état macroscopique est décrit par quelques variables
d’état. Les contraintes imposées sur ce système qui peut être un solide un liquide ou un gaz
sont telles que : l’énergie interne U, le nombre de particules N et le volume du système V sont
constants. Même si l’énergie est fixée, le système parcourt tous les états microscopiques
permis dans le cadre de cette contrainte. Pour un état macroscopique, on a un nombre très
élevé d’états microscopiques. A l’équilibre, il n’y a aucune raison pour qu’un état
microscopique soit plus probable qu’un autre état microscopique. Tous les états
microscopiques sont équiprobables. C’est le postulat d’équiprobabilité de tous les états
microscopiques pour une distribution microcanonique.

Exemple :
Pour un dé dont les 6 faces sont identiques sur le plan mécanique, aucune des faces n’a une
probabilité plus élevée qu’une autre pour être réalisée lors d’un lancer. Donc la probabilité
d’avoir un numéro parmi les six est égale à 1/6.
L’énergie du système U est fixée mais ne peut être connue à mieux d’une valeur dU
près (Principe d’incertitude d’Heisenberg): U U ,U  dU 

En faisant intervenir la densité de phase, l’équiprobabilité implique que ce paramètre est


constant dans le domaine du volume de phase imposé par la contrainte de l’énergie
U U ,U  dU  .
Soit :
   q, p   const.
 H (q, p)  U ,U  dU 

   q, p   0
 ailleurs

D’autre part la condition de normalisation donne :

 dP 1
    q, p  dw  const  dw 1
U 

(U) est le nombre d’états accessibles pour l’énergie U.


Ceci nous donne, pour une distribution microcanonique, une densité de phase sans dimension
(du fait de la division de l’élément de volume de l’espace de phase par hf ) sous la forme :

 1
  H (q, p)  U ,U  dU 
 (U )
  0
 ailleurs
II. Calcul du nombre d’états microscopiques

1. Densité d’états

Hypothèses :
 dU petit à l’échelle macroscopique : dU  U
 dU grand à l’échelle microscopique : dU  U/

L’énergie U et le volume V imposés sont des contraintes pour déterminer le volume de phase
accessible.

Exemple : L’oscillateur harmonique ( = 1)

M(x,px)
px

L’espace de phase dans ce cas est la surface qui correspond au plan (x,px), et l’espace de
phase accessible imposé par la contrainte de l’énergie interne  fixée se réduit à l’ellipse
représentée sur la figure ci-dessus.
Le nombre d’états microscopiques accessibles au système :
Le nombre d’états microscopiques accessible correspondant à un état macroscopique donné
(défini par les contraintes :U, N et V) est proportionnel à l’intégral sur une surface dans
l’espace de phase correspondant à la contrainte H(q,p)=U. Cette intégral donne la densité
d’états microscopiques du système à l’énergie U et est donc égale à :

 (U )  
H ( q , p ) U
d

Et le nombre d’états microscopiques accessibles au système est :

 U    U  dU

On considère les volumes de l’espace de phase (U) et (U+dU) tels que :


 (U) correspond à l’intégral de l’élément de volume avec la contrainte: H(q,p) < U
 (U+dU) correspond à l’intégral avec la contrainte: H(q,p) < U+dU
Dans ce cas, le nombre d’états microscopiques accessibles au système dans l’intervalle
d’énergie U ,U  dU  est donné par :

d  U 
 U    U  dU    U   dU
dU
 U 
Et le nombre d’états accessibles au système à une énergie donnée U est :

 U    (U ) dU
d
avec  (U ) 
dU

2. Exemple

Particule libre dans une boite à une dimension :

|
0 x

Contraintes : 0≤x≤L
 = constante
2 m
px  2 m 

Le rectangle hachuré ci-contre correspond à


0
L x
2 2 m L
   
x
,
h
 2 m

La densité d’états dans ce cas est :

d 2 m L  12
     
d h
Et le nombre d’états microscopiques accessibles à la particule est :

1

2 m L 2
    d
h

Le nombre de particule N constituant un système macroscopique est très grand (N= Na)
On montre que pour un système macroscopique, le nombre d’états microscopique accessible à
une énergie donné U se met sous la forme:

f
U 
 U   C  
 f 

Avec :  est un nombre de l’ordre de l’unité


III. Evolution d’un système isolé

On considère un gaz parfait de N molécules dans un volume initial Vi.


Le nombre initial d’états accessible au système est :
volume accessible 1
i 
h3 N N!
x x x
xxx x
x xx x x  ...   ...p dq1...dq3 N dp1...dp3 N
i 
q1 q3 N p1
xx x 3N

xxx xx h3 N N !
x x x
xx xx
x x x x p ...p dp1...dp3 N
Vi i   ...  dq1...dq3 N 1 3 N 3 N
q1 q3 N
h N!
C
Vi N
Soit : i  CVi N

Si le gaz est à l’équilibre, tous les états sont équiprobables et la probabilité d’un état est :

1
Pr 
i
A t = 0, on retire la cloison qui sépare le volume de droite de celui de gauche.

 f  CV fN
N
 Vf 
 f  i  
 Vi 
Vf

Le relâchement de la contrainte a augmenté le nombre d’états accessibles.


1
A t = 0 la probabilité d’avoir la partie droite pleine est et celle de l’avoir vide est nulle
i
donc tous les états microscopiques ne sont pas équiprobables. Le système n’est pas en
équilibre. Il évolue vers l’équilibre tel que tous ses états microscopiques soient équiprobables.

Après un intervalle de temps t le système atteint l’équilibre et la probabilité d’avoir la partie


1
droite pleine est :
f
x x x x
x
x x x
x x
x
x xx x x x
x
Cherchons la probabilité pour retrouver la situation initiale :
V
Si f  2 ,
Vi

x x x x x x x
x x
x x x x x
x x x x
x x
x xx x x x x x xx
x
N
C N2 configurations 1 configuration

La probabilité d’avoir la situation initiale est égale au rapport du nombre d’états accessible
lorsque la moitié droite est pleine et l’autre est vide i sur le nombre d’états accessibles
 1
lorsque chaque molécule peut occuper la totalité du volume finale f : P  i  Na  0
f 2
Donc, l’évolution du système lorsque l’on enlève la paroi est irréversible.

Remarque :
Si la paroi est au bord de la boite alors Vi=Vf  i=f le processus est réversible.

IV. Entropie statistique

Considérons un système isolé constitué de deux sous systèmes (S1) et (S2) avec les variables
d’état respectivement (U1, N1 et V1) et (U2, N2 et V2). Ces deux systèmes échangent de
l’énergie, de la matière et du volume.

U1 U2
N1 N2
V1 V2

(S1) (S2)

On a, pour le système(S) = (S1) + (S2) une énergie U constante, un nombre de particule N


constant et un volume total V constant.

U = U1+U2 = const.  dU = 0  dU1 = -dU2


N = N1+N2 = const.  dN = 0  dN1 = -dN2
V = V1+V2 = const.  dV = 0  dV1 = -dV2

Après un certain temps, l’équilibre est atteint et les valeurs Ui,Ni et Vi ; i =1,2 atteignent leurs
valeurs moyennes. Le nombre d’états microscopique du système global est égal au produit des
nombres des états microscopiques des deux sous systèmes (les deux sous systèmes sont
indépendants à l’équilibre).
 U  1 U1  2 U 2 
On sait que pour un système isolé en équilibre le nombre d’états microscopiques est
maximal :  max  d   0 .
Ceci nous permet d’écrire :

1d 2  2 d 1  0

Soit encore :

d ln  1   d ln  2   0

On peut réécrire la condition d’équilibre sous la forme :

d ln     0 soit ln      ln    max

En thermodynamique, la fonction S qui est l’entropie est maximale lorsque le système est en
équilibre et l’entropie du système (S) est égale à la somme des entropies de chacun des deux
sous systèmes. Ceci implique que les deux grandeurs suivantes : l’entropie et le logarithme su
nombre d’états microscopiques accessible à un système sont proportionnelles l’une par
rapport à l’autre. Ceci donne la relation de Boltzmann :

S = k ln   

Considérons une grandeur A, sa moyenne est donnée par :

 A    A  q, p    q, p  dw

En appliquant cette définition à l’entropie, on a :

S   k ln      q, p  dw

1
On a vu que pour la distribution microcanonique  est donnée par :  

En remplaçant dans l’expression de l’entropie on a :

S  k  ln     dw  k ln    

Considérons le lancer d’un dé :


 Le dé n’est pas truqué et toutes les faces sont équiprobables. Le lancer de ce dé
donnera un nombre égal de fois à tous les numéros de sortir.
 Le dé est truqué et on a par exemple :P1 = P2 = P3 = P4 = P5 = 1/10 et P6 = 5/10. Dans
ce cas on a la face N° 6 qui sortira 5 fois plus que les autres. En résumé nous avons
plus d’information que le résultat du lancer dans ce cas par rapport à la situation
précédente.
 Le dé est truqué de manière à avoir : P1 = P2 = P3 = P4 = P5 = 0 et P6 = 1. Dans ce cas
nous avons une information maximale puisque le lancer donnera la face N° 6.
Quand toutes les possibilités sont équiprobables, on a l’incertitude la plus élevée pour le
résultat d’une expérience. Tandis que dans les autres situations, on a une incertitude moins
élevée. Ceci pose la question sur la manière de quantifier cette incertitude.
Une fonction S(P1, P2, …Pn) qui quantifie cette incertitude peut être définie de telle manière
qu’elle vérifie les propriétés suivantes:
(1) S(P1, P2, …Pn) = 0 si P1 = P2 = …Pi-1 = Pi+1 = ...Pn = 0 et Pi = 1(un événement est
certain).
(2) S(P1, P2, …Pn) est maximale si Pi est constante.
(3) S(AB) = S(A) + S(B) si A et B sont indépendants. Si par exemple l’incertitude sur
l’événement A est nulle, l’incertitude sur l’événement A et B ne doit pas être
supérieure à l’incertitude qui reste sur B (comme dans le cas de la probabilité :
P(AB) = P(A)P(B)).
(4) La permutation de deux événements ne devrait pas changer cette fonction :
S(P1, P2, …Pi...Pk...Pn) = S(P1, P2, …Pk...Pi...Pn).

On montre qu’une telle fonction est donnée par l’expression :

S  P1 , P2 ,...Pn    k  Pi ln  Pi 
i
Chapitre 5 . Distribution canonique

I. Définition d’un réservoir

Un système (B) constitue un réservoir pour un système (A) pour une grandeur
thermodynamique extensive Y (chaleur, nombre de particules, volume…) si (B) peut échanger
des quantités quelconques de Y sans modifier ses propriétés.
On a dans ce cas : fB  fA

Exemple :

 Réservoir de volume
(B)

Piston mobile
(A)

Le volume de (A) peut varier et donc (A) peut échanger du volume avec (B) sans modifier le
volume de (B) (modification négligeable).

 Réservoir de chaleur

(B) : gaz à la (A) : Une molécule


température : T

(B) est un réservoir de chaleur pour la molécule (A).


(B) est un thermostat
 QB    QA  dU A
dU B  QB  QA dU A f A
(U   f k T )
UB UB UB UB fB
dU B
1
UB

II. Distribution canonique

(B)
(C) = (A)+(B) est isolé, UC = UA+UB = const.
TB (A) UA  const.
fB  fA
On note pi la probabilité pour (A) d’être dans un état microscopique i d’énergie Ui.
Dans ce cas, l’énergie de (B) est: UB = UC - Ui.
Soit B(UC - Ui) : le nombre d’états accessible à (B) dont l’énergie est UB =UC -Ui.
Soit C(UC) : le nombre d’états accessible à (C).

 B U C  U i 
pi 
C U C 

On a : Ui  UC 
d  log   B U C  U i      log   U  Ui   Ui
2 2
d
log   B U C  U i    log   B U C     Ui  B C
 2 ...
U 
2
dU B U C
dU B
B

On sait que :

d log   B U C  U i   

 
1 dS B

1

dU B  k dU B kT
U B UC

On néglige le 3ème terme par rapport au 2ème car :



d log   B U C  U i    U 
 U i  i et U B   f B k T
dU i  kT
Ui 0
f BU i
2ème terme 
UB

 1 
1d
2
 log   B U C  U i     U 2
 U i2  i 
d 
kT 
et U B   f B k T
2 dU i2  2 dU B
Ui 0
1 f BU i2

2 U B2
f BU i2
3ème
terme 
U B2

3ème terme U i f
ème
  A 1
2 terme U B f B

 B U C 
Ui

On a finalement : pi  e kT
C U C 
1  U 
On a :   et on pose B C  const.  C
kT C U C 
Finalement, la probabilité pi s’écrit :

 U
pi  C e i

Distribution canonique de Boltzmann

***************************************************************************
On peut obtenir la distribution de Boltzmann d’une autre méthode en partant du postulat
suivant : La distribution de probabilité d’équilibre est celle qui correspond au maximum de
l’entropie.
Ce postulat nous permet de chercher la distribution de probabilité d’un système quelconque à
condition de tenir compte des contraintes imposées à ce système.

Pour une distribution canonique, les deux conditions suivantes doivent être respectées :
 L’énergie moyenne du système U est donnée par : U  U i pi
i

 Condition de normalisation : p i
i 1

Pour trouver cette distribution on utilise la méthode des multiplicateurs de Lagrange telle
que :
On pose f ( pi )  U i pi U et g ( pi )   pi 1
i i
Et le maximum de la fonction entropie avec les contraintes est donnée par le maximum de la
fonction : h( pi )  S ( pi )  bf ( pi )  ag ( pi ) sans les contraintes et en considérant que les
probabilités pi sont indépendants. On dérive la fonction h(pi) par rapport à pi :
dS ( pi )  bdf ( pi )  adg ( pi )  0
 k  dp ln p 1)  bU dp  adp   0
i
i i i i i  dpi

  k ln pi  k  bU i  a  0
 bU i
 pi  C e k
Pour déterminer le multiplicateur de Lagrange b on a :
S      i 
bU
1
  
U V T U  i
   i
 k p ln Ce k
 
 
   
     
  k ln C  pi    b  U i pi 
U  i  U  i 
 1   U 
0 b
Finalement on obtient:
1
b
T
Et on aboutit à la distribution canonique : pi  C e  Ui
***************************************************************************
III. Fonction de partition

Pour déterminer la constante C de la distribution canonique, on applique la condition de


normalisation :
1
 pi 1 C    U
i ei
i

Z est la fonction de partition de la distribution canonique définie par :

  Ui
Z  e
i
Ou, si le niveau d’énergie Ui est dégénéré de degré de dégénérescence gi :
  Ui
Z   gi e
i
Ce qui donne l’expression finale de la distribution canonique :
e  Ui
pi 
Z

Par analogie, si on étudie le système dans le cadre de la mécanique classique, la densité de


phase se met sous la forme :

e  H ( q , p )
 ( q, p ) 
Z
Avec Z définie par :
dfq df p 1
Z   e  H ( q , p )
hf N!
Ici, la correction par le facteur de Gibbs est introduite uniquement si les particules sont
indiscernables comme dans le cas du gaz parfait.

Valeurs moyennes des grandeurs physiques caractéristiques du système :

 Energie interne :
1   Ui 1 Z  log Z
U  U i pi  U i e  
i Z i Z  
 Energie libre de Helmotz
F   k T log Z
 Entropie
k   Ui
S   k  pi log pi      U i e  k log Z
i Z i

 log Z
k   k log Z

U F

T
 F  U  TS
 Forces généralisées W  Xdx (X est la force généralisée conjuguée de la variable
d’état x (exemple : (X,x) = travail de pression(-P,V) , travail de tension du fil(F,l),
travail électrique (V,Q) et travail magnétique(M,B)…
U 
 W  X dx  dU  X  
x Q
On suppose que la transformation est quasi statique réversible et isotherme, dans ce
cas la loi de probabilité reste la même mais c’est les niveaux d’énergie qui changent en
fonction de la variable d’état x.

U i
On a : dU   pi dU i   pi dx
i i x

 x  e U 
U i 1  U U i 1 
X   pi  e i  i

i x Z i x Z i

1 
Ce qui donne : X    log Z 
 x
F
X
x

Vous aimerez peut-être aussi