Vous êtes sur la page 1sur 116

Chap.

1 : Probabilités et Statistiques
Chap. 2 : Description statistique des systèmes de particules
Chap. 3 : Les ensembles de Gibbs

Introduction à la physique statistique

A. Lachgar

Faculté Polydisciplinaire de Larache


SMP S5: 2018/2019

1/116 A. Lachgar Introduction à la physique statistique


Chap. 1 : Probabilités et Statistiques
Chap. 2 : Description statistique des systèmes de particules
Chap. 3 : Les ensembles de Gibbs

Plan de présentation

1 Chap. 1 : Probabilités et Statistiques

2 Chap. 2 : Description statistique des systèmes de particules

3 Chap. 3 : Les ensembles de Gibbs

2/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Chap. 1 : Probabilités et Statistiques

3/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Repères historiques

On peut dire que la physique statistique est née au milieu du 19ème


siècle de l’hypothèse atomique et de la volonté d’expliquer les «
mystérieuses » lois de la thermodynamique. Parmi les physiciens
du 19ème siècle, très peu d’entre-eux croient en cette hypothèse
(contrairement aux chimistes). Clausius, Maxwell et Boltzmann font
partie des rares physiciens acquis à cette cause.

4/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Repères historiques

Voici quelques repères historiques :


1738 : Daniel Bernoulli (France) publie Hydrodynamica, ou-
vrage de mécanique des fluides dans lequel il explique l’origine
de la pression des fluides à l’aide d’un modèle atomique.
1859 : J-C Maxwell (Ecosse) découvre la loi de distribution des
vitesses d’un gaz.
1866 : Ludwig Boltzmann (Autriche) obtient sa thèse portant
sur la théorie cinétique des gaz
1905 : Travaux d’Einstein (Suisse, Prix Nobel 1921) autour du
mouvement brownien et de son origine atomique.

5/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Le but de la physique statistique

La physique statistique est un des piliers de la physique moderne


avec la mécanique quantique et la relativité. Son propos consiste à:

Expliquer le comportement macroscopique à partir des pro-


priétés microscopiques. Nous verrons que la mécanique quan-
tique se manifeste à notre échelle macroscopique de façon frap-
pante par le biais de la physique statistique.
Atteindre les concepts d’entropie, de température, de pression,
de potentiel chimique etc. par une approche statistique.

6/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Le but de la physique statistique

Donner un sens physique aux mystérieux principes de la ther-


modynamique.
Faire des prévisions quantitatives. Contrairement à la thermo-
dynamique (sans tables de valeurs expérimentales, la thermo-
dynamique a un pouvoir prédictif essentiellement qualitatif), la
physique statistique a un grand pouvoir prédictif.

7/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Les “applications” de la physique statistique

La physique statistique est importante pour comprendre plusieurs


phénomènes qui se produisent dans chaque domaine en particulier :
Les plasmas, la physique du solide, l’hydrodynamique, l’astrophysique,
etc. sont des exemples de domaines basés sur la physique statistique.
En plus, on rencontre en électronique des applications de la physique
statistique, par exemple, pour comprendre la distribution en énergie
des électrons dans un semi-conducteur, il faut connaître la physique
statistique.

8/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Les “applications” de la physique statistique

Vous rencontrerez aussi la constante kB dans la courbe courant-


voltage d’une diode. On peut donc dire qu’on ne peut rien compren-
dre aux phénomènes physiques à la base de l’ensemble de l’électronique
moderne, sans la physique statistique. Même en particules élémen-
taires, des analogies formelles entre la physique statistique et la
théorie des champs permettent un échange continuel entre ces dis-
ciplines : problème à N-corps, groupe de renormalisation, transition
de phase, etc. Les méthodes de la physique statistique sont aussi
aujourd’hui utilisées dans d’autres domaines comme, par exemple,
l’étude des réseaux de neurones, les réseaux de trafics, ou même la
finance.

9/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Notion de probabilité

On lance un dé (6 faces)N fois, si tout est parfait on devrait obtenir


N N N
fois la valeur 1, fois la valeur 2, fois la valeur 3, . . . jusqu’à
6 6 6
6, en pratique ceci se passe lorsque N est infini. Soit une expérience
dont le résultat fait partie d’un ensemble fini de q événements possi-
bles (lancement du dé). Si cette expérience est répétée N fois, et si
nm est le nombre de fois où on observe le résultat m, la probabilité
d’apparition du résultat m est donnée par :
nm
pm = lim
N→∞ N
Pq
avec 0 ≤ pm ≤ 1 et m=1 pm =1

10/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Notion de probabilité

Dans les calculs de probabilité, on utilise souvent les 2 lois suivantes:

Loi d’addition : si le résultat d’une expérience est peut être i


ou j, alors la probabilité d’observer (i ou j) est :

p(i ou j) = p(i) + p(j) − p(i et j)

Si les deux événements i et j sont indépendants


statistiquement on a alors p(i et j) = 0.
Loi de multiplication : la probabilité d’observer i et j est :

p(i et j) = p(i) × p(j)

11/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Valeur moyenne

Soit u une variable qui peut prendre m valeurs discrètes u1 , u2 ,. . . ,


um avec les probabilités respectives p(u1 ), p(u2 ), . . . , p(um ), la valeur
moyenne de u est définit par :
Pm
p(ui )ui
< u >= ū = Pi=1
m
i=1 p(ui )
Pm
p doit satisfaire la condition de normalisation i=1 p(ui ) = 1.

12/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Variance et écart type


La valeur quadratique moyenne de u est donnée par :
m
X
< u 2 >= u 2 = p(ui )ui2
i=1
La variance ou écart quadratique moyen est :
V (u) = (∆u)2 = (u − ū)2 = u 2 − 2uū + ū 2 = u 2 −2ū 2 +ū 2 = u 2 −ū 2
q
L’écart type est par définition : σ = ∆u = (u 2 − ū 2 )
L’écart type indique comment, en moyenne, les valeurs de la variable
sont groupées autour de la tendance centrale. Une série statistique
dont l’écart type est faible est une série où les valeurs sont peu
dispersées on peut dire que la série statistique est alors homogène.
Inversement, un écart type important est représentatif d’une série
très dispersée.
13/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Dénombrement

Un arrangement à q éléments d’un ensemble à n éléments est une


sélection de q éléments parmi les n, dans un ordre déterminé (on
parle également de permutation de q éléments parmi n). Comme il
y a n façons de choisir le premier élément de la sélection, puis n − 1
de choisir le 2ème , . . . etc., le nombre d’arrangements Aqn vérifie :
n!
Aqn = n(n − 1) . . . (n − (q − 1)) ≡
(n − q)!

On notera en particulier que le nombre de permutations de n objets


(parmi n) vaut n! (par convention 0! = 1).

14/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Dénombrement

Une combinaison à q éléments d’un ensemble à n éléments est une


sélection de q éléments parmi les n, sans ordre déterminé. Comme
le nombre de permutations de q objets est q!, le nombre de combi-
naisons, noté qn ou Cnq vérifie :


Aqn n!
Cnq ≡ = .
q! q!(n − q)!

Par exemple, il y a C32 = 3 combinaisons des lettres a, b et c prises


2 à 2 (ab, ac, bc), mais A23 = 6 arrangements (ab, ba, ac, ca, bc,
cb).

15/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Définition

Décrite pour la première fois par Isaac Newton en 1676 et démontrée


pour la première fois par le mathématicien suisse Jacob Bernoulli en
1713, la loi binomiale est l’une des distributions de probabilité les
plus fréquemment rencontrées en statistique appliquée.

16/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

épreuve de Bernoulli et loi binomiale

Loi Bernoulli:
Une loi de Bernoulli est une loi de probabilité qui suit le schéma
suivant:
la probabilité d’obtenir un succès est égale à p
la probabilité d’obtenir un échec est égale à 1 − p
p est appelé le paramètre de la loi de Bernoulli.
Exemples:
1) Le jeu du pile ou face : On considère par exemple comme succès
’obtenir pile’ et comme échec ’obtenir face’.
2) On lance un dé et on considère par exemple comme succès ’obtenir
un six’ et comme échec ’ne pas obtenir un six’.

17/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

épreuve de Bernoulli et loi binomiale


Loi Binomiale:
Soit n répétitions indépendantes d’une expérience de Bernoulli et soit
X la variable donnant le nombre de succès m parmi les n répétitions.
X suit une loi binomiale noté B(n, p),

pX (m) = Cnm p m (1 − p)n−m

Remarque : L’adjectif binomial vient du fait que lorsqu’on somme


toutes ces probabilités, on retrouve le développement du binôme de
Newton,
n
X
Cnm p m (1 − p)n−m = (P + (1 − P))n = 1
m=0

18/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Énonce du théorème

On suppose que l’on ajoute un grand nombre de variables aléa-


toires indépendantes X1 , X2 , . . . , XN ayant la même loi de probabil-
ité. (Par exemple, on ajoute les résultats d’un dé). On note m et
σ 2 l’espérance et la variance d’une de ces variables. On sait que la
somme Y de toutes ces variables a une moyenne Nm et √ une variance
Nσ 2 , ce qui signifie que, typiquement, Y vaut Nm à σ N près.
Théorème de la limite centrale
Le théorème central limite dit que, dans la limite où N est grand et
√ "probables" de Y (c’est-à-dire tels que Y − Nm
pour les valeurs
est d’ordre σ N), la densité de probabilité de Y est donnée par
une gaussienne.

19/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Exemple
Prenons un exemple important. On considère un gaz de N particules
dans une boîte de volume V . On considère une région de volume v
à l’intérieur de la boîte. Combien y a-t-il de particules du gaz dans
cette région ?
On pose p = Vv . Chaque particule a une probabilité p d’être dans
la région v , et 1 − p d’être en dehors de cette région. On pose xk
la variable aléatoire qui vaut 1 si la k ème particule est dans la région
v et 0 sinon. On a xk = p et Var (xk ) = p(1 − p). D’autre part,
Y = x1 + . . . + xN , et les variables xk sont indépendantes les unes
des autres (c’est vrai, par définition, pour un gaz parfait, et c’est
une très bonne approximation pour un gaz réel qui n’est pas trop
froid). On a donc Y = Np et Var (Y ) = Np(1 − p). L’espérance
redonne donc bien le résultat intuitif,
p mais on a appris en plus que
les fluctuations de Y sont d’ordre Np(1 − p).
20/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Exemple

Si N = 1020 , on voit que les fluctuations sont 1010 fois plus petites
que l’espérance ou, autrement dit, que la différence typique entre la
valeur fluctuante de Y et l’espérance Y apparaît au dixième chiffre.
Enfin, on a pu écrire Y comme une somme de beaucoup de variables
aléatoires indépendantes, le théorème central limite nous donne donc
que la loi de distribution de Y pour les valeurs probables de Y est
donnée par :
1 (Y −Nm)2
ρ(Y ) = √ e − 2σ2
2πσ

21/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Exemple

Le théorème de la limite centrale montre que la distribution de Gauss


est omniprésente dans la nature. Si un processus (phénomène) aléa-
toire est le résultat de la somme d’un grand nombre de processus
microscopiques alors cette somme va être distribuer selon la courbe
de Gauss indépendamment de la nature de la distribution des pro-
cessus microscopiques.

22/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale

Remarque: Une variable qui suit une loi binomiale B(n, p) peut tou-
jours être considérée comme une somme de n variables de Bernoulli
indépendantes de même paramètre p. Les hypothèses du théorème
centrale limite étant vérifiées, on peut affirmer que, lorsque n tend
vers l’infini, la loi binomiale B(n, p) tend vers une loi gaussienne.

23/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Chap. 2 : Description statistique des systèmes de


particules

24/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Définition: Micro-états et Macro-états

Il est nécessaire de distinguer les états microscopiques (dits micro-


états) et les états macroscopiques (dits macro-états).
Un micro-état est la donnée de grandeurs physiques, fournies par
la mécanique classique ou quantique et définies à l’échelle micro-
scopique (position, vitesse,. . .). Un macro-état est la donnée de
grandeurs physiques macroscopiques, qui suffisent à caractériser com-
plètement le système étudié à l’échelle macroscopique (température,
pression,. . .).
Remarque: Il existe souvent plusieurs manières (configurations) de
représenter le même macro-état du système.

25/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Exemples: Micro-états et Macro-états

Soit un système isolé, ie, pas d’échange d’énergie et de matière avec


l’extérieur, formé de N particules identiques mais discernables (on
peut les distinguer, N = {n1 , n2 , . . . , nN }), on divise le système en
deux compartiments A1 et A2 et on permet l’échange des particules
entre les deux.

26/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Exemples: Micro-états et Macro-états

N = 1, N = {n1 }
soit la particule se trouve dans le compartiment A1 ou A2 ,

A1 A2 A1 A2

n1 n1

−→ 2 micro-état et 2 macro-état

27/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Exemples: Micro-états et Macro-états

N = 2, N = {n1 , n2 }
1)n1 et n2 se trouvent tous les deux dans le compartiment A1
ou A2 ,
2)n1 et n2 chacun se trouve dans un compartiment

A1 A2 A1 A2
n1 n2 n1 n2

A1 A2 A1 A2
n1 n2 n2 n1

−→ 4 micro-état et 3 macro-état
28/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Exemples: Micro-états et Macro-états

Si N = 3, on aura 4 macro-état et 8 configurations (micro-état),


chaque configuration (complexion) est un micro-état. En général,
le nombre de manières Ω (micro-états) de placer N1 particules dans
le compartiment 1 est :

N! N!
ΩN1 = CNN1 = =
N1 !(N − N1 !) N1 !(N2 !)
ΩN1 = ΩN2
Le nombre total de micro-états ou de configurations est :

ΩN = 2 × 2 × 2 . . . × 2 = 2N

29/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Exemples: Micro-états et Macro-états

Car chaque particule a 2 possibilités :être dans le compartiment 1


N1
ou être dans le compartiment 2. On retrouve N N
P
N1 =0 CN = 2 .
1
La probabilité d’être dans un micro-état est 2N , d’où la probabilité
pour que le système soit dans un macro-état donné caractérisé par
N1 particules dans le compartiment 1 est
ΩN1
p(N1 ) =
2N

30/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Postulat fondamental de la Physique Statistique:


Tous les micro-états discernables et accessibles d’un système isolé
sont équiprobables.

À partir de ce postulat on peut construire toute la physique statis-


tique.

31/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Un système est en équilibre thermodynamique lorsque les grandeurs


physiques caractérisant son macro-état (P, V , T , E , . . .) sont in-
dépendantes du temps.
Quel est l’état le plus probable à l’équilibre ?
Dans l’exemple des 2 compartiments, l’équilibre doit correspondre à
N1 = N2 = N2 .
En outre ΩN1 = N1N! N
!N2 ! est maximale si N1 = N2 = 2 .

Or la probabilité d’un macro-état est p(N1 ) = NN1 , alors p(N1 ) est
maximale lorsque ΩN1 est maximale.
→ L’état le plus probable d’un système isolé est l’état d’équilibre.
Postulat de l’équilibre thermodynamique:
L’état d’équilibre est l’état qui correspond au plus grand nombre de
configurations (micro-états), L’état d’équilibre d’un système isolé
est donc l’état le plus probable.

32/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Entropie statistique
Le nombre de micro-états d’un système macroscopique est gigan-
tesque car le nombre de constituants est N ' 6.02 × 1023 .
23
Pour les deux compartiments Ω = 2N = 26.02×10 . On utilise le
logarithme de Ω qui varie très lentement et qui ne change pas le
sens de variation de Ω. La quantité :

S = kB log(Ω),

est appelée entropie statistique, kB est la constante de Boltzmann. S


est définie pour un système en équilibre, elle représente la définition
microscopique de l’entropie thermodynamique définie par S = dQ T .

Postulat de l’équilibre est alors :


L’état d’équilibre est l’état qui correspond à l’entropie maximale.

33/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Entropie de Shanon : théorie de l’information

On possède N boites et une balle que nous mettons dans une des
boites. On envisage deux situations :
Toutes les boites sont équiprobables −→ La probabilité de trou-
ver une balle dans une boite est N1 .
On marque la boite où se trouve la balle −→ on la trouve
sûrement.
Dans la 1ère situation on a un manque d’information.
Dans la 2ère situation on a plus d’information.

34/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Entropie de Shanon : théorie de l’information


On introduit la quantité I pour mesurer ce manque d’information.
I est en fonction de N.
Si le nombre de boites augmente, l’information sur le système
va diminuer −→ I(M) > I(N) si M > N.
S’il y a une seule boite, le résultat est sûr, et il n’y a pas de
manque d’information −→ I(1) = 0
Supposons que chaque boite est divisé en M compartiments équiprob-
ables, on peut procéder de deux façons différentes :
Il y a NM compartiments équiprobables, l’information man-
quante est I(NM).
On peut procéder en deux étapes : trouver la boite, puis le com-
partiment dans celle-ci. L’information manquante vaut I(N)
dans le 1ère étape et I(M) dans le 2ème étape
35/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Entropie de Shanon : théorie de l’information

L’information est additive, car elle est connue petit à petit. De


même pour le manque d’information −→ I(NM) = I(N) + I(M).
Les propriétés précédentes conduisent à définir l’information man-
quante comme :
I = C log(N)
Où C est une constante positive.
Cette définition est similaire à celle de l’entropie statistique, N dans
ce cas est le nombre de micro-états du système.
−→ On choisit C = kB (constante de Boltzmann) et on appelle
l’information manquante : entropie d’information.

36/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Densité de probabilité

L’état macroscopique d’un système en équilibre thermodynamique


peut être décrit par un certain nombre de variables. Par contre
à l’échelle microscopique, l’état d’un tel système n’est pas connu
exactement. Le nombre de degré de liberté d’un système macro-
scopique est si grand qu’il est impossible d’en avoir une description
complète au niveau microscopique, ce qui n’est pas d’ailleurs néces-
saire.
On est alors obligé à considérer les variables macroscopiques décrivant
l’état macroscopique du système comme des moyennes statistiques
des quantités dynamiques microscopiques correspondantes.
Ces moyennes statistiques se calculent à l’aide de l’opérateur densité
dans le cas quantique et de son équivalent dans le cas classique
appelé densité de probabilité ou fonction de distribution.

37/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Densité de probabilité
Soit un système formé de N particules, dont les positions et les
vitesses sont (qi , pi ). On appelle espace de phases, l’espace à 6N
dimensions permettant de représenter par 1 point l’état du système à
l’instant t. Ce point se déplace au cours du temps selon les équations
d’Hamilton :
∂H ∂H
qi0 = et pi0 = −
∂pi ∂qi
H est l’hamiltonien du système.
Pour décrire l’état du système, on introduit la densité de probabil-
ité ρ(p, q) définit de la façon suivante : la probabilité pour que le
point représentatif de l’état microscopique d’un système se trouve à
l’instant t dans un élément de volume (dq1 dq2 . . . dq3N dp1 dp2 . . . dp3N )
centré au point (q1 q2 . . . q3N p1 p2 . . . p3N ) est:
ρ(q1 q2 . . . q3N p1 p2 . . . p3N )(dq1 dq2 . . . dq3N dp1 dp2 . . . dp3N )
38/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Densité de probabilité

qu’on écrit de manière abrégée ρ(q, p)dpdq


Si ρ est connue, on peut calculer la moyenne d’une variable dy-
namique A(p, q) comme
R
A(q, p)ρ(q, p)dpdq
hAi = R
ρ(q, p)dpdq

39/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Hypothèse ergodique
Pour calculer la valeur moyenne d’une grandeur physique X associée
au système (N1 dans l’exemple des 2 compartiments), on calcule X
pendant un temps t, on définit la valeur moyenne de X
Z t
hX i = lim X (t)dt
t→∞ 0

t doit être suffisamment long pour que le système puisse visiter tous
les micro-états accessibles.
Le calcul de est difficile surtout si on ne connaît pas le temps de
relaxation.
Boltzmann et Gibbs ont résolu cette difficulté de la façon suivante :
au lieu de prendre les moyennes temporelles sur un système donné,
on imagine un grand nombre de systèmes identiques, la moyenne
au même instant est prise sur l’ensemble des systèmes, on introduit
alors la moyenne d’ensemble.
40/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Hypothèse ergodique

Si X est la grandeur à mesurer, alors la valeur moyenne de X est :


M
1 X
hX i = Mi Xi
M i

où M est le nombre de systèmes dans l’ensemble et Mi le nombre


de ceux qui sont à un instant donné dans l’état microscopique i.
Xi est la valeur de X dans l’état i.
Si M −→ ∞, pi = M M ⇒ hX i =
P
i pi Xi .
i

Où pi est la probabilité pour que si on choisit un système au hasard


de l’ensemble, ce système se trouve dans l’état microscopique i.

41/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Hypothèse ergodique

Hypothèse ergodique :
Moyenne d’ensemble ≡ Moyenne temporelle sur un seul système.
Z t X
lim X (t)dt ≡ pi Xi
t→∞ 0
i

42/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Grandeurs intensives et extensives


Parmi les variables macroscopiques introduites précédemment, cer-
taines sont dites extensives, d’autres intensives. Pour les définir,
on peut faire l’expérience de pensée suivante : on double le système
étudié, de façon à ce qu’il garde les mêmes propriétés physiques, les
quantités extensives sont doublées lors de l’expérience, les quantités
intensives sont celles qui sont conservées, autrement dit:
Si on prend un système S et on lui enlève un volume V ,
certains paramètres du nouveau système S1 sont
proportionnelles à V comme le volume, la masse, le nombre
de particules, l’entropie, l’énergie, . . ., ce sont des grandeurs
extensives.
D’autres paramètres gardent la valeur qu’ils avaient pour le
système initial et sont donc indépendants de V : ce sont des
grandeurs intensives comme la pression, la température, etc.
43/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Nombres d’états accessibles


On considère un système macroscopique avec des paramètres ex-
térieurs donnés, et une énergie E . Pour compter les états, on les
regroupe par énergie en divisant l’échelle d’énergies en petits inter-
valles δE .
δE  E mais δE est grand à l’échelle microscopique, ie, δE  Ei
(énergie d’une seule particule).
On note Ω(E ) ≡ le nombre d’états d’énergies comprises entre E et
E + δE .
Ω(E ) dépend de la largeur de δE ⇒ Ω(E ) = ρ(E )δ(E ), ρ(E ) est la
densité d’états (car nombre d’états/unité d’énergie) qui est indépen-
dante de δE . On peut obtenir Ω(E ) également à partir du nombre
d’états dont l’énergie < E , qu’on notera φ(E ).

Ω(E ) = φ(E + δE ) − φ(E ) = δE
dE
44/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique
Quel est le nombre d’états Ω(E ) d’un système de particules clas-
siques ?
Pour compter les états, on divise l’espace de phases en petits vol-
umes (cellules).
La M.Q. ⇒ δpδq > h, donc le volume minimal permis est h en
dimension 1 (voir figure) , en dimension 3 c’est h3 .

45/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique
Pour un gaz parfait, l’énergie du système est la somme des énergies
cinétiques de toutes les particules, on néglige l’énergie potentielle
1 PN 2
d’interactions E = 2m i=1 pi .
Le nombre d’états dont l’énergie < E est:
1
Z Z Z Z Z Z
φ(E ) = ... dq1 dq2 . . . dqN p2 dp1 dp2 . . . dpN
h3N
P i <E
V 2m

h3N est le volume d’une cellule dans l’espace de phase.


P pi2
L’intégrale est restreinte au domaine 2m < E

VN
Z Z Z
φ(E ) = p2 dp1 dp2 . . . dpN
h3N
P i <E
2m

46/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique
L’intégrale sur les impulsions revient à calculer
√ le volume d’une
sphère de dimension 3N et de rayon R = 2mE . Notre problème
se ramène donc à calculer le volume d’une sphère de rayon R dans
un espace à 3N dimensions. Dans l’espace ordinaire à 3 dimensions,
nous connaissons le résultat, c’est 34 πR 3 . De façon générale pour
un volume de dimension n le volume peut être écrire comme: Cn R n ,
n
avec Cn = πn 2! .
2
⇒ L’intégrale sur les impulsions est alors:
3N
π
Z Z Z
2
p2 dp1 dp2 . . . dpN = 3N
R 3N
2 !
P i <E
2m
3N
V N (2πm) 2 3N
⇒ φ(E ) = 3N E 2
h ( 3N
2 !)
47/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique

Le nombre des micro-états est


3N
∂φ V N (2πmE ) 2 δE
Ω(E ) = δE = 3N 3N
∂E h ( 2 − 1)! E

48/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique

Nous venons d’évaluer le nombre de micro-états classiques corre-


spondant à N particules indépendantes dont l’énergie est inférieure
à E . En mécanique classique, les particules sont discernables car si
nous connaissons leurs positions et impulsions initiales, nous pou-
vons prédire la valeur de ces quantités à tout instant ultérieur. La
réalité est néanmoins toute autre. En effet, la mécanique quantique,
qui permet à l’heure actuelle la meilleure description du monde mi-
croscopique, dit qu’il n’est pas possible de mesurer simultanément
la position et l’impulsion d’une particule. Par conséquent, toutes les
particules du gaz sont indiscernables.

49/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas classique

Le nombre de micro-états que nous avons élaboré ne tient pas


compte de cette propriété. Alors nous allons dès maintenant cor-
riger cette erreur. Pour N particules il y a N! permutations possi-
bles correspondant à N! configurations qui sont toutes identiques
lorsque les particules sont indiscernables, donc il faut divisé l’ancien
expression par N!,
3N
V N (2πm) 2 3N δE
⇒ Ω(E ) = E 2
N!h3N ( 3N
2 − 1)! E

50/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas quantique

1) Particule en une dimension:


Soit une particule de masse m libre de se déplacer dans une boite à
une dimension de longueur L, ie, 0 ≤ x ≤ L.
En M.Q. l’état de la particule est représenté par la fonction d’onde:
ψ(x ) = A sin(Kx ).
Les conditions aux limites : ψ(0) = ψ(L) = 0
π
⇒ KL = nπ ⇒ K =n; n = 1, 2, . . .
L
K est le vecteur d’onde relié à la longueur d’onde de De Broglie par:
K = 2πλ ⇒ L= 2 .

51/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas quantique

h
Or p = ~K = λ
p2 ~2 K 2 2 2 2 1
⇒ E = 2m = = π2mL
~ n L
2 D’où n = π~ (2mE ) 2
2m
Puisque les états quantiques successifs correspondent à des valeurs
de n qui séparent par 1 unité :
⇒ Le nombre total d’états quantiques ayant une énergie < E ≡ un
nombre quantique < n est:
L 1
φ(E ) = n = (2mE ) 2
π~
∂φ(E ) L  2m  12
⇒ Ω(E ) = δE = δE
∂E 2π~ E

52/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas quantique
2) Particule en trois dimensions:
On considère une particule de masse m libre de se déplacer à l’intérieur
d’une boite à 3 dimension. Les niveaux d’énergies possibles du sys-
tème sont données par :

π 2 ~2  nx2 ny2 nz2 


E= + + ; {nx , ny , nz } = 0, 1, 2, . . .
2m L2x L2y L2z
on prend Lx = Ly = Lz = L, on obtient
 L 2
nx2 + ny2 + nz2 = (2mE ) ≡ R 2
π~
Pour E donnée, les valeurs de nx2 +ny2 +nz2 qui satisfont cette équation
1
L
se trouvent sur une sphère de rayon R = π~ (2mE )
2

53/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas quantique

⇒ Le nombre des états quantiques dans le sphère de rayon R =


1
 3 3
L
π~ (2mE )
2 est 43 π π~
L
(2mE ) 2 .
Néanmoins, il faut garder à l’esprit que nx , ny et nz sont posi-
tifs. Donc, les micro-états accessibles ne sont contenus que dans
le huitième de cette sphère. Enfin, nous déduisons l’expression:

π  L 3 3 4π  2mE  23
φ(E ) = (2mE ) 2 = V
6 π~ 3 h2

 2m  3 1
2
⇒ Ω(E ) = 2πV E 2 δE
h2

54/116 A. Lachgar Introduction à la physique statistique


Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique

Cas quantique
De même façon de cas précédent (classique) on trouve que pour
1
L
le cas de N particules, le sphère de rayon R = π~ (2mE ) 2 et de
3N 3N
π 2 L 3N
dimension 3N est 3N
!
( π~ ) (2mE ) 2
2
3N
V N (2πmE ) 2 δE
⇒ Ω(E ) = 3N 3N
h ( 2 − 1)! E
C’est le même expression trouvé dans le cas classique, nous avons vu
que ces résultats se révèlent inexactes dans le cas où les particules
de gaz sont toutes identiques. Il faut le divisé par N!
3N
V N (2πmE ) 2 δE
Ω(E ) =
N!h3N ( 3N
2 − 1)!
E

55/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Chap. 3 : Les ensembles de Gibbs

56/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Introduction

Les lois statistiques peuvent être étudier à partir de la notion d’ensemble


introduite par Gibbs. Un ensemble de Gibbs est constitué d’un très
grand sous-ensemble, les moyennes des grandeurs physiques sont
obtenues en moyennant sur l’ensemble avec des conditions initiales
distinctes mais compatible avec les contraintes connues.

On utilise souvent 3 ensembles :


Ensemble microcanonique
Ensemble canonique
Ensemble grand canonique

57/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Définition
On considère un Système isolé formé de N objets microscopiques
identiques: atomes, molécules, ions, spins, etc.
⇒ On étudie le système formé par ces objets à l’équilibre, considéré
comme isolé, c’est à dire n’échangeant ni énergie, ni chaleur, ni
particules avec l’extérieur, ou simplement on dit que le système est
microcanonique.
Un état macroscopique peut être réaliser de Ω(E , V , N) façons dif-
férentes. À l’échelle macroscopique rien ne distingue ces états.
D’après le postulat fondamental de la physique statistique, tous les
micro-états sont équiprobables.
⇒ La probabilité d’avoir le système dans le micro-état i est :
1
Pi =
Ω(E , V , N)

58/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Rappel
Suivant Boltzmann, on définit l’entropie statistique comme:
S(E , V , N) = kB log(Ω(E , V , N)), l’entropie est caractérisée par :
L’entropie est une fonction extensive (∝ N ), en effet : si on
divise le système en deux sous-systèmes:

Ω(E , V , N) = Ω1 (E1 , V1 , N1 ) × Ω2 (E2 , V2 , N2 )

⇒ S = kB log(Ω) = kB log(Ω1 ) + kB log(Ω2 ) = S1 + S2


L’entropie mesure l’information microscopique manquante : si
le système est dans un état microscopique unique et que l’on
connaît tout sur lui ⇒ S = 0
L’entropie a les dimensions de kB , ie, l’énergie divisée par la
température (kB ∼ 10−23 joule/kelvin )
59/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Rappel

La relation fondamentale de la thermodynamique s’écrit :


1 P µ
dS = dE + dV − dN
T T T
On définit la température ’microcanonique’ comme :

1 ∂S  ∂ log(Ω(E , V , N)) 
= = kB
T ∂E V ,N ∂E V ,N

la pression et le potentiel chimique peuvent être également définir


comme:
P ∂S  µ ∂S 
= ; =−
T ∂V E ,N T ∂N E ,V

60/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Échanges thermiques entre deux systèmes isolés

Deux systèmes isolés sont mis en contact, on permet l’échange de


la température entre les 2 systèmes.
Quelle est la température à l’équilibre ?
L’entropie totale S = S1 + S2 . (S est extensive)
À l’équilibre dS = dS1 +dS2 = 0 (S doit être maximale à l’équilibre)

∂S1  ∂S2 
⇒ dS = dE1 + dE2 = 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
or le système global est isolé dE = dE1 + dE2 = 0

⇒ dE1 = −dE2

61/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Échanges thermiques entre deux systèmes isolés

∂S1  ∂S2 
⇒ dS = dE1 − dE1 = 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
∂S1  ∂S2 
⇒ =
∂E1 V1 ,N1 ∂E2 V2 ,N2
1 1
= ⇒ T1 = T2
T1 T2

⇒ Alors à l’équilibre T1 = T2

62/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Échanges thermiques entre deux systèmes isolés


Si on part d’une situation telle que T1 > T2 , le système évoluera de
manière irréversible vers l’équilibre thermique.
⇒ dS > 0 (Postulat de l’équilibre)

∂S1  ∂S2 
dS = dE1 + dE2 > 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
or le système global est isolé dE = dE1 + dE2 = 0
 1 1 
⇒ − dE1 > 0
T1 T2
⇒ dE1 < 0
⇒ L’énergie passe du corps le plus chaud vers le plus froid de manière
spontanée.
63/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Échange de volume entre deux systèmes isolés


Deux Systèmes initialement isolés sont mis en contact, la paroi qui
les sépare est mobile.
À l’équilibre, l’entropie est maximale
∂S1  ∂S2 
dS = dV1 + dV2 = 0
∂V1 E1 ,N1 ∂V2 E2 ,N2
Le volume total V = V1 + V2 est conservé

⇒ dV = dV1 + dV2 = 0 ⇒ dV1 = −dV2


∂S1  ∂S2  P1 P2
⇒ = ⇒ =
∂V1 E1 ,N1 ∂V2 E2 ,N2 T1 T2

À l’équilibre P1 = P2
64/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Échange de particules entre deux systèmes isolés

On considère deux systèmes isolés qu’on met en contact en laissant


les particules passer d’un côté à l’autre.
À l’équilibre, l’entropie est maximale

65/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

∂S1  ∂S2 
dS = dN1 + dN2 = 0
∂N1 E1 ,V1 ∂N2 E2 ,V2
(
dS1 = −dS2
dN1 = −dN2
µ1 µ2
⇒− =−
T1 T2

À l’équilibre µ1 = µ2

66/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application au gaz parfait classique


On sait que :
V 3
log(Ω(E , V , N)) ' N log( 3
(mE ) 2 )
h

1 dS 3 NkB
⇒ T = dE = 2 E
V ,N
On obtient l’énergie interne pour un gaz parfait :
3
E = NkB T
2

P dS NkB
⇒ T = dV = V
E ,N
On obtient l’équation d’état d’un gaz parfait :
PV = NkB T
67/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application à un système de N spins indépendants


Soit un système isolé de N spins sans interaction dans un champ
magnétique B

Le système est isolé, il évolue avec une énergie E constante.


68/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application à un système de N spins indépendants


L’énergie du système est:

E = −nµB B + ńµB B

(
n est le nombre de spins parallèle à B
ń est le nombre de spins anti-parallèle à B

Le nombre de spin total est:


1 E
N = n + ń ⇒ E = −(2n − N)µB B ⇒ n = (N − )
2 µB B
Le nombre de micro-états correspondants ,ie, le nombre de façon de
N!
placer n spins sur N sites est: Ω(n) = CNn = n!(N−n)!
69/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application à un système de N spins indépendants

La température est donnée par :


1 ∂S ∂S ∂n
= =
T ∂E ∂n ∂E
∂n
on a ∂E = − 2µ1B B , l’entropie est:
 
S = kB log Ω = kB N log N − (N − n) log(N − n) − n log n

∂S
d’où ∂n = log(N − n) − log n

1 kB N −n
⇒ =− log( )
T 2µB B n

70/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application à un système de N spins indépendants

En remplaçant n par E , on obtient :


µB B
E = −NµB B tanh( )
kB T
La probabilité pour qu’un spin soit vers le haut, ie, parallèle à B est:
n 1
P= = 2µB B
N −
1+e kB T

71/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Définition
On considère un système S formé de N particules identiques en con-
tact thermique avec un système très grand R avec lequel il n’échange
que de l’énergie. Dans ce cas (R très grand devant S), le système
R se comporte comme un thermostat et impose sa température T
au système S.

72/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition
Le système (S + R) est isolé ⇒ son énergie totale E = ES + ER est
constante.
Le nombre d’états du système (S + R) où le système S à une énergie
ES est :
Ω(E , ES ) = ΩS (ES ) × ΩR (E − ES )
et le nombre total des états accessibles à l’ensemble (R + S) est :
X
Ω(E ) = ΩS (ES ) × ΩR (E − ES )
ES

L’entropie du système R est :

SR (ER ) = SR (E − ES ) = kB log(ΩR (E − ES ))

73/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition

SR (E −ES )
⇒ ΩR (E − ES ) = e kB

dSR 1
or E  ES et dER = T

dSR (E ) 1
⇒ SR (E −ES ) = SR (E )−ES +O(ES2 )+. . . ' SR (E )−ES
dER T

SR (E )
⇒ ΩR (E − ES ) ' e kB
× e −βES
1
où β = kB T

74/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition

La probabilité d’avoir une énergie E donnée est proportionnel au


nombre d’états Ω(E ) ayant cette énergie. Alors la probabilité d’avoir
pour le système S une énergie ES peut s’écrire :
SR (E )
ΩS (ES ) × e kB
× e −βES
P(ES ) = SR (E )
ΩS (ES ) × e × e −βES
P kB
ES
ΩS (ES ) × e −βES
= −βES
ES ΩS (ES ) × e
P

⇒ P(ES ) ne dépend que des propriétés du système S, le système R


sert seulement à fixer la température.

75/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition

⇒ La probabilité d’avoir le système dans l’état i est :

e −βEi e −βEi
pi = P −βEj =
je Z

La constante de normalisation Z = j e −βEj = Ej Ω(Ej )e −βEj est


P P

appelée fonction de partition.


⇒ Pi est appelée distribution canonique ou distribution de Maxwell-
Boltzmann

76/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Rappel mathématique: Méthode des multiplicateurs de


Lagrange
On veut trouver l’extremum d’une fonction de n variables f (x1 , x2 , . . . , xn )

Si les n variables sont indépendantes ⇒ il faut résoudre


df
= 0 pour trouver les n valeurs de xi correspondantes à
dxi
chacun des extremums.
Si les n variables xi sont telles que :



 R1 (x1 , x2 , . . . , xn ) = 0

R (x , x , . . . , x ) = 0

2 1 2 n


 :

Rm (x1 , x2 , . . . , xn ) = 0

77/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Rappel mathématique: Méthode des multiplicateurs de


Lagrange

alors l’extremum se localise en résolvant simultanément :


∂f ∂R1 ∂R2 ∂Rm
+ λ1 + λ2 + · · · + λm =0
∂xi ∂xi ∂xi ∂xi
λ1 , λ2 , . . . , λm sont les multiplicateurs de Lagrange.

78/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application

On considère un ensemble de N système identiques pouvant être


dans des états i, la probabilité pour qu’un état donné soit occupé
est Pi = nNi , où ni est le nombre de systèmes dont l’état i est occupé.
Pour trouver ni on maximise Γ(n1 , n2 , . . . nM ) le nombre de façons
différentes de mettre n1 , n2 , . . . , ni , . . . , nM systèmes dans les états
1, 2, . . . , i, . . . , M.

N!
Γ(n1 , n2 , . . . nM ) = Q
i ni !
avec des contraintes selon le type de notre système, par exemple:
P P
i ni = N et/ou i ni Ei = E
⇒La distribution la plus probable est celle qui maximise Γ(n1 , n2 , . . . nM ).
Il s’agit de maximiser log(Γ(n1 , n2 , . . . nM )).

79/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application
La fonction log Γ ressemble à l’entropie, mais l’ensemble des ni ne
spécifie pas l’état macroscopique d’un seul système mais plutôt celui
de l’ensemble de tous les systèmes qui forment l’ensemble statis-
tique.
X
log(Γ(n1 , n2 , . . . nM )) ' log(N!) − log(ni !)
i
 X 
' N log(N) − pi log(ni )
i
 X X 
' N log(N) pi − pi log(ni )
i i
X
' −N pi log(pi ).
i

80/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application: Ensemble microcanonique


On applique cette méthode à notre problème :
1 X
log(Γ(n1 , n2 , . . . nM )) = − pi log(pi )
N i

P ni
ni = N ⇒
P P
Avec la contrainte i i pi = i =1
N
∂( i pi − 1)
P
1 ∂ log(Γ)
⇒ +λ =0
N ∂pi ∂pi
⇒ − log(pi ) − 1 + λ = 0
⇒ pi = e λ−1
Ce qui est bien le résultat pour l’ensemble microcanonique car toutes
les probabilités sont égales.
81/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application: Ensemble microcanonique

La valeur de λ est déterminée par la condition de normalisation :

X M
X
pi = 1 ⇒ e λ−1 = 1
i i

1
Avec M est le nombre d’états, d’où λ = 1 + log( M )

1
⇒ pi =
M

82/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application: Ensemble canonique


Dans l’ensemble canonique l’énergie n’est pas fixe ⇒ deux con-
traintes :
(P
i pi = 1
P
i pi Ei =< E >

La méthode des multiplicateurs de Lagrange :


∂( i pi − 1) pi Ei − < E >)
P P
1 ∂Γ ∂( i
⇒ + λ1 + λ2 =0
N ∂pi ∂pi ∂pi
⇒ − log(pi ) + λ1 + λ2 Ei − 1 = 0
⇒ pi = e λ1 −1+λ2 Ei
1
e λ1 −1+λ2 Ei ⇒ e λ1 −1 = P
P P
Or i pi = 1 = i λ2 Ei
i e
83/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application: Ensemble canonique

e λ2 Ei
⇒ pi = P λ E
ie
2 i

λ2 représente physiquement l’inverse de −kB T , on retrouve le ré-


sultat de la section précédente

84/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Calcul des propriétés thermodynamique


À partir de la fonction de partition du système on peut déduire toutes
les grandeurs physiques :
L’énergie interne :
X X e −βEi
E= Ei pi = Ei
i i
Z
∂ log(Z )
⇒E =−
∂β
L’énergie libre :

∂F 
F = E − TS ⇒ E = F + TS = F − T
∂T V ,N
∂F  ∂βF 
⇒E =F +β =
∂β V ,N ∂β V ,N
85/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Calcul des propriétés thermodynamique

∂ log(Z ) ∂βF
⇒− =
∂β ∂β
⇒ F = −kβ T log(Z )

L’entropie :

∂F  1 ∂Z ∂β
S=− = kB log(Z ) + kB T
∂T V ,N Z ∂β ∂T
1 i Ei e −βEi
P
⇒ S = kB log(Z ) +
T Z
⇒ S = kB (log(Z ) + βE )

86/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Paramagnétisme de Curie


Dans la matière, les molécules portent souvent un moment mag-
nétique qui est quantifié. Ces moments magnétiques µ ~ peuvent
s’orienter ou non selon la direction du champ magnétique imposé.
Si les interactions entre molécules sont négligeables, on se préoccupe
d’une seule molécule. Pour chaque molécule il existe deux configu-
rations distinctes dont les énergies associées sont : E± = ∓µH. La
fonction de partition Z1 de cette molécule est:

e −βEi = e βµH + e −βµH


X
Z1 =
i

⇒ La magnétisation moyenne par molécule est donnée par :


mi e −βEi
P
i
< m >=
Z1
87/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Paramagnétisme de Curie

(
mi = µ ⇒ Ei = −µH
mi = −µ ⇒ Ei = µH

µe βµH − µe −βµH
⇒< m >= = µ tanh(βµH)
Z1
La magnétisation de l’ensemble des molécules est :
< M >= N < m >= Nµ tanh(βµH)
La susceptibilité magnétique est par définition la réponse du système
à l’application du champ magnétique :
∂M
χ=
∂H
88/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Paramagnétisme de Curie

Pour l’ensemble des N molécules :


∂(N < m >) 1
χ= = βNµ2
∂H cosh2 (βµH)
2 4 2
à T  1 ⇒ χ ' kNµ BT
Nµ H
− (k 3 + ...
BT )
On retrouve la loi du paramagnétisme de Curie :
1
à haute température : χ ∝ T

89/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Paramagnétisme de Curie

L’énergie moyenne d’une molécule est :

Ei e −βEi −µHe βµH + µHe −βµH


P
i
< E1 > = =
Z1 Z1
= −µH tanh(βµH)

L’énergie moyenne de N molécules est :

< E >= N < E1 >= −NµH tanh(βµH)

90/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Oscillateur harmonique quantique, chaleur


spécifique des solides
La chaleur spécifique des solides est dû aux vibrations collectives
des molécules qui le forment. Pour étudier les vibrations d’une
molécule, on approxime le potentiel de l’élongation x de la molécule
par un terme quadratique ∼ 12 kx 2 cela conduit à des oscillations
harmoniques autour d’une position d’équilibre x0 .
La résolution de l’oscillateur harmonique en mécanique quantique
donne les valeurs propres pour l’énergie :
1
En = (n + )~ω, n = 0, 1, 2, . . .
2
n est un nombre quantique, ω est la fréquence propre de vibration
de la molécule.
91/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Oscillateur harmonique quantique, chaleur


spécifique des solides
La fonction de partition de l’oscillateur harmonique est :
∞ ∞
β~ω
hX i
e −βEn = e − e −nβ~ω
X
Z1 = 2

n=0 n=0
− β~ω
e 2 1 1
= −β~ω
= β~ω β~ω =
1−e −
e 2 −e 2 2 sinh( β~ω
2 )
(Avec ∞ −nβ~ω est une suite géométrique).
P
n=0 e
L’énergie moyenne d’un oscillateur harmonique est:
Ei e −βEi
P
i ∂ log(Z1 )
< E1 > = =−
Z1 ∂β
~ω β~ω
= coth( )
2 2
92/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Applications: Oscillateur harmonique quantique, chaleur


spécifique des solides

L’énergie totale moyenne de N oscillateurs harmoniques est :


~ω β~ω
< E >= N < E1 >= N coth( )
2 2
La chaleur spécifique est :

∂(< E >)  β~ω 2 1


cv = = NkB ( )
∂T v 2 sinh ( β~ω
2
2 )

93/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Factorisation de la fonction de partition


Le calcul de la fonction de partition se simplifie lorsque le système
est constitué de particules identiques et sans interaction :
⇒ la fonction de partition à N particules se factorise en 1 produit
de N fonctions de partitions à 1 particule.
L’absence d’interaction ⇒ l’énergie Ei du micro-état i du système
est la somme des énergies individuelles de chaque particule Ei =
PN
j=1 ij , Ei est l’énergie d’un micro-état du système, ij est l’énergie
de la particule j dans le micro-état i.
X −β Pj=N 
e −βEi =
X
Z = j=1 ij
e (i est le nombre de micro-états)
i i
e −β(i1 +i2 +...+iN ) (i1 est le nombre d’états de la particule 1)
X
=
i1,i2,...iN

94/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Factorisation de la fonction de partition

e −β(i1 ) × e −β(i2 ) × . . .
X X
Z =
i1 i2
 X −β(i1 ) N
= e
i1
= Z1N
où Z1 est la fonction de partition d’une particule. Cette égalité est
valable lorsque les particules sont :
identiques mais discernables (particules occupant les nœuds
d’un réseau)
sans interactions
Si les particules sont indiscernables (exemple : molécules dans un
Z1N
gaz) ⇒ Z = N!
95/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Indiscernabilité des particules


Soit un gaz parfait formé de N particules. La fonction de partition
d’une particule est :
V +∞ −β p2
Z
Z1 = e 2m dp
h3 −∞
V +∞ +∞ +∞ −β( px2 + py2 + pz2 )
Z Z Z
= e 2m 2m 2m dp dp dp
x y z
h3 −∞ −∞ −∞
V +∞ −β px2 py2
Z Z +∞ Z +∞ pz2
2m dp ×
−β 2m −β 2m
= e x e dpy × e dpz
h3 −∞ −∞ −∞

sachant que
py2
Z +∞ px2
Z +∞ Z +∞ pz2 2m 1
e −β 2m dpx = e −β 2m dpy = e −β 2m dpz = ( π) 2
−∞ −∞ −∞ β

96/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Indiscernabilité des particules

V 3

3
⇒ Z1 =
(2πmkB T ) 2
h
Si les particules étaient discernables (ce qui n’est pas correcte !), la
fonction de partition de N particules serait :

VN 3N
Z = Z1N = 3N
(2πmkB T ) 2
h
L’énergie libre de Helmholtz est :
V 3

F =< E > −TS = −kB T log(Z ) = −NkB T log 3
(2πmkB T ) 2
h

97/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Indiscernabilité des particules


L’entropie est
∂F 
S = −
∂T v
V 3
 h3 3 1
= NkB log 3
(2πmkB T ) 2 + NkB T 3 (2πmkB ) 2 T 2
h V (2πmkB T ) 2

3
V
 3
S = NkB log
(2πmk B T ) 2 + NkB
h3 2
Considérons une boite divisée en 2 parties identiques ayant chacune
un volume V et N particules.
L’entropie de chaque partie est :
V 3
 3
S1 = S2 = NkB log (2πmk B T ) 2 + NkB
h3 2
98/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Indiscernabilité des particules


Si on enlève la paroientre les 2 parties,
 l’entropie du système global
3
2V
est : S = 2NkB log h3 (2πmkB T ) + 3NkB
2

Or l’entropie est une grandeur extensive ⇒ S = S1 + S2


Mais on trouve que
S − (S1 + S2 ) = 2NkB log(2) 6= 0
Cette observation est connue sous le nom du paradoxe de Gibbs,
qui s’est rendu compte en 1902 qu’il manquait le facteur N!, en
effet Gibbs ne connaissait pas la mécanique quantique et le principe
d’indiscernabilité des particules identiques.
Dans la fonction de partition il faut diviser par N! :
Z1N VN 3N
Z= = (2πmkB T ) 2
N! N!h3N
99/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Indiscernabilité des particules


L’énergie libre est :

V 3

F = −kB T log(Z ) = −NkB T log 3
(2πmkB T ) 2 + kB T log(N!)
h
V 3

= −NkB T log (2πmkB T ) + kB TN log(N) − NkB T2
h3
 V 3

= −NkB T log 3
(2πmkB T ) 2 − NkB T
Nh
L’entropie S est :
∂F  V 3
 5
S=− = NkB log (2πmk B T ) 2 + NkB T
∂T Nh3 2
C’est la loi de Sakur-Tetrode correspondant à l’entropie de N par-
ticules classiques.
100/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Théorème d’équipartition de l’énergie

Énonce du théorème :
L’énergie moyenne d’un système dont l’énergie totale est la somme
des carrés des composantes de l’impulsion ou des coordonnés est
égale à 12 kB T fois le nombre de ces termes quadratiques.

L’énergie d’une seule particule libre d’un gaz parfait est :

px2 py2 p2
E= + + z
2m 2m 2m
R +∞ px2 −β px2
p2 −∞ 2m e 2m dp x px2 py2 p2 1
< x >= px2
⇒< >=< >=< z >= kB T
2m R +∞ −β 2m 2m 2m 2m 2
−∞ e dpx

101/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Théorème d’équipartition de l’énergie

Alors l’énergie d’une particule de gaz parfait est


3
E1 = k B T
2
Pour N particules : E = 23 NkB T
On peut généraliser ce résultat aux cas où l’énergie est une fonction
quadratique des coordonnés:
1 1 1
E = ax 2 + ay 2 + az 2
2 2 2
1 1 1 1
⇒< ax 2 >=< ay 2 >=< az 2 >= kB T
2 2 2 2

102/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Les gaz parfaits: Théorème d’équipartition de l’énergie


Application
Oscillateur harmonique classique :
L’énergie d’un oscillateur harmonique classique est :

p2 1
E= + kx 2
2m 2
où k est la constante de raideur.
D’après le théorème d’équipartition, l’énergie moyenne d’un oscilla-
teur harmonique est :
3 3 
< E1 >= kB T + kB T = 3kB T
2 2
Pour N oscillateurs : < E >= 3NkB T
103/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique


On considère un système S en contact thermique avec un système
très grand R avec lequel il interchange de l’énergie et des particules.
Dans ce cas (R très grand devant S), le système R se comporte
comme un thermostat et impose sa température T au système S.

104/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique


Le système (S + R) est isolé ⇒ son énergie totale et son nombre de
particules sont constants :
(
E = ES + ER
N = NS + NR

Le nombre d’états du système (S + R) où le système S à une énergie


ES et un nombre de particules NS est :

Ω(E , ES , N, NS ) = ΩS (ES , NS ) × ΩR (E − ES , N − NS )

et le nombre total des états accessibles à l’ensemble (S + R) est :


XX
Ω(E , N) = ΩS (ES , NS ) × ΩR (E − ES , N − NS )
ES NS

105/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique


 
log ΩR (E −ES , N −NS ) = log ΩR (E , N)−ES ∂ log
∂ER
ΩR
−NS ∂ log
∂NR
ΩR
E N
( ∂ log Ω
1
∂ER
R
= kB T = β
or ∂ log ΩR 1 ∂S 1 ∂S ∂ER −µ
∂NR = kB ∂NR = kB ∂ER ∂NR = kB T = −βµ

ES µNS
⇒ log ΩR (E − ES , N − NS ) = log ΩR (E , N) − +
kB T kB T
⇒ ΩR (E − ES , N − NS ) = ΩR (E , N)e −β(ES −µNS )
⇒ La probabilité d’avoir pour le système S une énergie ES et un
nombre de particules NS est :
ΩS (ES , NS ) × ΩR (E − ES , N − NS )
p(ES , NS ) = P
NS ΩS (ES , NS ) × ΩR (E − ES , N − NS )
P
ES

106/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique

ΩS (ES , NS ) × ΩR (E , N)e −β(ES −µNS )


⇒ p(ES , NS ) = −β(ES −µNS )
NS ΩS (ES , NS ) × ΩR (E , N)e
P P
ES
ΩS (ES , NS ) × e −β(ES −µNS )
= −β(ES −µNS )
NS ΩS (ES , NS ) × e
P P
ES

⇒ La probabilité de trouver le système dans l’état i est :


e −β(Ei −µNi )
pi = P −β(E −µN )
ie
i i

On définit la fonction de partition grand canonique :


e −β(Ei −µNi ) ou ZG = ΩS (ES , NS )e −β(ES −µNS )
X XX
ZG =
i ES NS

107/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique

ΩS (ES , NS )e −βES
X X
ZG = e βµNS
NS ES

ΩS (ES , NS )e −βES = Z (fonction de partition canonique)


P
or ES
X
⇒ ZG = e βµNS Z (NS , T , V )
NS

Le potentiel thermodynamique correspondant (T , V , N ) est le po-


tentiel grand canonique :
J(T , V , N) = F − µN = −kB T log(ZG )
Les 3 équations
 d’états sont
 : 
∂J ∂J ∂J
N = − ∂µ ; S = − ∂T ; P = − ∂V
T ,V V ,µ T ,µ
108/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique

La valeur moyenne d’une grandeur physique A est :



1 X
< A >= Ae βµN Z (T , V , N)
ZG N=0

Le nombre moyen de particules par exemple est :



1 X
<N> = Ne βµN Z (T , V , N)
ZG N=0
∂ log(ZG )
= kB T
∂µ

109/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Fonction de partition grand canonique

L’énergie moyenne est :


∞ X
1 X
<E > = Ei e −β(Ei −µN)
ZG N=0 i
∂ log(ZG ) ∂ log(ZG )
= − + µkB T
∂β ∂µ
La pression est :
∂ log(ZG )
P = kB T
∂V

110/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Méthodes des multiplicateurs de Lagrange

On maximise Γ(n1 , n2 , . . .), ie, le nombre de façons différentes de


mettre n1 , n2 , . . . systèmes dans les états 1, 2, . . ., dans l’ensemble
grand canonique les contraintes sont :
P
Pi pi = 1


p E =< E >
Pi i i

i pi Ni = N

La méthode des multiplicateurs de Lagrange :

∂( i pi − 1) pi Ei − < E >) pi Ni − N)
P P P
1 ∂Γ ∂( i ∂( i
+λ1 +λ2 +λ3 =0
N pi ∂pi ∂pi ∂pi

111/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Méthodes des multiplicateurs de Lagrange

⇒ − log(pi ) − 1 + λ1 + λ2 Ei + λ3 Ni = 0
e −λ2 Ei −1−λ3 Ni
⇒ pi = P −λ E −1−λ N
ie
2 i 3 i

λ2 = β et on définit le potentiel chimique tel que : λ3 βµ

e −β(Ei −µNi )
⇒ pi = P −β(E −µN )
ie
i i

112/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application

Adsorption:
Les molécules d’un gaz sont parfois attirées par les solides avec
lesquelles elles sont en contact, et de temps en temps elles restent
piégées à la surface du solide : ce phénomène s’appelle adsorption,
le solide est le substrat ou adsorbant. Pour étudier ce phénomène,
on considère le modèle simplifié suivant : Un récipient de volume
V contient un gaz parfait en contact avec un solide dont la surface
contient A pièges, capables d’adsorber chacun un seul atome, dans
un état unique, d’énergie −ε. ε représente l’énergie de liaison de
l’atome dans le piège. L’ensemble est maintenu à la température T
.

113/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application
Soit le système constitué par les atomes adsorbés. Son nombre
de particules n’est pas fixe, car il interchange des atomes avec le
gaz, celui constitue alors le réservoir de particules et d’énergies qui
impose au système sa température T et son potentiel chimique µ.
La fonction de partition grand canonique pour un piège est :

e −β(εi −µNi ) (erreur à corriger)


X
zG =
i

où:
(
Ni = 0 −→ εi = 0
Ni = 1 −→ εi = ε0 (erreur à corriger)

⇒ zG = 1 + e β(ε0 +µ)
114/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application

Puisque tous les pièges sont identiques et indépendants on peut fac-


toriser la fonction de partition grand canonique pour tout le système
:
ZG = zGA = (1 + e β(ε0 +µ) )A
Le nombre moyen de particules adsorbés est :

∂J ∂ ln ZG e β(ε0 +µ)
NA = − = kB T =A
∂µ ∂µ 1 + e β(ε0 +µ)

Le rapport θ = NAA = 1+e −β(ε


1
0 +µ)
est la probabilité pour qu’un piège
soit rempli et s’appelle ’taux d’adsorption’.

115/116 A. Lachgar Introduction à la physique statistique


Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique

Application
L’énergie totale des particules adsorbées est :
ε0 A
EA = −ε0 NA = −
1 + e −β(ε0 +µ)
Le potentiel grand canonique est:
J = −kB T ln(ZG ) = EA − µNA − TSA
L’entropie est:
ε0 + µ
SA = kB A ln(1 + e β(ε0 +µ) ) − NA
T
A ε0 +µ NA
or NA = 1+e −β(ε0 +µ)
⇒ kB T = ln( A−N A
)
h i
⇒ SA = kB A ln(A)−NA ln(NA )−(A−NA ) ln(A−NA ) (erreur à corriger)

116/116 A. Lachgar Introduction à la physique statistique

Vous aimerez peut-être aussi