Académique Documents
Professionnel Documents
Culture Documents
1 : Probabilités et Statistiques
Chap. 2 : Description statistique des systèmes de particules
Chap. 3 : Les ensembles de Gibbs
A. Lachgar
Plan de présentation
Repères historiques
Repères historiques
Notion de probabilité
Notion de probabilité
Valeur moyenne
Dénombrement
Dénombrement
Aqn n!
Cnq ≡ = .
q! q!(n − q)!
Définition
Loi Bernoulli:
Une loi de Bernoulli est une loi de probabilité qui suit le schéma
suivant:
la probabilité d’obtenir un succès est égale à p
la probabilité d’obtenir un échec est égale à 1 − p
p est appelé le paramètre de la loi de Bernoulli.
Exemples:
1) Le jeu du pile ou face : On considère par exemple comme succès
’obtenir pile’ et comme échec ’obtenir face’.
2) On lance un dé et on considère par exemple comme succès ’obtenir
un six’ et comme échec ’ne pas obtenir un six’.
Énonce du théorème
Exemple
Prenons un exemple important. On considère un gaz de N particules
dans une boîte de volume V . On considère une région de volume v
à l’intérieur de la boîte. Combien y a-t-il de particules du gaz dans
cette région ?
On pose p = Vv . Chaque particule a une probabilité p d’être dans
la région v , et 1 − p d’être en dehors de cette région. On pose xk
la variable aléatoire qui vaut 1 si la k ème particule est dans la région
v et 0 sinon. On a xk = p et Var (xk ) = p(1 − p). D’autre part,
Y = x1 + . . . + xN , et les variables xk sont indépendantes les unes
des autres (c’est vrai, par définition, pour un gaz parfait, et c’est
une très bonne approximation pour un gaz réel qui n’est pas trop
froid). On a donc Y = Np et Var (Y ) = Np(1 − p). L’espérance
redonne donc bien le résultat intuitif,
p mais on a appris en plus que
les fluctuations de Y sont d’ordre Np(1 − p).
20/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Définitions
Chap. 2 : Description statistique des systèmes de particules
La distribution binomiale
Chap. 3 : Les ensembles de Gibbs
Théorème de la limite centrale
Exemple
Si N = 1020 , on voit que les fluctuations sont 1010 fois plus petites
que l’espérance ou, autrement dit, que la différence typique entre la
valeur fluctuante de Y et l’espérance Y apparaît au dixième chiffre.
Enfin, on a pu écrire Y comme une somme de beaucoup de variables
aléatoires indépendantes, le théorème central limite nous donne donc
que la loi de distribution de Y pour les valeurs probables de Y est
donnée par :
1 (Y −Nm)2
ρ(Y ) = √ e − 2σ2
2πσ
Exemple
Remarque: Une variable qui suit une loi binomiale B(n, p) peut tou-
jours être considérée comme une somme de n variables de Bernoulli
indépendantes de même paramètre p. Les hypothèses du théorème
centrale limite étant vérifiées, on peut affirmer que, lorsque n tend
vers l’infini, la loi binomiale B(n, p) tend vers une loi gaussienne.
N = 1, N = {n1 }
soit la particule se trouve dans le compartiment A1 ou A2 ,
A1 A2 A1 A2
n1 n1
−→ 2 micro-état et 2 macro-état
N = 2, N = {n1 , n2 }
1)n1 et n2 se trouvent tous les deux dans le compartiment A1
ou A2 ,
2)n1 et n2 chacun se trouve dans un compartiment
A1 A2 A1 A2
n1 n2 n1 n2
A1 A2 A1 A2
n1 n2 n2 n1
−→ 4 micro-état et 3 macro-état
28/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique
N! N!
ΩN1 = CNN1 = =
N1 !(N − N1 !) N1 !(N2 !)
ΩN1 = ΩN2
Le nombre total de micro-états ou de configurations est :
ΩN = 2 × 2 × 2 . . . × 2 = 2N
Entropie statistique
Le nombre de micro-états d’un système macroscopique est gigan-
tesque car le nombre de constituants est N ' 6.02 × 1023 .
23
Pour les deux compartiments Ω = 2N = 26.02×10 . On utilise le
logarithme de Ω qui varie très lentement et qui ne change pas le
sens de variation de Ω. La quantité :
S = kB log(Ω),
On possède N boites et une balle que nous mettons dans une des
boites. On envisage deux situations :
Toutes les boites sont équiprobables −→ La probabilité de trou-
ver une balle dans une boite est N1 .
On marque la boite où se trouve la balle −→ on la trouve
sûrement.
Dans la 1ère situation on a un manque d’information.
Dans la 2ère situation on a plus d’information.
Densité de probabilité
Densité de probabilité
Soit un système formé de N particules, dont les positions et les
vitesses sont (qi , pi ). On appelle espace de phases, l’espace à 6N
dimensions permettant de représenter par 1 point l’état du système à
l’instant t. Ce point se déplace au cours du temps selon les équations
d’Hamilton :
∂H ∂H
qi0 = et pi0 = −
∂pi ∂qi
H est l’hamiltonien du système.
Pour décrire l’état du système, on introduit la densité de probabil-
ité ρ(p, q) définit de la façon suivante : la probabilité pour que le
point représentatif de l’état microscopique d’un système se trouve à
l’instant t dans un élément de volume (dq1 dq2 . . . dq3N dp1 dp2 . . . dp3N )
centré au point (q1 q2 . . . q3N p1 p2 . . . p3N ) est:
ρ(q1 q2 . . . q3N p1 p2 . . . p3N )(dq1 dq2 . . . dq3N dp1 dp2 . . . dp3N )
38/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique
Densité de probabilité
Hypothèse ergodique
Pour calculer la valeur moyenne d’une grandeur physique X associée
au système (N1 dans l’exemple des 2 compartiments), on calcule X
pendant un temps t, on définit la valeur moyenne de X
Z t
hX i = lim X (t)dt
t→∞ 0
t doit être suffisamment long pour que le système puisse visiter tous
les micro-états accessibles.
Le calcul de est difficile surtout si on ne connaît pas le temps de
relaxation.
Boltzmann et Gibbs ont résolu cette difficulté de la façon suivante :
au lieu de prendre les moyennes temporelles sur un système donné,
on imagine un grand nombre de systèmes identiques, la moyenne
au même instant est prise sur l’ensemble des systèmes, on introduit
alors la moyenne d’ensemble.
40/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique
Hypothèse ergodique
Hypothèse ergodique
Hypothèse ergodique :
Moyenne d’ensemble ≡ Moyenne temporelle sur un seul système.
Z t X
lim X (t)dt ≡ pi Xi
t→∞ 0
i
Cas classique
Quel est le nombre d’états Ω(E ) d’un système de particules clas-
siques ?
Pour compter les états, on divise l’espace de phases en petits vol-
umes (cellules).
La M.Q. ⇒ δpδq > h, donc le volume minimal permis est h en
dimension 1 (voir figure) , en dimension 3 c’est h3 .
Cas classique
Pour un gaz parfait, l’énergie du système est la somme des énergies
cinétiques de toutes les particules, on néglige l’énergie potentielle
1 PN 2
d’interactions E = 2m i=1 pi .
Le nombre d’états dont l’énergie < E est:
1
Z Z Z Z Z Z
φ(E ) = ... dq1 dq2 . . . dqN p2 dp1 dp2 . . . dpN
h3N
P i <E
V 2m
VN
Z Z Z
φ(E ) = p2 dp1 dp2 . . . dpN
h3N
P i <E
2m
Cas classique
L’intégrale sur les impulsions revient à calculer
√ le volume d’une
sphère de dimension 3N et de rayon R = 2mE . Notre problème
se ramène donc à calculer le volume d’une sphère de rayon R dans
un espace à 3N dimensions. Dans l’espace ordinaire à 3 dimensions,
nous connaissons le résultat, c’est 34 πR 3 . De façon générale pour
un volume de dimension n le volume peut être écrire comme: Cn R n ,
n
avec Cn = πn 2! .
2
⇒ L’intégrale sur les impulsions est alors:
3N
π
Z Z Z
2
p2 dp1 dp2 . . . dpN = 3N
R 3N
2 !
P i <E
2m
3N
V N (2πm) 2 3N
⇒ φ(E ) = 3N E 2
h ( 3N
2 !)
47/116 A. Lachgar Introduction à la physique statistique
Postulats de la physique statistique
Chap. 1 : Probabilités et Statistiques Densité de probabilité
Chap. 2 : Description statistique des systèmes de particules Hypothèse ergodique
Chap. 3 : Les ensembles de Gibbs Grandeurs intensives et extensives
Nombres d’états accessibles d’un système physique
Cas classique
Cas classique
Cas classique
Cas quantique
Cas quantique
h
Or p = ~K = λ
p2 ~2 K 2 2 2 2 1
⇒ E = 2m = = π2mL
~ n L
2 D’où n = π~ (2mE ) 2
2m
Puisque les états quantiques successifs correspondent à des valeurs
de n qui séparent par 1 unité :
⇒ Le nombre total d’états quantiques ayant une énergie < E ≡ un
nombre quantique < n est:
L 1
φ(E ) = n = (2mE ) 2
π~
∂φ(E ) L 2m 12
⇒ Ω(E ) = δE = δE
∂E 2π~ E
Cas quantique
2) Particule en trois dimensions:
On considère une particule de masse m libre de se déplacer à l’intérieur
d’une boite à 3 dimension. Les niveaux d’énergies possibles du sys-
tème sont données par :
Cas quantique
π L 3 3 4π 2mE 23
φ(E ) = (2mE ) 2 = V
6 π~ 3 h2
2m 3 1
2
⇒ Ω(E ) = 2πV E 2 δE
h2
Cas quantique
De même façon de cas précédent (classique) on trouve que pour
1
L
le cas de N particules, le sphère de rayon R = π~ (2mE ) 2 et de
3N 3N
π 2 L 3N
dimension 3N est 3N
!
( π~ ) (2mE ) 2
2
3N
V N (2πmE ) 2 δE
⇒ Ω(E ) = 3N 3N
h ( 2 − 1)! E
C’est le même expression trouvé dans le cas classique, nous avons vu
que ces résultats se révèlent inexactes dans le cas où les particules
de gaz sont toutes identiques. Il faut le divisé par N!
3N
V N (2πmE ) 2 δE
Ω(E ) =
N!h3N ( 3N
2 − 1)!
E
Introduction
Définition
On considère un Système isolé formé de N objets microscopiques
identiques: atomes, molécules, ions, spins, etc.
⇒ On étudie le système formé par ces objets à l’équilibre, considéré
comme isolé, c’est à dire n’échangeant ni énergie, ni chaleur, ni
particules avec l’extérieur, ou simplement on dit que le système est
microcanonique.
Un état macroscopique peut être réaliser de Ω(E , V , N) façons dif-
férentes. À l’échelle macroscopique rien ne distingue ces états.
D’après le postulat fondamental de la physique statistique, tous les
micro-états sont équiprobables.
⇒ La probabilité d’avoir le système dans le micro-état i est :
1
Pi =
Ω(E , V , N)
Rappel
Suivant Boltzmann, on définit l’entropie statistique comme:
S(E , V , N) = kB log(Ω(E , V , N)), l’entropie est caractérisée par :
L’entropie est une fonction extensive (∝ N ), en effet : si on
divise le système en deux sous-systèmes:
Rappel
1 ∂S ∂ log(Ω(E , V , N))
= = kB
T ∂E V ,N ∂E V ,N
∂S1 ∂S2
⇒ dS = dE1 + dE2 = 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
or le système global est isolé dE = dE1 + dE2 = 0
⇒ dE1 = −dE2
∂S1 ∂S2
⇒ dS = dE1 − dE1 = 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
∂S1 ∂S2
⇒ =
∂E1 V1 ,N1 ∂E2 V2 ,N2
1 1
= ⇒ T1 = T2
T1 T2
⇒ Alors à l’équilibre T1 = T2
∂S1 ∂S2
dS = dE1 + dE2 > 0
∂E1 V1 ,N1 ∂E2 V2 ,N2
or le système global est isolé dE = dE1 + dE2 = 0
1 1
⇒ − dE1 > 0
T1 T2
⇒ dE1 < 0
⇒ L’énergie passe du corps le plus chaud vers le plus froid de manière
spontanée.
63/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
À l’équilibre P1 = P2
64/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
∂S1 ∂S2
dS = dN1 + dN2 = 0
∂N1 E1 ,V1 ∂N2 E2 ,V2
(
dS1 = −dS2
dN1 = −dN2
µ1 µ2
⇒− =−
T1 T2
À l’équilibre µ1 = µ2
E = −nµB B + ńµB B
(
n est le nombre de spins parallèle à B
ń est le nombre de spins anti-parallèle à B
∂S
d’où ∂n = log(N − n) − log n
1 kB N −n
⇒ =− log( )
T 2µB B n
Définition
On considère un système S formé de N particules identiques en con-
tact thermique avec un système très grand R avec lequel il n’échange
que de l’énergie. Dans ce cas (R très grand devant S), le système
R se comporte comme un thermostat et impose sa température T
au système S.
Fonction de partition
Le système (S + R) est isolé ⇒ son énergie totale E = ES + ER est
constante.
Le nombre d’états du système (S + R) où le système S à une énergie
ES est :
Ω(E , ES ) = ΩS (ES ) × ΩR (E − ES )
et le nombre total des états accessibles à l’ensemble (R + S) est :
X
Ω(E ) = ΩS (ES ) × ΩR (E − ES )
ES
SR (ER ) = SR (E − ES ) = kB log(ΩR (E − ES ))
Fonction de partition
SR (E −ES )
⇒ ΩR (E − ES ) = e kB
dSR 1
or E ES et dER = T
dSR (E ) 1
⇒ SR (E −ES ) = SR (E )−ES +O(ES2 )+. . . ' SR (E )−ES
dER T
SR (E )
⇒ ΩR (E − ES ) ' e kB
× e −βES
1
où β = kB T
Fonction de partition
Fonction de partition
e −βEi e −βEi
pi = P −βEj =
je Z
Application
N!
Γ(n1 , n2 , . . . nM ) = Q
i ni !
avec des contraintes selon le type de notre système, par exemple:
P P
i ni = N et/ou i ni Ei = E
⇒La distribution la plus probable est celle qui maximise Γ(n1 , n2 , . . . nM ).
Il s’agit de maximiser log(Γ(n1 , n2 , . . . nM )).
Application
La fonction log Γ ressemble à l’entropie, mais l’ensemble des ni ne
spécifie pas l’état macroscopique d’un seul système mais plutôt celui
de l’ensemble de tous les systèmes qui forment l’ensemble statis-
tique.
X
log(Γ(n1 , n2 , . . . nM )) ' log(N!) − log(ni !)
i
X
' N log(N) − pi log(ni )
i
X X
' N log(N) pi − pi log(ni )
i i
X
' −N pi log(pi ).
i
P ni
ni = N ⇒
P P
Avec la contrainte i i pi = i =1
N
∂( i pi − 1)
P
1 ∂ log(Γ)
⇒ +λ =0
N ∂pi ∂pi
⇒ − log(pi ) − 1 + λ = 0
⇒ pi = e λ−1
Ce qui est bien le résultat pour l’ensemble microcanonique car toutes
les probabilités sont égales.
81/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
X M
X
pi = 1 ⇒ e λ−1 = 1
i i
1
Avec M est le nombre d’états, d’où λ = 1 + log( M )
1
⇒ pi =
M
e λ2 Ei
⇒ pi = P λ E
ie
2 i
∂F
F = E − TS ⇒ E = F + TS = F − T
∂T V ,N
∂F ∂βF
⇒E =F +β =
∂β V ,N ∂β V ,N
85/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
∂ log(Z ) ∂βF
⇒− =
∂β ∂β
⇒ F = −kβ T log(Z )
L’entropie :
∂F 1 ∂Z ∂β
S=− = kB log(Z ) + kB T
∂T V ,N Z ∂β ∂T
1 i Ei e −βEi
P
⇒ S = kB log(Z ) +
T Z
⇒ S = kB (log(Z ) + βE )
(
mi = µ ⇒ Ei = −µH
mi = −µ ⇒ Ei = µH
µe βµH − µe −βµH
⇒< m >= = µ tanh(βµH)
Z1
La magnétisation de l’ensemble des molécules est :
< M >= N < m >= Nµ tanh(βµH)
La susceptibilité magnétique est par définition la réponse du système
à l’application du champ magnétique :
∂M
χ=
∂H
88/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
n=0 n=0
− β~ω
e 2 1 1
= −β~ω
= β~ω β~ω =
1−e −
e 2 −e 2 2 sinh( β~ω
2 )
(Avec ∞ −nβ~ω est une suite géométrique).
P
n=0 e
L’énergie moyenne d’un oscillateur harmonique est:
Ei e −βEi
P
i ∂ log(Z1 )
< E1 > = =−
Z1 ∂β
~ω β~ω
= coth( )
2 2
92/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
e −β(i1 ) × e −β(i2 ) × . . .
X X
Z =
i1 i2
X −β(i1 ) N
= e
i1
= Z1N
où Z1 est la fonction de partition d’une particule. Cette égalité est
valable lorsque les particules sont :
identiques mais discernables (particules occupant les nœuds
d’un réseau)
sans interactions
Si les particules sont indiscernables (exemple : molécules dans un
Z1N
gaz) ⇒ Z = N!
95/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
sachant que
py2
Z +∞ px2
Z +∞ Z +∞ pz2 2m 1
e −β 2m dpx = e −β 2m dpy = e −β 2m dpz = ( π) 2
−∞ −∞ −∞ β
V 3
3
⇒ Z1 =
(2πmkB T ) 2
h
Si les particules étaient discernables (ce qui n’est pas correcte !), la
fonction de partition de N particules serait :
VN 3N
Z = Z1N = 3N
(2πmkB T ) 2
h
L’énergie libre de Helmholtz est :
V 3
F =< E > −TS = −kB T log(Z ) = −NkB T log 3
(2πmkB T ) 2
h
3
V
3
S = NkB log
(2πmk B T ) 2 + NkB
h3 2
Considérons une boite divisée en 2 parties identiques ayant chacune
un volume V et N particules.
L’entropie de chaque partie est :
V 3
3
S1 = S2 = NkB log (2πmk B T ) 2 + NkB
h3 2
98/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
V 3
F = −kB T log(Z ) = −NkB T log 3
(2πmkB T ) 2 + kB T log(N!)
h
V 3
= −NkB T log (2πmkB T ) + kB TN log(N) − NkB T2
h3
V 3
= −NkB T log 3
(2πmkB T ) 2 − NkB T
Nh
L’entropie S est :
∂F V 3
5
S=− = NkB log (2πmk B T ) 2 + NkB T
∂T Nh3 2
C’est la loi de Sakur-Tetrode correspondant à l’entropie de N par-
ticules classiques.
100/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
Énonce du théorème :
L’énergie moyenne d’un système dont l’énergie totale est la somme
des carrés des composantes de l’impulsion ou des coordonnés est
égale à 12 kB T fois le nombre de ces termes quadratiques.
px2 py2 p2
E= + + z
2m 2m 2m
R +∞ px2 −β px2
p2 −∞ 2m e 2m dp x px2 py2 p2 1
< x >= px2
⇒< >=< >=< z >= kB T
2m R +∞ −β 2m 2m 2m 2m 2
−∞ e dpx
p2 1
E= + kx 2
2m 2
où k est la constante de raideur.
D’après le théorème d’équipartition, l’énergie moyenne d’un oscilla-
teur harmonique est :
3 3
< E1 >= kB T + kB T = 3kB T
2 2
Pour N oscillateurs : < E >= 3NkB T
103/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
Ω(E , ES , N, NS ) = ΩS (ES , NS ) × ΩR (E − ES , N − NS )
ES µNS
⇒ log ΩR (E − ES , N − NS ) = log ΩR (E , N) − +
kB T kB T
⇒ ΩR (E − ES , N − NS ) = ΩR (E , N)e −β(ES −µNS )
⇒ La probabilité d’avoir pour le système S une énergie ES et un
nombre de particules NS est :
ΩS (ES , NS ) × ΩR (E − ES , N − NS )
p(ES , NS ) = P
NS ΩS (ES , NS ) × ΩR (E − ES , N − NS )
P
ES
ΩS (ES , NS )e −βES
X X
ZG = e βµNS
NS ES
∂( i pi − 1) pi Ei − < E >) pi Ni − N)
P P P
1 ∂Γ ∂( i ∂( i
+λ1 +λ2 +λ3 =0
N pi ∂pi ∂pi ∂pi
⇒ − log(pi ) − 1 + λ1 + λ2 Ei + λ3 Ni = 0
e −λ2 Ei −1−λ3 Ni
⇒ pi = P −λ E −1−λ N
ie
2 i 3 i
e −β(Ei −µNi )
⇒ pi = P −β(E −µN )
ie
i i
Application
Adsorption:
Les molécules d’un gaz sont parfois attirées par les solides avec
lesquelles elles sont en contact, et de temps en temps elles restent
piégées à la surface du solide : ce phénomène s’appelle adsorption,
le solide est le substrat ou adsorbant. Pour étudier ce phénomène,
on considère le modèle simplifié suivant : Un récipient de volume
V contient un gaz parfait en contact avec un solide dont la surface
contient A pièges, capables d’adsorber chacun un seul atome, dans
un état unique, d’énergie −ε. ε représente l’énergie de liaison de
l’atome dans le piège. L’ensemble est maintenu à la température T
.
Application
Soit le système constitué par les atomes adsorbés. Son nombre
de particules n’est pas fixe, car il interchange des atomes avec le
gaz, celui constitue alors le réservoir de particules et d’énergies qui
impose au système sa température T et son potentiel chimique µ.
La fonction de partition grand canonique pour un piège est :
où:
(
Ni = 0 −→ εi = 0
Ni = 1 −→ εi = ε0 (erreur à corriger)
⇒ zG = 1 + e β(ε0 +µ)
114/116 A. Lachgar Introduction à la physique statistique
Introduction
Chap. 1 : Probabilités et Statistiques
Ensemble microcanonique
Chap. 2 : Description statistique des systèmes de particules
Ensemble canonique
Chap. 3 : Les ensembles de Gibbs
Ensemble grand canonique
Application
∂J ∂ ln ZG e β(ε0 +µ)
NA = − = kB T =A
∂µ ∂µ 1 + e β(ε0 +µ)
Application
L’énergie totale des particules adsorbées est :
ε0 A
EA = −ε0 NA = −
1 + e −β(ε0 +µ)
Le potentiel grand canonique est:
J = −kB T ln(ZG ) = EA − µNA − TSA
L’entropie est:
ε0 + µ
SA = kB A ln(1 + e β(ε0 +µ) ) − NA
T
A ε0 +µ NA
or NA = 1+e −β(ε0 +µ)
⇒ kB T = ln( A−N A
)
h i
⇒ SA = kB A ln(A)−NA ln(NA )−(A−NA ) ln(A−NA ) (erreur à corriger)