Vous êtes sur la page 1sur 11

1.

Description probabiliste d’un système


physique
1.1. Introduction
L’objet de la physique statistique est de comprendre les propriétés de la matière sur la
base d’une approche microscopique. Il s’avère indispensable d’abandonner l’approche de type
mécaniste, qui prévalait au 19ème siècle et d’opter pour une approche basée sur la théorie des
probabilités. Ce type d’approche a été initié par Clausius en 1857 et Maxwell en 1860, qui sont à
l’origine de la théorie cinétique des gaz et prolongé par Boltzmann en 1868, qui a posé les bases
formelles de la physique statistique.

1.2. Notions de probabilités


L’origine des probabilités remonte à la correspondance entre Pascal et Fermat en 1654 où la
discussion porte sur la résolution du problème posé par le chevalier de Méré (voir TD 1).

1.2.1. Notion de variable aléatoire


On appelle variable aléatoire X une quantité pouvant prendre un certain nombre de valeurs
x déterminées par le résultat d’une expérience ( x ∈ à l’espace des résultats qu’on note ǫ) et
pour lesquelles on peut déterminer les probabilités PX (x).
Exemples :
— X=”Tirage d’un dé”, ǫ = {1, 2, 3, 5, 5, 6}
— X=”Nombre de 6 obtenus à chaque lancé simultanné de 3 dés”, ǫ = {0, 1, 2, 3}

1.2.2. Loi et moments d’une variable aléatoire


La loi de probabilité PX est la fonction, qui à un résultat donné de l’expérience x associe
PX (x) = Proba ({X = x}).
Soit X une variable aléatoire discrète prenant les valeurs {x1 , · · · xn }. Chaque valeur peut être
obtenue avec la probabilité P (xi ). On a donc :
Pn
i=1 P (xi ) = 1 (Normalisation)

On peut définir les moments d’ordre k de la variable aléatoire X :


Pn
hX k i = k
i=1 xi P (xi ).

On peut généraliser à une variable aléatoire continue X qui prend des valeurs dans l’intervalle
[x1 , x2 ], où x1 et x2 ∈ R. On introduit alors une densité de probabilité P (X) telle que : P (x)dx =
Prob (X ∈ [x, x + dx]). On a donc :
R x2
x1 P (x)dx = 1 (Normalisation)

4
1.2. Notions de probabilités

On peut à nouveau définir les moments d’ordre k :


Rx
hX k i = x12 xk P (x)dx.

La variance de la variable aléatoire X s’écrit alors :


2 = h(X − hXi)2 i = hX 2 i − hXi2 ,
σX
p
qu’on note également ∆X 2 et l’écart type σX = hX 2 i − hXi2 qu’on note ∆X.
Les variables aléatoires Gaussiennes sont omniprésentes en physique statistique. La densité de
probabilité s’écrit :
h 2
i
PX (x) = √ 1 2 exp − (x−m)
2σ 2 , où hXi = m et ∆X = σ.
2πσ

Remarque : On note ici que la valeur la plus probable x̃ telle que PX (x̃) est maximale se confond
avec la valeur moyenne hXi. Ce n’est pas toujours le cas.

1.2.3. Cumulants d’une variable aléatoire


On définit les cumulants à partir de :
P∞ λn
lnhexp(λX)i = n=1 n! [X n ]c ,

où [X n ]c est le cumulant d’ordre n de la variable aléatoire X. On peut alors écrire :


 
λ2 2 λ3 3
lnhexp(λX)i = ln 1 + λhXi + hX i + hX i + · · ·
2 6
en exploitant le développement en série entière de exp(λX). Comme

u2 u3
ln [1 + u] = u − + + ··· ,
2 3
on peut écrire :
λ2  2  λ3  3 
lnhexp(λX)i = λhXi + hX i − hXi2 + hX i − 3hX 2 ihXi + 2hXi3 + · · ·
2 6
On en déduit donc que :
  1
 X = hXi valeur moyenne
  2 c
 2 i − hXi2
X
 3 c = hX variance

 X c = hX 3 i − 3hX 2 ihXi + 2hXi3

···

Considérons une variable aléatoire X dont la loi de distribution est Gaussienne :


" #
1 1 (X − hXi)2
P (X) = √ exp − .
σ 2π 2 σ2

On peut introduire Y = X − hXi. On a hY i = 0 et hY 2 i = σ 2 . Par suite, on a :


 
1 1Y2
P (Y ) = √ exp − .
σ 2π 2 σ2

5
1. Description probabiliste d’un système physique

Calculons hexp(λY )i. On a :


Z ∞  
1 Y2
hexp(λY )i = √ exp − 2 + λY dY.
σ 2π −∞ 2σ
     2 2
1  1 2 λ σ
Or exp − 2 Y 2 − 2λσ 2 Y = exp − 2 Y − λσ 2 exp .
2σ 2σ 2
Il vient alors :  
λ2 σ 2
hexp(λY )i = exp .
2
Comme Y = X − hXi, on déduit que :
 
λ2 σ 2
hexp(λX)i exp(−λhXi) = exp .
2
Finalement, on obtient :  
λ2 σ 2
hexp(λX)i = exp λhXi + ,
2
d’où :
λ2 σ2
ln [hexp(λX)i] = λhXi + 2

pour une loi de distribution Gaussienne. Autrement dit, on a :


  1
 X c = hXi
X 2 c = hX 2 i − hXi2 pour une loi de distribution Gaussienne.

[X n ]c = 0 ∀ n ≥ 3

1.2.4. Théorème de la limite centrale


Le théorème de la limite centrale a été établi par Laplace qui a présenté sa démonstration à
l’académie des sciences en 1810. P
Considérons une somme de N variables aléatoires Xi indépendantes Y = N i=1 Xi avec hXi i =
0. Par hypothèse, on a :

P (X1 , · · · , XN ) = P1 (X1 ) × P2 (X2 ) · · · × PN (XN ).

Calculons hexp(λY )i. On a par définition :


Z Z
hexp(λY )i = dX1 · · · dXN P (X1 , · · · , XN ) exp [λ (X1 + · · · + XN )] ,

N Z
Y N
Y
d’où hexp(λY )i = dXj Pj (Xj ) exp[λXj ] = hexp[λXj ]ij .
j=1 j=1

Il vient donc :
N
X
ln [hexp(λY )i] = lnhexp[λXj ]ij .
j=1

On en déduit alors que :


PN h i
[Y n ]c = j=1 Xjn si les Xj sont des variables aléatoires indépendantes
c

6
1.2. Notions de probabilités

En particulier, si les Xj sont des variables aléatoires indépendantes et Gaussiennes, on a :


 n
Xj c = 0 ∀ n ≥ 3.

Par conséquent, on a :
[Y n ]c = 0 ∀ n ≥ 3.
La variable aléatoire Y est donc Gaussienne.

Si les Xj sont des variables aléatoires indépendantes et Gaus-


siennes, leur somme Y est aussi Gaussienne.
PN La distribution de Y
est complètement déterminée par hY i = j=1 hXj i et hY i−hY i2 =
2
PN h 2 i
2 .
j=1 hX j i − hXj i

Supposons maintenant que les Xi sont indépendantes  avec


 chacune la même loi de probabilité :
[Xin ]c = [X n ]c ∀ i ∈ N. On suppose également que X 1 c = 0. Autrement dit, hXi i = 0 ∀i ∈ N.
On a également [Y n ]c = N [X n ]c car les variables aléatoires sont indépendantes. En particulier,
on a :

hY i = 0
hY 2 i = N hX 2 i

La valeur typique de Y est de l’ordre de N . Il est donc naturel de s’intéresser à Ỹ = √YN . On
a:

X λn n
ln [hexp(λY )i] = [Y ]c ,
n!
n=1

d’où :
∞ ∞
h i X λn h n i X λn 1
ln hexp(λỸ )i = Ỹ = [Y n ]c .
n! c n! N n/2
n=1 n=1

Par conséquent, on a :
h i n
Ỹ n = 1
N n/2
[Y n ]c = N 1− 2 [X n ]c
c | {z }
N [X n ]c

La variance de Ỹ est constante maisP tous les cumulants d’ordre n ≥ 3 tendent vers 0 quand
N → ∞. Autrement dit, Ỹ = √1N N i=1 Xi tend vers une distribution Gaussienne de variance
hX 2 i quand N → ∞. Il s’agit du théorème de la limite centrale.
Remarque : La loi de distribution Gaussienne est une loi ”attractive” vers laquelle convergent
les lois de distribution des sommes d’un grand nombre de variables aléatoires indépendantes,
pourvu que la variance de chacune d’entre elle soit finie.

1.2.5. Application du théorème de la limite centrale


Considérons un gaz de N particules enfermées dans une boı̂te de volume V . On considère alors
une région de volume v à l’intérieur de la boı̂te et on cherche à déterminer la loi de distribution
caractérisant le nombre de particules n dans le volume v. Intuitivement, on a en moyenne N V v
molécules dans le volume v. Toutefois, le nombre de particules fluctue car des particules entrent

7
1. Description probabiliste d’un système physique

et sortent en permanence. On pose α = Vv . Chaque particule a une probabilité α d’être dans la


région de volume v et (1 − α) d’être en dehors. On introduit alors une variable aléatoire ξi qui
vaut 1 lorsque la particule i est dans le volume v et 0 autrement. On a :

hξi i = α × 1 + (1 − α) × 0 = α

On a également :
hξi2 i = α × 1 + (1 − α) × 0 = α
Par suite, on a :
∆ξi2 = hξi2 i − hξi2 i2 = α − α2 .
Autrement dit, la variance de la variable aléatoire ξi s’écrit :

∆ξi2 = α [1 − α]

On considère alors la variables aléatoires indépendantes :

n = ξ1 + · · · + ξN

On a alors : 
hni = N hξ1 i = N α
∆n2 = N ∆ξ12 = N α [1 − α]
D’après le théorème de la limite centrale, on a :
h i
1 (n−hni)2
P (n) → √ exp − 2N α(1−α)
2πN α(1−α)

p
On obtient une Gaussienne centrée sur hni = N α d’écart type N α (1 − α). On note que :
r
∆n 1 1−α
=√ .
hni N α

Si N ≡ 1024 , on a ∆n/hni ≡ 10−12 . Autrement dit, les fluctuations sont 1012 plus petites que la
valeur moyenne.

1.2.6. Marche au hasard en dimension 1


La marche au hasard est extrèmement importante puisqu’elle est à la base de la compréhension
du mouvement Brownien (1827), des phénomènes de diffusion et trouve également des applica-
tions dans la finance.
On considère un marcheur qui effectue un pas +δx avec la probabilité p et un pas −δx avec
une probabilité q = 1 − p tous les pas de temps δt. On s’intéresse à la variable aléatoire x(t)
définissant la position du marcheur à l’instant t.
On se donne un nombre de pas N = δtt . On a alors :

x = nδx − (N − n)δx,

où n représente le nombre de pas vers la droite (n ∈ [0, N ]). Par conséquent, on a :

x = [2n − N ] δx.

8
1.2. Notions de probabilités

La probabilité de P (n, N ) de faire n pas vers la droite s’écrit :

n pn (1 − p)N −n (Loi binomiale)


P (n, N ) = CN
| {z }
q

Remarque : Si p = q = 12 , P (n, N ) représente la probabilité d’obtenir n piles lors du lancer


simultanné de N pièces de monnaies.
On note que P (n, N ) est bien normalisée. En effet, on a :
PN PN
n=0 P (n, N ) = n n N −n
n=0 CN p q = (p + q)N = 1.

On peut alors calculer les valeurs moyennes.


N
X N
X
n
hni = nP (n, N ) = p CN npn−1 q N −n
n=0
|n=1 {z }
A

On peut facilement calculer A en considérant que p et q sont des variables indépendantes :


"N #
∂ X n n N −n ∂
A= CN p q = [p + q]N = N [p + q]N −1 .
∂p ∂p
n=0

Cette relation est valable ∀p, ∀q. Pour q = 1 − p, on obtient A = N . On en déduit alors que :

hni = pN.

De même, on a :
N N
X X ∂2
hn2 i = n2 P (n, N ) = n
CN [n(n − 1) + n] pn q N −n = p2 (p + q)N + hni,
∂p2
n=0 n=0

d’où :

hn2 i = N (N − 1)p2 (p + q)N −2 + hni = N (N − 1)p2 + N p = N p [(N − 1)p + 1] .


| {z }
1

On en déduit alors que :

∆n2 = hn2 i − hni2 = N p [(N − 1)p + 1 − N p] = N pq.

Sachant que x = (2n − N )δx, il vient :

√ q
∆x = 2∆nδx = 2 N pqδx = 2 pq δtt δx.

Le comportement en t est caractéristique d’un phénomène de diffusion. On a également :

hxi = [2hni − N ] δx = N [2p − 1] δx = [2p − 1] δx


δt t.

Cette dernière équation illustre le mouvement de dérive à vitesse constante. On note également,
ainsi que l’on pouvait s’y attendre, que hxi = 0 lorsque p = 1/2.

9
1. Description probabiliste d’un système physique

Remarque
P : On peut écrire x comme une somme de N variables aléatoires indépendantes :
x= Ni=1 x i , où xi = +δx avec la probabilité p et xi = −δx avec la probabilité q. On a donc :

hxi i = pδx + (1 − p)(−δx) = [2p − 1] δx.

On a également :
hx2i i = pδx2 + (1 − p)δx2 = δx2 .
Par suite, on a :
 
∆x2i = hx2i i − hxi i2 = 1 − (2p − 1)2 δx2 = (2 − 2p)(2p)δx2 = 4pqδx2 .

Le théorème de la limite centrale explicité dans la partie 1.2.4 prévoit que la loi de distribution
de x converge, lorsque N → ∞ vers une Gaussienne donnée par :
h 2
i
P (x) → √ 1
exp − (x−hxi)
2N δx 2 ,
2πN δx2i i

où : 
hxi = N hxi i = N [2p − 1] δx
∆x2 = N ∆x2i = 4N pqδx2
On retrouve les résultats précédents pour hxi et ∆x2 mais on connaı̂t désormais la loi de distri-
bution de x.

1.3. Description d’un système macroscopique


1.3.1. Introduction
Un état macroscopique est spécifié par des contraintes externes (champ magnétique, pression,
...). Le point clé est qu’un très grand nombre d’états microscopiques correspondent au même
état macroscopique. Nous allons ici expliquer comment on définit les microétats caractérisant
l’état microscopique du système dans une approche quantique et classique.

1.3.2. Microétats quantiques


En mécanique quantique, on décrit un système comportant f degrés de liberté par un hamil-
tonien :
f
X p2i
H= + V (q1 , · · · , qf ) .
2mi | {z }
i=1
| {z } Ep
Ec

On a :  
 
p~ = p1,x , p1,y , p1,z ; p2,x , p2,y , p2,z , · · · , pN,x , pN,y , pN,z  .
| {z } | {z } | {z }
p~1 p~2 p~N

et  
 
q = q1,x , q1,y , q1,z ; q2,x , q2,y , q2,z , · · · , qN,x , qN,y , qN,z  .
~
| {z } | {z } | {z }
q~1 q~2 q~N

10
1.3. Description d’un système macroscopique

Ici, les degrés de liberté sont les f = 3N coordonnées généralisées qi , auxquelles on peut
éventuellement ajouter les variables de spin. En mécanique quantique, on est amené à résoudre :

HΨ(q1 , · · · , qf ) = EΨ(q1 , · · · , qf ).

Les énergies E sont quantifiées et un micro-état est complètement défini par la donnée de f
nombres quantiques.
Exemples :
— Considérons une particule de masse m (sans spin) contenue dans une boı̂te cubique d’arête
L. L’hamiltonien H décrivant cette particule s’écrit :
 
~2 ~2 ∂ 2 ∂2 ∂2
H =− ∆=− + + .
2m 2m ∂x2 ∂y 2 ∂z 2

~2~k2
HΨ(x, y, z) = EΨ(x, y, z) ⇒ Ψ(x, y, z) = A sin [kx x] sin [ky y] sin [kz z] avec E = .
2m
Comme Ψ(L, y, z) = Ψ(x, L, z) = Ψ(x, y, L) = 0, il vient :

sin [kx L] = sin [ky L] = sin [kz L] = 0.

Par suite, on a :
n1 π n2 π n3 π
kx = ; ky = ; kz = où n1 , n2 , n3 ∈ N∗ .
L L L
Il vient donc :
~2 π 2

E(n1 ,n2 ,n3 ) = 2mL2
n21 + n22 + n23 .

Un microétat est ici spécifié par la donnée de 3 nombres entiers positifs. Le microétat
d’un gaz parfait constitué de N particules libres sans interactions est donc caractérisé par
f = 3N entiers ni > 0, où i = 1, · · · , 3N lorsqu’on ne tient pas compte du spin. Nous
verrons plus tard que le caractère fermionique ou bosonique des particules joue un rôle clé
dans la définition des microétats.
— Considérons un oscillateur harmonique quantique à une dimension. Son état quantique est
décrit par un entier n et son énergie est donnée par :

1

En = n + 2 ~ω, où n ∈ N.

Un solide constitué de N atomes peut être ramené, du point de vue vibrationnel, à


un ensemble de 3N oscillateurs harmoniques indépendants lorsque l’on se limite à un
développement quadratique de l’énergie potentielle d’interaction (Approximation harmo-
nique). Le microétat d’un tel système est donc caractérisé par f = 3N nombres entiers
ni ≥ 0. L’énergie du système s’écrit alors sous la forme :
P3N 1

E(n1 ,··· ,n3N ) = i=1 ni + 2 ~ωi ,

où (n1 , · · · , n3N ) sont les nombres caractérisant le microétat. Ces nombres peuvent être
interprétés comme les nombres de phonons (quantum de vibration) dans chacun des modes
labellé par un indice i.

11
1. Description probabiliste d’un système physique

1
— L’état quantique d’une particule de spin 2 est spécifié par la projection du spin sur un axe
donné (axe de quantification). On a :
1 1 ~ 1 1
Sz | , ± i = ± | , ± i
2 2 2 2 2

Au spin S, ~ on associe un moment magnétique m ~ où g = 2 pour un électron et


~ = −g µ~B S
e~
µB = 2m > 0 (µB est appelé magnéton de Bohr). De façon générale, on peut écrire m ~ =
~
γ S, où γ représente le rapport gyromagnétique (γ < 0 pour un électron). L’hamiltonien
décrivant l’interaction du spin avec un champ magnétique B ~ s’écrit :

hZ = −m.
~ B~ = −γBSz si B
~ = B e~z .

On a donc :
1 1 γB~ 1 1 1 1
hz | , ± i = ∓ | , ± i = −µBs| , ± i,
2 2 2 2 2 2 2
 1 1
s = +1 pour | 2 , + 2 i
où
s = −1 pour | 21 , − 12 i
Il vient donc Es = −µBs où µ = γ~/2. Finalement, on a :

Es=+1 = −µB pour | ↑i
Es=−1 = +µB pour | ↓i

Si l’on étudie les propriétés magnétiques d’un solide cristallin constitué de N atomes, qu’on
peut ramener à un ensemble de N spins 12 , alors un microétat du système est caractérisé
par la donnée de f = N variables de spin si = ±1, où i = 1, · · · , N . L’énergie du système
de spins s’écrit alors :
N
X XN
E(s1 ,··· ,sN ) = −µB si = Esi .
i=1 i=1

On peut représenter un état propre par :

|+, −, · · · , +i = |+i1 ⊗ |−i2 · · · ⊗ |+iN .

1.3.3. Microétats classiques


Le microétat d’un système constitué de N particules est donné par N vecteurs positions ~rj et
N vecteurs impulsions ~
pj . On le notera :

(~
q , p~) = {~rj , p~j } = {qi , pi } ,

où i ∈ 1, · · · f . Pour des particules évoluant dans un espace de dimension d, on a :

f = dN .

L’évolution des microétats d’un système classique est donnée par les équations de Hamilton :

∂H ∂H
∂pi = q̇i et ∂qi = −ṗi .

Connaissant le microétat initial {qi (0), pi (0)}, on peut résoudre les 2f équations différentielles
couplées et obtenir l’évolution temporelle du microétat {qi (t), pi (t)}. A un microétat donné,

12
1.3. Description d’un système macroscopique

on associe un point unique dans un espace abstrait à 2f dimensions, qu’on appelle espace des
phases.
Prenons l’exemple d’un oscillateur harmonique (N = 1) de pulsation ω à une dimension
(d = 1). On a donc f = N d = 1. Son hamiltonien s’écrit :
p2
H(q, p) = 2m + 21 mω 2 q 2 = E, .

où E est l’énergie du système fixée par les conditions initiales : (q(0), p(0)). On a :
p2 mω 2 2
2mE + 2E q = 1. .
√ p
Il s’agit de l’équation d’une ellipse de demi-axe 2mE et 2E/mω 2 . Le microétat dans l’espace
des phases de dimension 2f = 2 décrit une ellipse. Pour N particules évoluant dans un espace à
{pi }

{qi }

Figure 1.1. – Représentation symbolique de l’espace des phases.

3 dimensions, l’espace des phases a pour dimension 6N , qu’on ne peut pas représenter. Symbo-
liquement, on place l’ensemble des f = 3N coordonnées en abscisse et l’ensemble des f = 3N
impulsions en ordonnée (voir Figure 1.1). On peut noter que l’hamiltonien d’un système isolé
ne dépend pas explicitement du temps et que l’énergie est conservée. Les microétats explorés
par le système au cours de son évolution ont tous la même énergie et la trajectoire de son point
représentatif est localisé dans un sous-espace de dimension 2f − 1 de l’espace des phases, qu’on
appelle hypersurface.
Terminons cette partie en évoquant le domaine de validité de l’approximation classique. L’ap-
proximation classique est valable lorsque l’action A est très grande devant ~, où A est homogène
à [Energie x Temps] ou encore à [Longueur x Impulsion]. La théorie cinétique des gaz nous
enseigne que l’on a p2 /2m = 3kB T /2 pour N √ particules n’interagissant pas et évoluant dans
une boı̂te de volume V . Par suite, on a p = 3mkB T . On peut également introduire une lon-
gueur caractéristique l définie par par l = (V /N )1/3 . Par conséquent, la description classique est
valable si :
~
A ≫ ~ ⇐⇒ l ≫ √3mk T
≡λ
B

Considérons, pour fixer les idées, un gaz de dihydrogène dans des conditions standards de
 1/3
kB T
température et de pression. On a p = N k
V B T (loi des gaz parfaits), d’où l = P .
Application numérique :
 1/3
1.38 × 10−23 × 3 × 102  
−26 1/3
l∼ ∼ 4 × 10 ∼ 30 Å.
105
On a également : m ≡ 2 × 2 × 103 × 10−30 kg ∼ 4 × 10−27 kg. Par suite, il vient :
10−34 1
λ∼ √ ∼ × 10−34 × 1024 ∼ 0.1 Å.
3 × 4 × 10−27 × 1.38 × 10−23 × 3 × 102 7

13
1. Description probabiliste d’un système physique

On en déduit donc que l’approche classique est valable puisque l ≫ λ. On retiendra que l’ap-
proche classique est valable dans un régime de haute température et de basse densité.

1.3.4. Equilibre thermodynamique


Les paramètres extérieurs sont fixés par définition. En revanche, une variable interne A(~q(t), p~(t))
varie en permanence au cours du temps, même à l’équilibre. Expérimentalement, on mesure :

1
R t0 +texp
A= texp t0 A(~q(t), p~(t))dt,

où texp représente la durée de l’expérience. Tant que le système n’a pas atteint l’équilibre, A
dépend de l’instant t0 à partir duquel on commence la mesure. Une fois l’équilibre atteint, A
prend une valeur quasiment constante égale à Aeq indépendante de t0 et de texp (la durée texp
doit être suffisamment longue).

1.3.5. Ensembles statistiques


Nous venons de voir que pour un système à l’équilibre, une variable interne A fluctue autour
de sa valeur moyenne temporelle A, égale à la valeur d’équilibre Aeq . Notons Am sa valeur à
l’instant t = mδt où m ∈ N et δt est un intervalle de temps donné. La moyenne temporelle peut
s’écrire :
1 PM
Aeq = M m=1 Am avec M ≫ 1.

Nous pouvons changer de point de vue et interpréter cette équation non pas comme une moyenne
temporelle effectuée sur un système unique mais comme une moyenne d’ensemble réalisée avec
M ≫ 1 systèmes identiques considérés à un instant donné dans des microétats à priori différents
et indépendants les uns des autres. Cet ensemble imaginaire de systèmes identiques (caractérisés
par le même hamiltonien et les mêmes paramètres extérieurs) est appelé ensemble statistique.
Dans ce formalisme, il n’y a plus de dynamique (le temps n’intervient plus). Une variable interne
A devient alors une variable aléatoire caractérisée par une distribution de probabilité P (A). Sa
valeur moyenne A est alors remplacée par une valeur moyenne statistique, appelée moyenne
d’ensemble et notée hAi. Le postulat fondamental de la physique statistique à l’équilibre est :

A = hAi à l’équilibre

14

Vous aimerez peut-être aussi