Académique Documents
Professionnel Documents
Culture Documents
On peut généraliser à une variable aléatoire continue X qui prend des valeurs dans l’intervalle
[x1 , x2 ], où x1 et x2 ∈ R. On introduit alors une densité de probabilité P (X) telle que : P (x)dx =
Prob (X ∈ [x, x + dx]). On a donc :
R x2
x1 P (x)dx = 1 (Normalisation)
4
1.2. Notions de probabilités
Remarque : On note ici que la valeur la plus probable x̃ telle que PX (x̃) est maximale se confond
avec la valeur moyenne hXi. Ce n’est pas toujours le cas.
u2 u3
ln [1 + u] = u − + + ··· ,
2 3
on peut écrire :
λ2 2 λ3 3
lnhexp(λX)i = λhXi + hX i − hXi2 + hX i − 3hX 2 ihXi + 2hXi3 + · · ·
2 6
On en déduit donc que :
1
X = hXi valeur moyenne
2 c
2 i − hXi2
X
3 c = hX variance
X c = hX 3 i − 3hX 2 ihXi + 2hXi3
···
5
1. Description probabiliste d’un système physique
N Z
Y N
Y
d’où hexp(λY )i = dXj Pj (Xj ) exp[λXj ] = hexp[λXj ]ij .
j=1 j=1
Il vient donc :
N
X
ln [hexp(λY )i] = lnhexp[λXj ]ij .
j=1
6
1.2. Notions de probabilités
Par conséquent, on a :
[Y n ]c = 0 ∀ n ≥ 3.
La variable aléatoire Y est donc Gaussienne.
d’où :
∞ ∞
h i X λn h n i X λn 1
ln hexp(λỸ )i = Ỹ = [Y n ]c .
n! c n! N n/2
n=1 n=1
Par conséquent, on a :
h i n
Ỹ n = 1
N n/2
[Y n ]c = N 1− 2 [X n ]c
c | {z }
N [X n ]c
La variance de Ỹ est constante maisP tous les cumulants d’ordre n ≥ 3 tendent vers 0 quand
N → ∞. Autrement dit, Ỹ = √1N N i=1 Xi tend vers une distribution Gaussienne de variance
hX 2 i quand N → ∞. Il s’agit du théorème de la limite centrale.
Remarque : La loi de distribution Gaussienne est une loi ”attractive” vers laquelle convergent
les lois de distribution des sommes d’un grand nombre de variables aléatoires indépendantes,
pourvu que la variance de chacune d’entre elle soit finie.
7
1. Description probabiliste d’un système physique
hξi i = α × 1 + (1 − α) × 0 = α
On a également :
hξi2 i = α × 1 + (1 − α) × 0 = α
Par suite, on a :
∆ξi2 = hξi2 i − hξi2 i2 = α − α2 .
Autrement dit, la variance de la variable aléatoire ξi s’écrit :
∆ξi2 = α [1 − α]
n = ξ1 + · · · + ξN
On a alors :
hni = N hξ1 i = N α
∆n2 = N ∆ξ12 = N α [1 − α]
D’après le théorème de la limite centrale, on a :
h i
1 (n−hni)2
P (n) → √ exp − 2N α(1−α)
2πN α(1−α)
p
On obtient une Gaussienne centrée sur hni = N α d’écart type N α (1 − α). On note que :
r
∆n 1 1−α
=√ .
hni N α
Si N ≡ 1024 , on a ∆n/hni ≡ 10−12 . Autrement dit, les fluctuations sont 1012 plus petites que la
valeur moyenne.
x = nδx − (N − n)δx,
où n représente le nombre de pas vers la droite (n ∈ [0, N ]). Par conséquent, on a :
x = [2n − N ] δx.
8
1.2. Notions de probabilités
Cette relation est valable ∀p, ∀q. Pour q = 1 − p, on obtient A = N . On en déduit alors que :
hni = pN.
De même, on a :
N N
X X ∂2
hn2 i = n2 P (n, N ) = n
CN [n(n − 1) + n] pn q N −n = p2 (p + q)N + hni,
∂p2
n=0 n=0
d’où :
√ q
∆x = 2∆nδx = 2 N pqδx = 2 pq δtt δx.
√
Le comportement en t est caractéristique d’un phénomène de diffusion. On a également :
Cette dernière équation illustre le mouvement de dérive à vitesse constante. On note également,
ainsi que l’on pouvait s’y attendre, que hxi = 0 lorsque p = 1/2.
9
1. Description probabiliste d’un système physique
Remarque
P : On peut écrire x comme une somme de N variables aléatoires indépendantes :
x= Ni=1 x i , où xi = +δx avec la probabilité p et xi = −δx avec la probabilité q. On a donc :
On a également :
hx2i i = pδx2 + (1 − p)δx2 = δx2 .
Par suite, on a :
∆x2i = hx2i i − hxi i2 = 1 − (2p − 1)2 δx2 = (2 − 2p)(2p)δx2 = 4pqδx2 .
Le théorème de la limite centrale explicité dans la partie 1.2.4 prévoit que la loi de distribution
de x converge, lorsque N → ∞ vers une Gaussienne donnée par :
h 2
i
P (x) → √ 1
exp − (x−hxi)
2N δx 2 ,
2πN δx2i i
où :
hxi = N hxi i = N [2p − 1] δx
∆x2 = N ∆x2i = 4N pqδx2
On retrouve les résultats précédents pour hxi et ∆x2 mais on connaı̂t désormais la loi de distri-
bution de x.
On a :
p~ = p1,x , p1,y , p1,z ; p2,x , p2,y , p2,z , · · · , pN,x , pN,y , pN,z .
| {z } | {z } | {z }
p~1 p~2 p~N
et
q = q1,x , q1,y , q1,z ; q2,x , q2,y , q2,z , · · · , qN,x , qN,y , qN,z .
~
| {z } | {z } | {z }
q~1 q~2 q~N
10
1.3. Description d’un système macroscopique
Ici, les degrés de liberté sont les f = 3N coordonnées généralisées qi , auxquelles on peut
éventuellement ajouter les variables de spin. En mécanique quantique, on est amené à résoudre :
HΨ(q1 , · · · , qf ) = EΨ(q1 , · · · , qf ).
Les énergies E sont quantifiées et un micro-état est complètement défini par la donnée de f
nombres quantiques.
Exemples :
— Considérons une particule de masse m (sans spin) contenue dans une boı̂te cubique d’arête
L. L’hamiltonien H décrivant cette particule s’écrit :
~2 ~2 ∂ 2 ∂2 ∂2
H =− ∆=− + + .
2m 2m ∂x2 ∂y 2 ∂z 2
~2~k2
HΨ(x, y, z) = EΨ(x, y, z) ⇒ Ψ(x, y, z) = A sin [kx x] sin [ky y] sin [kz z] avec E = .
2m
Comme Ψ(L, y, z) = Ψ(x, L, z) = Ψ(x, y, L) = 0, il vient :
Par suite, on a :
n1 π n2 π n3 π
kx = ; ky = ; kz = où n1 , n2 , n3 ∈ N∗ .
L L L
Il vient donc :
~2 π 2
E(n1 ,n2 ,n3 ) = 2mL2
n21 + n22 + n23 .
Un microétat est ici spécifié par la donnée de 3 nombres entiers positifs. Le microétat
d’un gaz parfait constitué de N particules libres sans interactions est donc caractérisé par
f = 3N entiers ni > 0, où i = 1, · · · , 3N lorsqu’on ne tient pas compte du spin. Nous
verrons plus tard que le caractère fermionique ou bosonique des particules joue un rôle clé
dans la définition des microétats.
— Considérons un oscillateur harmonique quantique à une dimension. Son état quantique est
décrit par un entier n et son énergie est donnée par :
1
En = n + 2 ~ω, où n ∈ N.
où (n1 , · · · , n3N ) sont les nombres caractérisant le microétat. Ces nombres peuvent être
interprétés comme les nombres de phonons (quantum de vibration) dans chacun des modes
labellé par un indice i.
11
1. Description probabiliste d’un système physique
1
— L’état quantique d’une particule de spin 2 est spécifié par la projection du spin sur un axe
donné (axe de quantification). On a :
1 1 ~ 1 1
Sz | , ± i = ± | , ± i
2 2 2 2 2
hZ = −m.
~ B~ = −γBSz si B
~ = B e~z .
On a donc :
1 1 γB~ 1 1 1 1
hz | , ± i = ∓ | , ± i = −µBs| , ± i,
2 2 2 2 2 2 2
1 1
s = +1 pour | 2 , + 2 i
où
s = −1 pour | 21 , − 12 i
Il vient donc Es = −µBs où µ = γ~/2. Finalement, on a :
Es=+1 = −µB pour | ↑i
Es=−1 = +µB pour | ↓i
Si l’on étudie les propriétés magnétiques d’un solide cristallin constitué de N atomes, qu’on
peut ramener à un ensemble de N spins 12 , alors un microétat du système est caractérisé
par la donnée de f = N variables de spin si = ±1, où i = 1, · · · , N . L’énergie du système
de spins s’écrit alors :
N
X XN
E(s1 ,··· ,sN ) = −µB si = Esi .
i=1 i=1
(~
q , p~) = {~rj , p~j } = {qi , pi } ,
f = dN .
L’évolution des microétats d’un système classique est donnée par les équations de Hamilton :
∂H ∂H
∂pi = q̇i et ∂qi = −ṗi .
Connaissant le microétat initial {qi (0), pi (0)}, on peut résoudre les 2f équations différentielles
couplées et obtenir l’évolution temporelle du microétat {qi (t), pi (t)}. A un microétat donné,
12
1.3. Description d’un système macroscopique
on associe un point unique dans un espace abstrait à 2f dimensions, qu’on appelle espace des
phases.
Prenons l’exemple d’un oscillateur harmonique (N = 1) de pulsation ω à une dimension
(d = 1). On a donc f = N d = 1. Son hamiltonien s’écrit :
p2
H(q, p) = 2m + 21 mω 2 q 2 = E, .
où E est l’énergie du système fixée par les conditions initiales : (q(0), p(0)). On a :
p2 mω 2 2
2mE + 2E q = 1. .
√ p
Il s’agit de l’équation d’une ellipse de demi-axe 2mE et 2E/mω 2 . Le microétat dans l’espace
des phases de dimension 2f = 2 décrit une ellipse. Pour N particules évoluant dans un espace à
{pi }
{qi }
3 dimensions, l’espace des phases a pour dimension 6N , qu’on ne peut pas représenter. Symbo-
liquement, on place l’ensemble des f = 3N coordonnées en abscisse et l’ensemble des f = 3N
impulsions en ordonnée (voir Figure 1.1). On peut noter que l’hamiltonien d’un système isolé
ne dépend pas explicitement du temps et que l’énergie est conservée. Les microétats explorés
par le système au cours de son évolution ont tous la même énergie et la trajectoire de son point
représentatif est localisé dans un sous-espace de dimension 2f − 1 de l’espace des phases, qu’on
appelle hypersurface.
Terminons cette partie en évoquant le domaine de validité de l’approximation classique. L’ap-
proximation classique est valable lorsque l’action A est très grande devant ~, où A est homogène
à [Energie x Temps] ou encore à [Longueur x Impulsion]. La théorie cinétique des gaz nous
enseigne que l’on a p2 /2m = 3kB T /2 pour N √ particules n’interagissant pas et évoluant dans
une boı̂te de volume V . Par suite, on a p = 3mkB T . On peut également introduire une lon-
gueur caractéristique l définie par par l = (V /N )1/3 . Par conséquent, la description classique est
valable si :
~
A ≫ ~ ⇐⇒ l ≫ √3mk T
≡λ
B
Considérons, pour fixer les idées, un gaz de dihydrogène dans des conditions standards de
1/3
kB T
température et de pression. On a p = N k
V B T (loi des gaz parfaits), d’où l = P .
Application numérique :
1/3
1.38 × 10−23 × 3 × 102
−26 1/3
l∼ ∼ 4 × 10 ∼ 30 Å.
105
On a également : m ≡ 2 × 2 × 103 × 10−30 kg ∼ 4 × 10−27 kg. Par suite, il vient :
10−34 1
λ∼ √ ∼ × 10−34 × 1024 ∼ 0.1 Å.
3 × 4 × 10−27 × 1.38 × 10−23 × 3 × 102 7
13
1. Description probabiliste d’un système physique
On en déduit donc que l’approche classique est valable puisque l ≫ λ. On retiendra que l’ap-
proche classique est valable dans un régime de haute température et de basse densité.
1
R t0 +texp
A= texp t0 A(~q(t), p~(t))dt,
où texp représente la durée de l’expérience. Tant que le système n’a pas atteint l’équilibre, A
dépend de l’instant t0 à partir duquel on commence la mesure. Une fois l’équilibre atteint, A
prend une valeur quasiment constante égale à Aeq indépendante de t0 et de texp (la durée texp
doit être suffisamment longue).
Nous pouvons changer de point de vue et interpréter cette équation non pas comme une moyenne
temporelle effectuée sur un système unique mais comme une moyenne d’ensemble réalisée avec
M ≫ 1 systèmes identiques considérés à un instant donné dans des microétats à priori différents
et indépendants les uns des autres. Cet ensemble imaginaire de systèmes identiques (caractérisés
par le même hamiltonien et les mêmes paramètres extérieurs) est appelé ensemble statistique.
Dans ce formalisme, il n’y a plus de dynamique (le temps n’intervient plus). Une variable interne
A devient alors une variable aléatoire caractérisée par une distribution de probabilité P (A). Sa
valeur moyenne A est alors remplacée par une valeur moyenne statistique, appelée moyenne
d’ensemble et notée hAi. Le postulat fondamental de la physique statistique à l’équilibre est :
A = hAi à l’équilibre
14