Vous êtes sur la page 1sur 53

PROGRAMME :

Chapitre 1 : Description statistique d’un système

Chapitre 2 : Distribution d’équilibre de Boltzmann Gibbs

Chapitre 3 : Mécanique Statistique de Non équilibre

Chapitre 4 : Equation de Boltzmann

Chapitre 5 : Phénomène de transport

Chapitre 6 : Processus stochastiques

1
Chapitre I :

Description statistique d’un système

I- Description statistique d’un système


Un état parfaitement connu est caractérisé en Mécanique classique par la donne des
positions et des impulsions de N particules (qi , pi). En Mécanique Quantique par un vecteur
I > de l’espace de Hilbert

En mécanique Statistique, les états sont imparfaitement connus, d’où la nécessité d’un
nouveau formalisme.

I- 1 Système quantique
En Mécanique Quantique, à chaque espèce est associé un espace de Hilbert.

- Etat pur d’un système,

Un état pur ou « complément préparé » de ce système est d’une part caractérisé par un
vecteur de l’espace de Hilbert et par une probabilité égale à 0 ou 1 d’autre part. Dans la
pratique, il arrive fréquemment que la préparation ne soit pas complète : on ne mesure pas
simultanément un ensemble complet de variables dynamiques compatibles. Dans ce cas, la
fonction d’onde du système n’est pas complètement déterminée, c’est l’état mélange

- L’état du système est un mélange.

Soit I λ> les divers états possibles

pλ la probabilité d’être dans l’état Iλ>, on doit être normé cette probabilité.

∑𝜆 p𝜆 = 1, ou pour un spectre continu ∫ 𝑑𝜆p𝜆 = 1

Soit A une observable, la mesure de A est définie par :

𝐴̂ |ψλ > = aλ |ψλ >


(I.1)

Dans le cas d’un mélange statistique, la valeur moyenne de A est:

< 𝐴̂ >= ∑𝜆 𝑝𝜆 𝑎𝜆 = ∑𝜆 𝑝𝜆 < 𝜑𝜆 |𝐴̂|𝜑𝜆 > (I.2)

On définit l’opérateur densité du système par :

𝜌̂ = ∑𝜆 𝑝𝜆 |𝜑𝜆 >< 𝜑𝜆 | (I.3)

2
Qui présente les propriétés :

• T𝑟𝜌̂ = T = 1
• < 𝐴̂> = Tr 𝜌̂ 𝐴̂
(I.4)

Pour les démontrer, commençons par constater que :

(|𝜑𝜆 >< 𝜑𝜆 |)2 = |𝜑𝜆 >< 𝜑𝜆 | (I.5)

(découle simplement de l’orthogonalité des kets |𝜑𝜆 > )

|𝜑𝜆 >< 𝜑𝜆 | est un projecteur. Ses valeurs propres sont 0 ou 1. En effet :

|𝜑𝜆 >< 𝜑𝜆 |𝜑𝜆′ > = 𝛿𝜆 𝜆′ |𝜑𝜆 > (I.6)

On en déduit que ; Tr𝜌̂ = = 1

Tr 𝜌̂ 𝐴̂ = ∑𝜆 𝑝𝜆 |𝜑𝜆 >< 𝜑𝜆 |𝐴̂ = ∑𝜆 𝑝𝜆 𝑇𝑟 |𝜑𝜆 >< 𝜑𝜆 |𝐴̂

= ∑𝜆 𝑝𝜆 𝑇𝑟 (|𝜑𝜆 >< 𝜑𝜆 |)2 𝐴̂

= ∑𝜆 𝑝𝜆 𝑇𝑟 |𝜑𝜆 >< 𝜑𝜆 | 𝜑𝜆 >< 𝜑𝜆 | 𝐴̂

= ∑𝜆 𝑝𝜆 𝑇𝑟 < 𝜑𝜆 |𝐴̂| 𝜑𝜆 > = < 𝐴̂ >

L’opérateur densité permet de calculer la valeur moyenne de toute observable.

Toute l’information sur l’état d’un système est contenu dans l’opérateur densité 𝜌̂ ;

- Propriétés de l’opérateur densité 𝝆


̂

* l’opérateur densité 𝜌̂ est hermétique : 𝜌̂ = 𝜌̂ +

* ∀|𝜙 >; ⟨Φ|𝜌̂|Φ⟩ ≥ 0 ; 𝜌̂ est semi défini positif

* ∑𝜆 𝑝𝜆 ⟨Φ|𝜓𝜆 ⟩⟨𝜓𝜆 |Φ⟩ = ∑𝜆 𝑝𝜆 (⟨Φ|𝜓𝜆 ⟩)2

* L’inégalité de Schwartz implique :

|⟨Φ|𝜓𝜆 ⟩|2 ≤ ⟨Φ|Φ⟩⟨𝜓𝜆 |𝜓𝜆 ⟩

Donc ; ⟨Φ|𝜌̂|Φ⟩ ≤ ⟨Φ|Φ⟩

Remarques

* Le formalisme de l’opérateur densité traite au pied d’égalité les états purs et les états de
mélange statistique, en effet un état pur est représenté par l’opérateur densité :

𝜌̂ = |𝜓〉〈𝜓|

3
* Le formalisme de l’opérateur densité élimine, le facteur de phase arbitraire de la fonction
d’onde car :

𝜌̂ = 𝑒 𝑖𝜃 |𝜓〉〈𝜓|𝑒 −𝑖𝜃 = |𝜓〉〈𝜓| (I.7)

I- 2 Evolution dans le temps de l’opérateur densité


Soit U(t, t0 ),l’opérateur unitaire d’évolution défini par :

|(t) > = U( t, t0) |(t0) > (I.8)

L’équation de Schrodinger dépendante du temps appliquée à l’opérateur U(t, t0 ), s’écrit


𝜕𝑈 (𝑡,𝑡0 )
𝑖ℏ ̂𝑈 (𝑡, 𝑡0 )
=𝐻 (I.9)
𝜕𝑡

Où, H est l’opérateur hamiltonien du système

L’intégrale de l’équation I.9 donne :


𝐻(𝑡−𝑡0 )⁄
𝑈 (𝑡, 𝑡0 ) = 𝑒 −𝑖 ℏ (I.10)

L’équation I.8 combiné à l’équation I.10 permettent de déterminer l’équation d’évolution par
rapport au temps de l’opérateur densité donnée par :
𝜕𝜌
̂
𝑖ℏ ̂ , 𝜌̂]
= [𝐻 (I.11)
𝜕𝑡

Résultat

- Les 𝐼𝜓𝜆 〉 ont été introduits comme intermédiaire pour présenter la théorie

- A tout système on associe un espace de Hilbert, un état de ce système est représenté par un
opérateur densité semi défini positif

I-3 Systèmes classiques


Un système de N points matériels et de 3N degrés de liberté décrits par l‘ensemble des
coordonnées généralisées (𝑞⃗𝑖 , 𝑝⃗𝑖 ), on appelle espace de phase, l’espace à 6N dimensions.
Dans cette espace et à un instant t, l’état t d’un système est représenté par un point qui évolue
au cours temps suivant les équations d’Hamilton définies par :
𝜕𝐻
𝑞̇ 𝑖 = 𝜕𝑝𝑖
{ 𝜕𝐻
(I.12)
𝑝̇𝑖 = − 𝜕𝑞𝑖

Remarques

- Au Ket de la description quantique correspond, un point de l’espace des phases. Un élément


de volume de cette espace est défini par :

4
1 𝑑3 𝑞𝑖 𝑑3 𝑝𝑖
𝑑𝜏 = ∏𝑁
𝑖=1 (I.13)
𝑁! ℎ3

1
Le facteur est un facteur de normalisation qui tient compte du principe de
𝑁!ℎ 3𝑁
correspondance limite quantique limite classique et de l’indiscernabilité des cellules
constituant les volumes élémentaires (N !).

- Dans les systèmes classiques la trace est remplacée par une intégral dans l’espace des phases
telle que :

〈𝐴̂〉 = 𝑡𝑟 𝐴̂ 𝜌̂ = ∑𝑚 ⟨𝑚|𝐴̂|𝑚⟩ ⇢ 〈𝐴〉 = ∫ 𝑑𝜏𝜌 𝐴(𝑞⃗, 𝑝⃗) (I.14)

I-3.1 Densité en phase


Elle est introduite pour décrire un état mal connu d’un système. La densité en phase 𝜌(𝑞⃗, 𝑝⃗)
est définie de la façon suivante : la probabilité pour que l’état d’un système soit représenté par
un point (𝑞⃗, 𝑝⃗) à l’intérieur du volume d entourant ce point est 𝜌(𝑞⃗, 𝑝⃗)𝑑𝜏 telle que la mesure
d’une grandeur physique est donnée par sa valeur moyenne définie par :

〈𝐴〉 = ∫ 𝑑𝜏𝜌(𝑞⃗, 𝑝⃗)𝐴(𝑞⃗, 𝑝⃗) (I.15)

La condition de normalisation s’écrit :

∫ 𝑑𝜏𝜌(𝑞⃗, 𝑝⃗) = 1 (I.16)

I-3.2 espace des états accessibles


C’est l’espace défini dans l’espace des phases et qui tient compte des contraintes imposés
au système.

I-3.3 Conséquence
Grâce à l’opérateur densité 𝜌̂ (𝑞⃗, 𝑝⃗) (en S.Q) ou la densité phase 𝜌(𝑞⃗, 𝑝⃗) (en S.C) on s’est
affranchi des moyennes temporelles qu’on ne sait pas calculer. L’équivalence entre moyenne
temporelle et moyenne statistique qui repose sur l’hypothèse ergodique. Nous avons :

1 𝑇
〈𝑓((𝑞⃗, 𝑝⃗), 𝑡)〉𝑡 = ∫0 𝑓((𝑞⃗, 𝑝⃗), 𝑡)𝑑𝑡 𝑒𝑡 〈𝑓((𝑞⃗, 𝑝⃗), 𝑡)〉 = ∫ 𝑑𝜏 𝑓(𝑞⃗, 𝑝⃗, 𝑡)𝜌(𝑞⃗, 𝑝⃗) Ont la
𝑇
même valeur

I-3.4 Hypothèse ergodique


Le point représentatif de l’état d’un système décrit une courbe qui ne repasse jamais par le
même point ; après un temps suffisamment long la courbe remplit tout l’espace, le point
représentatif du système passe infiniment prés de tout point arbitraire choisi dans l’espace des
états accessibles. Les régions de l’espace des états accessibles où le point reste plus longtemps
sont représentées par une densité plus élevées.

5
II- Evolution dans le temps de la densité en phase : Théorème de Liouville

II- 1Théorème de Liouville


Le volume de l’espace des phases est conservé par la dynamique hamiltonienne

Le volume d’une région de l’espace des phases reste constant lorsqu’on suit cette région
dans le temps, ce qui signifie :

Entre les instants t et t+dt, les coordonnées généralisées de positions et d’impulsion se


transforment selon :
𝑑𝑞𝑗 (𝑡)
𝑞𝑗 (𝑡) ⟶ 𝑞𝑗 (𝑡) + 𝑑𝑡 =q’j(t)
𝑑𝑡

𝑑𝑝𝑗 (𝑡)
𝑝𝑗 (𝑡) ⟶ 𝑝𝑗 (𝑡) + 𝑑𝑡= p’j(t)
𝑑𝑡

(I.17)

Démonstration :

Pour démontrer le théorème, il suffit de montrer que le Jacobien J de la transformation


(I.17) est égale à un.

Au premier ordre en dt, nous pouvons écrire :

J = 1 + 𝑇𝑟𝐾𝑑𝑡

𝜕 𝜕𝑞𝑗 𝜕 𝜕𝑝𝑗
= 1 + ∑𝑗 (𝜕𝑞 + )
𝑗 𝜕𝑡 𝜕𝑝𝑗 𝜕𝑡

Où ; la somme sur j est identiquement nulle, sachant les équations (I.12)

Remarques

* Ce volume joue le rôle du nombre d’états en mécanique statistique quantique ;

* En mécanique statistique quantique, l’opérateur d’évolution qui transforme n états


orthonormés en n états orthonormés obéit à un théorème analogue au théorème de Liouville

II-2 Forme équivalente du théorème de Liouville


Si la densité en phase 𝜌(𝑞⃗, 𝑝⃗, 𝑡) est connue, la probabilité pour que le système occupe à un
instant t un volume de l’espace des phases est :

𝑝Ω (𝑡) = ∫Ω 𝜌(𝑞⃗, 𝑝⃗, 𝑡) 𝑑𝑞⃗𝑑𝑝⃗ (I.18)

A l’instant t’, cette probabilité s’écrit :

𝑝Ω′ (𝑡′) = ∫Ω′ 𝜌′(𝑞⃗′, 𝑝⃗′, 𝑡) 𝑑𝑞⃗ ′ 𝑑𝑝⃗′ = ∫Ω 𝐽𝜌(𝑞⃗, 𝑝⃗, 𝑡) 𝑑𝑞⃗𝑑𝑝⃗

6
Comme le Jacobien de la transformation est égale à un on en déduit que :
𝑑𝜌
𝜌(𝑞⃗, 𝑝⃗, 𝑡) = 𝜌′(𝑞⃗⃗′,𝑝⃗′,𝑡) ; 𝑠𝑜𝑖𝑡 =0 (I.19)
𝑑𝑡

Ce qui s’écrit aussi


𝜕𝜌(𝑞⃗⃗,𝑝⃗,𝑡)
+ {𝜌(𝑞⃗, 𝑝⃗, 𝑡), 𝐻} = 0 (I. 20)
𝜕𝑡

Où ; {𝜌(𝑞⃗, 𝑝⃗, 𝑡), 𝐻} est le crochet de poisson

III- Eléments de la théorie l’information


L’information qu’on possède sur un système est plus au moins incomplète. Elle est plus
grande dans le cas de l’état pur que dans le cas d’un mélange statistique. La théorie
d’information a pour but de chiffrer la quantité l’information manquante qui est liée au
désordre. La fonction qui traduit ce manque d’information est la fonction entropie statistique
définie par :

𝑆𝑛 (𝑝1 , 𝑝2 , … . . , 𝑝𝑛 ) = − 𝑘𝑏 ∑𝑗 𝑝𝑗 𝑙𝑜𝑔𝑝𝑗 (I.21)

Où ; kb est la constante de Boltzmann = 1.38.10-23 MKS, elle a été introduite en mécanique


statistique pour retrouver l’entropie thermodynamique.

III-1 Propriétés de l’entropie


Sachant que ;

∑𝑗 𝑝𝑗 = 1 et que 0 ≤ 𝑝𝑗 ≤ 1

a- 𝑆𝑛 ≥ 0
b- L’entropie Sn est minimale dans le cas pur

En effet, si pj =1 et 𝑝𝑘≠𝑗 = 0 Alors ; 𝑆𝑛 = 0


1
c- Si,∀𝑗, 𝑝𝑗 = , Sn est maximale. Ce cas correspond à un minimum
𝑛
d’information sur le système. La démonstration de cette propriété se base
sur les multiplicateurs de Lagrange et de la contrainte de normalisation :
𝜕
(𝑆𝑛 − 𝜆 ∑𝑗 𝑝𝑗 ) (I.22)
𝜕𝑝𝑗

Ces propriétés montrent que l’entropie est bien une mesure du désordre, elle est minimale
en l’absence du désordre et est maximale quand le désordre est total.

III.2 Autre écriture de l’entropie quantique


Si au lieu de considérer les probabilités on considère l’opérateur densité 𝜌̂ l’entropie S
s’écrit :

𝑆 = −𝑘𝑏 ∑𝑗 𝑝𝑗 𝐿𝑜𝑔𝑝𝑗 = − 𝑘𝑏 𝑡𝑟𝜌̂ 𝐿𝑜𝑔𝜌̂ (I.23)

7
IV- postulats de la physique statistique
1ier Postulat ; Si les états accessibles d’un système sont équiprobables, alors le système est
en équilibre statistique.

Dans ce cas la valeur moyenne de toutes les observables (grandeurs physiques) est
indépendante du temps.

2ièm Postulat ; Théorème H de Boltzmann

L’entropie est liée à l’enthalpie par : 𝑆 = − 𝛼 𝐻 + 𝐻0

Un système fortement désordonné est un système en équilibre statistique.

Théorème ; Si les états accessibles d’un système isolé ne sont pas à un instant donné
également probable, le système, n’est pas en équilibre statistique, il évoluera alors au cours du
temps jusqu’à atteindre une situation d’équilibre, où tous les états sont également probables.

Ce qui s’exprime par :


𝑑𝐻 𝑑𝑆
<0⟹ >0 (I.24)
𝑑𝑡 𝑑𝑡

Le désordre augmente jusqu’à atteindre l’équilibre

Théorème de Zermilo ; Toute transformation irréversible n’est pas absolument irréversible et


le retour spontané d’un système isolé « adiabatique » à l’état initial est possible.

3ièm Postulat ; (Réciproque du postulat N°1)

8
CHAPITRE II

DISTRIBUTION D’EQUILIBRE DE BOLTZMANN GIBBS

Pour construire explicitement la forme de 𝜌̂ (ou ) compte tenu des contraintes, il faut
maximiser− 𝑘𝑏 𝑡𝑟𝜌̂ 𝐿𝑜𝑔𝜌̂ , compte tenu des conditions :

T𝑟𝜌̂= 1

< 𝐴̂> = Tr 𝜌̂ 𝐴̂

La technique des multiplicateurs de Lagrange permet d’écrire :

𝑆̃ = 𝑆 − 𝛽0 𝑇𝑟𝜌̂ − ∑𝑖 𝛽𝑖 𝑇𝑟 𝜌̂𝑋𝑖 (II.1)


𝑑𝑆̃
En imposant : =0 (condition de stationnarité) (II.2)
𝑑𝜌

𝑒 − ∑ 𝑖 𝛽𝑖 𝑋𝑖
On obtient : 𝜌= 𝑍
, où 𝑍 =Tr 𝑒 − ∑𝑖 𝛽𝑖 𝑋𝑖 (II.3)

Z ; est la fonction de partition du système, elle vérifie


𝜕𝐿𝑜𝑔𝑍
= − 〈𝑋𝑖 〉 (II.4)
𝜕𝛽𝑖

En pratique les propriétés d’un système sont caractérisées par Z (𝛽𝑖 ) ou, Log Z (𝛽𝑖 ) plutôt que
Xi.

* Fluctuation et corrélation

Connaissant Z(𝛽𝑖 ), on peut calculer de nombreuses grandeurs physique telles que :

𝜕 2 𝐿𝑜𝑔 𝑍 𝜕〈𝑋𝑖 〉
〈𝑋𝑖 𝑋𝑗 〉 − 〈𝑋𝑖 〉〈 𝑋𝑗 〉 = = (II.5)
𝜕𝛽𝑖 𝛽𝑗 𝜕𝛽𝑖

𝜕 2 𝐿𝑜𝑔 𝑍
Avec = 𝑇𝑟 𝑋𝑖 𝑋𝑗 𝑒 − ∑𝑘 𝛽𝑘 𝑋𝑘
𝜕𝛽𝑖 𝛽𝑗

* Expression de l’entropie en fonction de Log Z

A l’équilibre, nous avons ;

𝑆 = − 𝑘𝑏 𝑡𝑟𝜌̂ 𝐿𝑜𝑔𝑍 = 𝑘𝑏 𝑇𝑟𝜌̂(𝐿𝑜𝑔 𝑍 + ∑𝑖 𝛽𝑖 𝑋𝑖 )


𝜕𝐿𝑜𝑔𝑍
Soit : S = 𝑘𝑏 𝐿𝑜𝑔𝑍 − 𝑘𝑏 ∑𝑖 𝛽𝑖 (II.6)
𝜕𝛽𝑖

Cette expression jointe à celle 〈𝑋𝑖 〉 permet d’établir un résultat intéressant qui est à la base de
la thermodynamique.

Si on considère une variation infinitésimale d<Xi> au voisinage de l’équilibre on a :

𝑑𝑆 = 𝑘𝑏 (𝑑𝐿𝑜𝑔𝑍 + ∑𝑖 𝛽𝑖 〈𝑋𝑖 〉 + ∑𝑖 𝑋𝑖 𝑑𝛽𝑖 ) (II.7)


9
𝜕𝑆
Or; 𝑑𝐿𝑜𝑔 𝑍 = -∑𝑖 𝛽𝑖 〈𝑋𝑖 〉𝑑𝛽 ⟹ = 𝑘𝑏 𝛽𝑖 = 𝛼𝑖 (II.8)
𝜕〈𝑋𝑖 〉

D’où, le sens physique des multiplicateurs de Lagrange i. Nous avons aussi :
𝜕𝑆
𝑘𝑏 𝐿𝑜𝑔 𝑍 = 𝑆 − ∑𝑖 〈𝑋𝑖 〉 𝜕〈𝑋 〉 (II.9)
𝑖

C’est la transformé de Legendre de l’entropie S. Cette transformation ne fait perdre aucune


information.

II- principales distributions d’équilibre


Les différentes contraintes aux quelles un système est soumis, imposent la description
statistique adéquate qui permet de décrie le système, ces contraintes se basent sur les
constantes de mouvement, qui sont : l’Hamiltonien H, le nombre de particules N,le volume
V,…etc

II.1 Ensemble microcanonique


L’ensemble microcanonique concerne un système isolé thermiquement, c’est à dire à une
énergie interne donnée : il n’échange ni énergie ni matière avec le réservoir

Réservoir

Syst

Système en contact avec un réservoir,


il n’y a ni échange d’énergie ni échange de matière

Si, H, N et V sont fixés exactement la densité  décrit un ensemble microcanonique .


Dans le cas d’un grand système, les états d’énergie sont discrets et très proches les uns des
autres, l’énergie E ne peut être fixé que dans l’intervalle [E, E + E]. Dans ces conditions
l’expression de l’opérateur densité est :
1
𝜌̂ = ∑𝑚𝐼𝑚〉 〈𝑚𝐼 (II.10)
𝑊

Dans l’expression I.33 la somme est prise dans l’intervalle des énergies Em comprises entre E
et E+En. L’entropie qui correspond à la distribution donnée par II.10 est :

𝑆 = 𝑘𝑏 𝐿𝑜𝑔 𝑊 (II.11)

Où ; W est une fonction de E, N et V

D'après le premier postulat de la physique statistique ; l’équiprobabilité est telle que :

10
1 − 𝑆⁄𝑘
𝑝𝑖 = = 𝑒 𝑏 (II.12)
𝑊

1
Et ; 〈𝐴〉 = ∑𝑖 𝐴𝑖 𝑝𝑖 = ∑𝑖 𝐴𝑖 = 𝑉𝑎𝑙 𝑑𝑒 𝑙′é𝑞𝑢𝑖𝑙𝑖𝑏𝑟𝑒ti
𝑊

II.2 distribution ou ensemble canonique


Dans cette distribution le nombre de particule et le volume sont fixées exactement l’énergie
en moyenne

Réservoir
↗↙E
Syst

Système en contact avec un réservoir,


il y a échange d’énergie mais pas de matière

• Dans cette distribution on considère un grand nombre de micro états dans l’espace des
phases :
1 ≤ 𝑗 ≤ Ω (𝑈𝑗 ) (II.12)
ièm
Où ; J désigne le j micro état pour une énergie Uj
Le système est à une température T constante son énergie totale est :
𝑈0 = 𝑈𝑗 + 𝑈𝑇 (II.13)
Le nombre de micro état réalisés par le système et le réservoir est
𝑁 (𝑈0 ) = Ω (𝑈𝑗 )ΩT (𝑈0 − 𝑈𝑗 ) = 𝐶𝑠𝑡𝑒 (II.14)
Le nombre de micro état est constant vis à vis de toute variation possible de Uj puisque U0 est
constante
D’autre par l’opérateur 𝜌̂ satisfait :
1
Tr𝜌̂H=E Avec 𝜌̂ = 𝑍 𝑒 −𝛽𝐻 (II.15)
𝑐
Nous avons aussi :
𝜕𝐿𝑜𝑍𝑐
= −𝐸
𝜕𝛽

𝑆(𝐸 ) = 𝑘𝑏 𝐿𝑜𝑔 𝑍𝑐 + 𝑘𝑏 𝛽𝐸

𝜕𝑆
= 𝑘𝑏 𝛽 (II.16)
𝜕𝐸

Les fluctuations de l’énergie autour de sa valeur moyenne sont données par :


𝜕 2𝐿𝑜𝑔 𝑍𝑐 𝑘
〈(𝐻 − 𝐸 )2 〉 = 2 = − 𝜕2𝑆 𝑏 (II.17)
𝜕𝛽 ⁄ 2
𝜕𝐸

11
II.3 distribution grand canonique
Dans cette distribution le volume est fixé exactement, l’énergie et le nombre de particule
sont connus en moyenne.

Réservoir
↗↙E, 
Syst

Système en contact avec un réservoir,


il y a échange d’énergie et de matière

La densité de distribution est dans ce cas est :


1
𝜌̂ = 𝑒 −𝛽𝐻−𝜆𝑁 𝑁 (II.18)
𝑍𝐺

Avec ; 𝑍𝐺 = 𝑇𝑟 𝑒 −𝛽𝐻 𝑒 −𝜆𝑁 𝑁

Soit 𝑍𝐺 = ∑𝑁 𝑒 −𝜆𝑁 𝑁 ∑𝑚 𝑒 −𝛽𝐸𝑚(𝑁) (II.20)

La fonction de partition grande canonique vérifie les propriétés :


𝜕𝐿𝑜𝑍𝐺 𝜕𝐿𝑜𝑍𝐺
= −𝐸 = −𝑁
𝜕𝛽 𝜕𝜆𝑁

𝑆 = 𝐿𝑜𝑔 𝑍𝐺 + 𝑘𝑏 𝛽𝐸 + 𝑘𝑏 𝜆𝑁 𝑁
(II.21)
Cette expression permet de déduire
1 𝜕𝑆
𝛽= 𝑘𝑏 𝜕𝐸

1 𝜕𝑆
𝜆𝑁 = 𝑘 (II.22)
𝑏 𝜕𝑁

II.4 Distribution isotherme- isobarre


Dans cette distribution, le nombre de particule est fixé, l’énergie et le volume sont connus en
moyenne. L’opérateur densité de probabilité est exprimée par :
1
𝜌̂ = 𝑒 −𝛽𝐻−𝜆𝑉 𝑉 (II.23)
𝑍

Où, la fonction de partition isotherme isobarre est :

∫ 𝑑𝑣 𝑒 −𝜆𝑉 𝑉 𝑇𝑟𝑒 −𝛽𝐻 (II.24)

12
C’est la transformée de la place de la fonction de partition canonique

Remarques ;

• On montre que la signification physique des différents multiplicateur de Lagrange


introduits est telle que :
1 𝜇 𝑃
𝛽= , 𝜆𝑁 = , 𝜆𝑉 =
𝑘𝑏 𝑇 𝑘𝑏 𝑇 𝑘𝑏 𝑇

Où ; T est la température,  est le potentiel chimique et p la pression.

• Tout ce qui valable dans le lagrange quantique est valable en mécanique classique
• La fonction de partition classique est :
𝑍 = ∑ ∫ 𝑑𝜏𝑁 𝑒 −𝜆𝑖 𝑋𝑖
𝑁
Et la fonction densité en phase  s’écrit :
𝑒 − ∑𝑖 𝜆𝑖 𝑋𝑖
𝜌𝑁 = (II.25)
𝑍

II. 5 distribution de Maxwell- Boltzmann


Dans gaz parfait monoatomique, le seul mouvement à considérer est le mouvement de
translation. L’état statistique d’une molécule est défini par la donnée de 6 variables impultions
et positions.

Conformément à l’interprétation de la répartition de Boltzmann, la probabilité qu’une


molécule se trouve dans un élément de volume d𝑞⃗ et avec la quantité de mouvement dans
l’intervalle [𝑝⃗, 𝑝⃗+d𝑝⃗] est :
𝑝2
−𝛽
𝑒 2𝑚
𝑑𝑃 (𝑞⃗, 𝑝⃗) = ⃗⃗⃗⃗⃗
𝑑𝑞⃗𝑑𝑝 (II.26)
ℎ 3 𝑍𝑡𝑟𝑎𝑛𝑠

Si au lieu de raisonner par rapport à l’impulsion on raisonne par rapport à la vitesse. La


probabilité qu’une molécule ait une composante suivant q x et une vitesse comprise entre v et
vx + dvx est :
𝑚𝑣2𝑥
𝑚 −
𝑔(𝑣𝑥 ) 𝑑𝑣𝑥 = √2𝜋𝑘 𝑒 2𝑘𝑏 𝑇
𝑑𝑣𝑥 (II.26)
𝑏𝑇

𝑚𝑣2𝑥
𝑚 −
𝑔(𝑣𝑥 ) = √2𝜋𝑘 𝑒 2𝑘𝑏 𝑇
est une gaussienne centrée en vx on a alors :
𝑏𝑇

+∞
〈𝑣𝑥 〉 = ∫−∞ 𝑑 𝑣𝑥 𝑣𝑥 𝑔(𝑣𝑥 ) = 0 ⟹ 〈𝑣⃗ 〉 = 0 (II.27)

Ce qui est évident par symétrie, il traduit le fait qu’on moyenne il ya autant de molécules
qui se meuvent dans direction que dans la direction opposée.

13
III- Distribution quantique des Bosons et Fermions

III.1 Généralités
En mécanique quantique, les particules considérées sont soit des bosons soit des fermions,
pour les caractériser il faut tenir compte du principe relatif aux systèmes composés d’un grand
nombre de particules. D’autre part la fonction d’onde d’un système de particules est soit
symétrique soit anti symétrique sous l’effet de la permutation de deux particules, on a :

𝜃 = 1 𝐵𝑜𝑠𝑜𝑛𝑠
𝜓(𝑥1 , . . . , 𝑥𝑗 , … 𝑥𝑛 , … , 𝑥𝑁 ) = 𝜃𝜓(𝑥1 , . . . , 𝑥𝑛 , … 𝑥𝑗 , … , 𝑥𝑁 ) {
𝜃 = −1 𝐹𝑒𝑟𝑚𝑖𝑜𝑛𝑠
(II.28)

Dans les deux cas la densité de probabilité reste invariante puisque :


2 2
|𝜓(𝑥1 , . . . , 𝑥𝑗 , … 𝑥𝑛 , … , 𝑥𝑁 )| = |𝜓(𝑥1 , . . . , 𝑥𝑛 , … 𝑥𝑗 , … , 𝑥𝑁 )|
(II.29)

III.1.1 Statistique des Fermions : Stat


Les fermions : Ce sont les particules de Spin demi entier telles que les électrons, les protons,
les neutrons, H3e, ….

Dans le cas des Fermions le nombre d’occupation c est limité par le principe d’exclusion de
Pauli dont l’énoncé se résume au fait que deux particules de même Spin ne peuvent pas
occupées le même état quantique ; la population n est donc limité à 0 ou 1. Dans ces
conditions la fonction de partition est :

𝜁𝜆 = 1 + 𝑒 −𝛽(𝜀𝜆−𝜇)
𝜕𝐿𝑜𝑔 𝜁𝜆 1
Et 〈 𝑛𝜆 〉 = − 𝑘𝑏 𝑇 = (𝜀𝜆−𝜇)
(II.30)
𝜕 𝜀𝜆 1+ 𝑒

Remarque

Un système formé de N Fermions peut être traité comme une particule unique : un Fermion
si N est impair, ou Boson si N est pair

III.1.2 Statistique des Bosons : Statistique de Bose Einstein


Les Bosons : Ce sont les particules de Spin entier telles que : les Photons, les Deutrons, les
Mesons (s=0), …, etc . pour ces particules le nombre d’occupation n est illimité ; il vari de 0
à l’infini. Dans ces conditions la fonction de partition est :

1−𝑒 −𝛽(𝜀𝜆−𝜇)𝑛𝜆 1
𝜁𝜆 = ∑∞nλ 𝑒 −𝛽(𝜀𝜆−𝜇) = lim = (II.31)
𝑛𝜆⟶∞ 1− 𝑒 −𝛽(𝜀𝜆−𝜇) 1−𝑒 −𝛽(𝜀𝜆−𝜇)

Le nombre moyen d’occupation est

14
𝜕𝐿𝑜𝑔 𝜁𝜆 𝜕𝐿𝑜𝑔 𝜁𝜆 1
〈 𝑛𝜆 〉 = 𝑘𝑏 𝑇 = − 𝑘𝑏 𝑇 = 𝛽(𝜀𝜆 −𝜇)
(II.32)
𝜕𝜇 𝜕 𝜀𝜆 𝑒 −1

C’est le facteur de Bose caractéristique de la distribution de Bose Einstein. Cette distribution


n’a de sens que si : 𝜁𝜆 > 𝜇 sinon 〈 𝑛𝜆 〉 < 0

Le nombre total de particules est :


1
̅ = 〈𝑛〉 = ∑𝜆 〈 𝑛𝜆 〉 = ∑𝜆
𝑁 =Cste (II.33)
𝑒 𝛽(𝜀𝜆 −𝜇)−1

Remarque

Il y a une grande différence entre le comportement des bosons et le comportement des


fermions. Cette différences est la plus frappante à basse température ; lorsque le système est
dans son état d’énergie la plus basse.

Exercice

*Etudier le comportement à basse et à haute températures des bosons :

𝑇⟶0 ⟹ 𝛽⟶0?

*Interpréter la condensation de Bose Einstein

A T = 0,  = 0

𝜀𝜆 = 0, niveau fondamental 𝑁 ⟶ ∞ ⟹ Toutes les particules s’accumulent au niveau


fondamental. La transition a lieu T c voisine T= 0 ; c’est la condensation de Bose Einstein

15
Chapitre III

Mécanique Statistique de Non équilibre

I. Réversibilité et irréversibilité
Un des problèmes que s’attache à résoudre la mécanique statistique de non équilibre est de
concilier les lois phénoménologiques qui décrivent des phénomènes irréversibles avec les lois
réversibles de la mécanique. La direction du ne joue pas de rôle dans les lois de la mécanique.
Ainsi la loi de Newton :
𝑑2 𝑥⃗
𝑚 𝑑𝑡 2 = 𝐹⃗ est invariante pour la transformation de, t⟶ − 𝑡 . Une telle loi sert à décrire
aussi bien un déplacement que son inverse : le passé et l’avenir.

En revanche, le fait que l’entropie d’un système isolé ne diminue jamais au cours du temps,
indique, qu’il existe pour ce dernier une direction privilégiée et que les lois empiriques qui
décrivent les phénomènes irréversibles ont une structure différente de celle de la loi de
Newton

I.1 Réversibilité microscopique et irréversibilité macroscopique


Il y a ici un paradoxe : la contradiction apparente entre la réversibilité microscopique et
irréversibilité macroscopique. A l’échelle microscopique, les phénomènes sont invariants par
renversement du temps ; ce signifie qu’à la suite d’états Ψ(t 𝑖−1 ), Ψ(t 𝑖 ), Ψ(𝑡𝑖+1 ) par les
quelles passe le système aux instants t 𝑖−1 < 𝑡𝑖 < 𝑡𝑖+1 , correspond une suite inversée :
Ψ(−t 𝑖−1 ), Ψ(−t 𝑖 ), Ψ(−𝑡𝑖+1 ) aux instants −t 𝑖+1 < −𝑡𝑖 < −𝑡𝑖−1 et que cette suite inverse est
aussi une solution de l’équation d’évolution du système. Cette propriété d’invariance résulte
de la nature de forces qui régissent l’évolution des systèmes microscopique. Quantiquement,
si Ψ(t) est solution de l’équation de Shrodinger :
𝜕𝜓 (𝑡)
𝑖ℏ ̂ ( 𝑡 ) 𝜓 (𝑡 )
=𝐻 (III.1)
𝜕𝑡

𝜕Ψ′ (t)
Ψ′ (t) = Ψ∗ (−t) satisait; 𝑖ℏ ̂ ∗ (−𝑡) Ψ′(t)
=𝐻 (III.2)
𝜕𝑡

Il ya invariance par renversement du temps si : ̂ ( 𝑡) = 𝐻


𝐻 ̂ ∗ (−𝑡)

16
Exemples

I.1.1 Détente de Joule


Soit un système à l’équilibre thermique. L’état d’équilibre initial est représenté par une
densité de probabilité uniforme dans l’hyper volume 1 de l’espace des phases, défini par les
contraintes imposées au système, on relâche une de ces contraintes ; par exemple le volume :
on enlève une paroi entre un volume du gaz et une enceinte vide (c’est la détente de Joule).
L’hyper volume  va alors de déformé, se ramifier en projetant ses ramifications dans tout
l’hyper volume  de l’espace des phases défini par de nouvelles contraintes.

Conformément au Théorème de Liouville, dans cette déformation le volume  reste


constant. Cependant l’hyper volume final ressemble grossièrement une densité uniforme dans
l’hyper volume  qui correspond à l’état d’équilibre en absence de contraintes sur le volume
( absence de la paroi) l’état final apparait pratiquement identique à cet état d’équilibre ,si on
ne s’attache pas aux détails. Par renversement du temps, on pourrait retourner à l’hyper
volume initial. Cette évolution inversée n’est pas impossible, elle est seulement très
improbables, elle constitue une fluctuation jamais observée statistiquement.

En pratique l’évolution d’un système n’est jamais complètement adiabatique. Il existe des
petites interactions avec le milieu extérieur qui augmente d’avantage la complexité de l’hyper
volume final, elles contribuent à rapprocher l’état final de l’état d’équilibre.

I.1.2 illustration de l’irréversibilité due à l’échelle des phénomènes


Cette illustration est basée sur l’exemple de la goutte d’encre noir dans l’eau de Gibbs :
initialement la goutte est confinée dans un petit volume. Au bout d’un temps suffisamment
long, dans chaque petit domaine nous constatons que le liquide est uniformément gris, ce est
dû au fait que nous observons des éléments de volume grands par rapport aux dimensions des
molécules. A l’échelle microscopique, le mélange n’est pas uniforme.

////// ////// ////// ////// //////


////// ////// ////// ////// //////
////// ////// ////// ////// //////
////// ////// ////// ////// //////
////// ////// ////// ////// //////

Le point de vue combine deux phénomènes : un est lié à la dynamique (expansion de la tache)
,l’autre non dynamique lié aux échelles de grandeurs (effet de moyenne).

I.2 l’irréversibilité est une propriété dynamique des systèmes complexes


Dans le cas des systèmes constitués d’un grand nombre de particules les propriétés usuelles
𝑁
de la dynamique ne sont plus valables. A la limite thermodynamique: (𝑁 → ∞, 𝑉 → ∞ 𝑚𝑎𝑖𝑠 𝑉
fini) apparait de nouvelles propriétés dynamiques responsables de l’irréversibilité .Ce point
de vue est important car il implique la possibilité d’une description de l’approche vers
l’équilibre. Elle permet en outre de définir les situations de non équilibre et de caractériser
17
l’écart à l’équilibre, cette notion intervient tant dans l’étude des phénomènes transport que
dans celle des structures dissipatives

II théorème de Liouville

Dans ce qui suit nous allons nous restreindre à l’étude des systèmes qui peuvent être décrit
par la mécanique classique. La dynamique d’un système de N particules peut être étudiée à
partir des équations d’Hamilton
𝑑𝑞𝑖 𝜕𝐻
=
𝑑𝑡 𝜕𝑝𝑖

𝑑𝑝𝑖 𝜕𝐻
=− (III.3)
𝑑𝑡 𝜕𝑞𝑖

Lorsque N est de l’ordre de 1O23, il est impossible de résoudre le système d’équations.

On défini dans l’espace la densité de probabilité 𝜌({𝑞⃗ }, {𝑝⃗}; 𝑡 ) telle que :

∫ 𝜌({𝑞⃗ }, {𝑝⃗}; 𝑡 )𝑑𝑞⃗1 , … . . , 𝑑𝑞⃗3𝑁 , 𝑑𝑝⃗1 , … . . 𝑑𝑝⃗3𝑁 = 1 (IIII.4)

On postule que la valeur observée d’une grandeur dynamique 𝑓 ({𝑞⃗ }, {𝑝⃗} ) est donnée par la
moyenne d’ensemble :

𝑓 ̅ = ∫ 𝑓 ({𝑞⃗ }, {𝑝⃗} )𝜌({𝑞⃗ }, {𝑝⃗}; 𝑡 )𝑑𝑞⃗1 , … . . , 𝑑𝑞⃗3𝑁 , 𝑑𝑝⃗1 , … . . 𝑑𝑝⃗3𝑁 (III.5)

II.1 Opérateur de Liouville


Le théorème de Liouville postule que la densité de probabilité évolue dans l'espace des phases
comme un fluide incompressible, la forme d’un volume arbitraire de l’espace des phases peut
se modifier mais pas contenance

L’équation de Liouville est :


𝜕𝜌 𝜕𝜌 𝜕𝜌
+ ∑𝑖 𝑞̇ 𝑖 + 𝑝̇𝑖 =0 (III.6)
𝜕𝑡 𝜕𝑞𝑖 𝜕𝑝

𝜕𝜌 𝜕𝐻 𝜕𝜌 𝜕𝐻 𝜕𝜌
Soit, + ∑𝑖 (𝜕𝑝 − )=0 (III.7)
𝜕𝑡 𝑖 𝜕𝑞𝑖 𝜕𝑞𝑖 𝜕𝑝

Qu’on écrit en utilisant le crochet de poisson :


𝜕𝜌
+ {𝜌, 𝐻} = 0 (III.7)
𝜕𝑡

Cette dernière expression montre que si la densité de probabilité est une distribution
𝜕𝜌
stationnaire : 𝜌 = 𝜌({𝑞⃗ }, {𝑝⃗}) , 𝜕𝑡 = 0 et puisque le crochet de poisson de toute fonction de
H avec H est nul. Cela signifie que l’équilibre correspond à un distribution uniforme sur
l’hyper volume de l’espace des phases à énergie constante.

L’équation III.7 est équivalente à :

18
𝒅𝝆
=𝟎
𝒅𝒕

On introduit l’opérateur L définit par :

(𝝏𝑯 𝝏 𝝏𝑯 𝝏
𝑳=−𝒊 ∑ − ) (III.8)
𝝏𝒑𝒋 𝝏𝒒𝒋 𝝏𝒒𝒋 𝝏𝒑𝒋

L’équation de Liouville devient ;


𝜕𝜌
𝑖 =𝐿𝜌 (III.9)
𝜕𝑡

Cette équation est formellement semblable à l’équation de Schrodinger , on pourra donc


l’étudier en utilisant les techniques développées en mécanique quantique

II. 2 propriétés de l’opérateur de Liouville


• L’opérateur de Liouville est hermétique : 𝐿+ = 𝐿
• Les valeurs propres de L sont réelles, ceci découle immédiatement de la propriété
d’herméticité de L (cf M.Q)
• Les fonctions propres de L correspondant à des valeurs propres différentes sont
orthogonales. Le spectre complet des fonctions propres de L peut être orthogonalisée.
• On admet le caractère complet de l’ensemble des fonctions propres de L, c'est-à-dire
qu’une fonction dynamique qui a un bon comportement au limites peut être développée
en terme des fonctions propres de L. nous avons :
𝑓 ({𝑞⃗ }, {𝑝⃗}, 𝑡 ) = ∑𝑘 𝑎𝑘 (𝑡)𝜑𝑘 ({𝑞⃗ }, {𝑝⃗} ) (III.10)
Ce développement inséré dans l’équation de Liouville et sachant le développement :
𝑎𝑖 = ∫ 𝜑𝑖∗ ({𝑞⃗ }, {𝑝⃗} ) 𝑓({𝑞⃗ }, {𝑝⃗}, 𝑡 )𝑑𝑞1 … . 𝑑𝑞3𝑁 𝑑𝑝1 … . 𝑑𝑝3𝑁 (III.11)
Où, les n sont les fonctions propres de L. en particulier en peut écrire :
𝜌({𝑞⃗ }, {𝑝⃗}; 𝑡 ) = ∑𝑘 𝑎𝑘 (𝑡)𝜑𝑘 ({𝑞⃗ }, {𝑝⃗} )
Dans ces conditions l’équation de Liouville devient

𝜕𝑎𝑘 (𝑡)
𝑖 ∑𝑘 𝜑𝑘 ({𝑞⃗ }, {𝑝⃗} ) = ∑𝑘 𝑎𝑘 (𝑡) 𝜆𝑘 𝜑𝑘 ({𝑞⃗ }, {𝑝⃗} ) (III.12)
𝜕𝑡
Où, 𝜆𝑘 est la valeur propre de L correspondant à la fonction propre. 𝜑𝑘 .En multipliant
les deux membres de l’équation III.12 par l* et en intégrant sur toutes les variables de
l’espace des phases et grâce à la propriété d’orthogonalité des fonctions propres de L
on obtient
𝜕𝑎𝑘 (𝑡)
𝑖 = 𝑎 𝑘 ( 𝑡 ) 𝜆𝑘
𝜕𝑡

Et , 𝑎𝑘 (𝑡) = 𝑎𝑘 (0) 𝑒 − 𝑖 𝜆𝑘𝑡 (III.13)

Les coefficients 𝑎𝑘 (𝑡) du développement oscillent dans le temps avec une fréquence 𝜆𝑘 et la
densité de probabilité  s’écrit :

𝜌 ({𝑞⃗ }, {𝑝⃗}, 𝑡) = ∑𝑘 𝑎𝑘 (0) 𝑒 − 𝑖 𝜆𝑘 𝑡 𝜑𝑘 ({𝑞⃗ }, {𝑝⃗} ) (III.14)

19
Exemple :

Etude du mouvement d’une particule libre dans une boite cubique de volume l3.
𝑝2
L’Hamiltonien est 𝐻= 2𝑚

L’étude du gaz parfait se ramène à l’étude du mouvement d’une particule, en effet,


l’Hamiltonien,

𝑝𝑖2
𝐻 = ∑3𝑁
𝑖 , on déduit l’équation de Liouville :
2𝑚𝑖

𝜕𝜌 ({𝑞⃗⃗},{𝑝⃗},𝑡) 𝑝𝑖 𝜕
+ ∑ 𝜌 ({𝑞⃗ }, {𝑝⃗}, 𝑡) = 0 (III.15)
𝜕𝑡 2𝑚𝑖 𝜕𝑞𝑖

SI on considère la densité réduite cette équation devient :


𝜕𝜌 𝑝⃗ 𝜕𝜌
+ ∙ 𝜕𝑞⃗⃗ = 0 (III.16)
𝜕𝑡 𝑚

Et l’opérateur de Liouville correspondant dans le cas où, x=q :


⃗⃗
𝒑 𝝏
𝑳 = −𝒊 ∙ ; (III.17)
𝒎 𝝏𝒙
⃗⃗

L’équation aux valeurs propres pour cet opérateur est :


𝑝⃗ 𝜕 ⃗⃗
𝒑
𝑖 ∙ 𝜕𝑥⃗ 𝜑𝑘 = 𝜆𝑘 𝜑𝑘 Où, 𝑘 = ⃗⃗
∙𝒌
𝑚 𝒎

Les 𝜑𝑘 sont donc de la forme

𝜑𝑘 = 𝑈𝑘⃗⃗ (𝑝⃗ )𝑒 𝑖𝑘⃗⃗⋅𝑥⃗ ,

En considérant les conditions de périodicité aux bords, la solution de l’équation de Liouville


est :
⃗⃗
𝒑
8𝜋3 ⃗⃗
𝜌 ( 𝑥⃗, 𝑝⃗, 𝑡) = ∑𝑘⃗⃗ 𝜌𝑘⃗⃗ (𝑝⃗ )𝑒 𝑖𝑘 ⋅ (𝑥⃗− 𝒎 𝒕) (III.18)
𝑙3

8𝜋3
Où, 𝜌𝑘⃗⃗ (𝑝⃗) = 𝑎𝑘⃗⃗ (0)𝑢⃗𝑘⃗ est une fonction de 𝑘⃗⃗et de 𝑝⃗ supposée finie à la limite l infini
𝑙3

L’équation III.18 exprime le fait que la densité de probabilité est une somme pondérée
⃗⃗
𝒑
d’ondes planes qui se déplacent à la vitesse 𝒎

⃗⃗ ⃗⃗
𝒑
A la limite l infinie on : 𝜌 ( 𝑥⃗, 𝑝⃗, 𝑡) = ∫ 𝑑𝑘⃗⃗𝜌 ( 𝑘⃗⃗ , 𝑝⃗) 𝑒 𝑖𝑘 ⋅ (𝑥⃗− 𝒎 𝒕) (III.19)

On peut passer de la distribution des impulsions à la distribution des vitesses sachant que

20
𝜌 ( 𝑥⃗, 𝑝⃗, 𝑡) = 𝑚𝜌 ( 𝑥⃗, 𝑣⃗, 𝑡)
2
1 1 −𝑣 ⁄ 2
Si de plus la densité ; 𝜌 ( 𝑘, 𝑣) = 𝑒 𝜎
2𝜋 √𝜋𝜎 2

A l’instant initial, on a
2
1 −𝑣 ⁄ 2
𝜌 ( 𝑥, 𝑣, 0) = 𝛿(𝑥 ) √𝜋𝜎2 𝑒 𝜎 (III.20)

Qui signifie que la particule se trouve au même point mais pas avec la même vitesse, ce qui
correspond aussi à une connaissance parfaite de la position de la particule mais pas de sa
vitesse.

Dans le cas d’un système constitué d’un grand nombre de particule sans interactions,
l’équation III.20 pourrait s’interpréter : Toutes les particules se trouvent au même point mais
avec des vitesses différentes.

A un instant t quelconque la particule s’est déplacée à la vitesse v. la densité de probabilité


est :
2
1 −𝑣 ⁄ 2
𝜌 ( 𝑥, 𝑣, 𝑡) = 𝛿 (𝑥 − 𝑣𝑡) √𝜋𝜎2 𝑒 𝜎 (III.21)

Au point x la densité de probabilité est :


2
1 −𝑣 ⁄ 2
𝜌 ( 𝑥, 𝑡) = ∫ 𝜌 ( 𝑥, 𝑣, 𝑡)𝑑𝑣 = ∫𝑒 𝜎 𝛿 (𝑥 − 𝑣𝑡) (III.22)
√𝜋𝜎 2

2
1 −𝑣 ⁄ 2 2
Soit ; 𝜌 ( 𝑥, 𝑡) = 𝑒 𝜎 𝑡 (III.23)
√𝜋𝜎 2𝑡2

La densité de probabilité pour que la particule soit au point x est donc une gaussienne qui
s’aplatit et s’élargie au cours du temps. Lorsque le temps t tend vers l’infini, la distribution
devient uniforme dans l’espace.

L’expression III.23 montre que 𝜌 ( 𝑥, 𝑡) = 𝜌 ( 𝑥, −𝑡)

L’exemple qu’on a traité entre donc dans le cadre de la réversibilité Newtonienne et ne


correspond en aucune manière à un phénomène de diffusion irréversible.

En effet, une équation de diffusion est de la forme

𝜕𝐶 𝜕2𝐶
=𝐷 (III.24)
𝜕𝑡 𝜕𝑥 2

C, peut être la densité, la température,…etc. D est le coefficient de diffusion.

La solution de cette équation correspondant à la condition initiale C égale à zéro partout sauf
en un point est ;

𝛼 𝑣 2⁄
𝐶 (𝑥, 𝑡) = 𝑒− 4𝐷𝑡 ≠ 𝐶 (𝑥, −𝑡)
√ 𝑡

21
Nous constatons que la diffusion est un phénomène irréversible qui n’est pas expliqué par
l’uniformisation de la distribution.

Pour décrire un phénomène de diffusion il faut nécessairement tenir compte des interactions
entre les particules

III. dynamique des corrélations : cas d’un gaz classique

III. 1 notion d dynamique de corrélation


L’équation de Liouville est équivalente à l’ensemble des équations d’Hamilton, sa solution
exacte est difficile à obtenir. Notre but st de montrer qu’elle se présente comme un outil
particulièrement bien adapté à l’étude des systèmes de N corps. Une première étape dans ce
but est de passer de la notion de dynamique dans le sens de trajectoire des particules à la
notion de dynamique des corrélations.

Si on prend l’exemple de gaz classique dans un boite cubique de coté L, on peut développer
la fonction de distribution en série de Fourier des variables positions telle que :
1 𝑁 ⃗⃗⃗⃗⃗
𝜌 ({ 𝑞⃗ }, {𝑝⃗}, 𝑡) = 𝐿3𝑁 {𝜌0 ( {𝑝⃗}, 𝑡) + ∑{𝑘⃗⃗}≠{0⃗⃗} 𝜌{𝑘⃗⃗} ( {𝑝⃗}, 𝑡) 𝑒 𝑖 ∑𝑗 𝑘𝑗 ∙𝑞⃗⃗𝑗
(III.25)

Le facteur l-3 est introduit pour garantir la normalisation de la densité de probabilité à un.

Compte tenu des conditions de périodicité aux bords, les vecteurs d’ondes permis sont :
2𝜋
𝑘⃗⃗ = 𝐿 𝑛⃗⃗ (III.26)

III.2 signification physique des coefficients d Fourier

Remarquons d’abord que ;


𝜌0 ( {𝑝⃗}, 𝑡) = ∫{ 𝑑𝑞⃗ } 𝜌 ({ 𝑞⃗ }, {𝑝⃗}, 𝑡) (III.27)

est la fonction de distribution des vitesse, le seul coefficient dans le développement dont
nous ayons besoin si nous désirons obtenir la valeur moyenne d’une grandeur dynamique
indépendante des positions des particules. Les autres coefficients de fourrier ne jouent un rôle
que dans le calcul de valeur moyenne de grandeurs qui dépendent des positions des particules.
On peut les classer en deux groupes
a) Les corrélations homogènes ; qui ne sont pas nécessairement nulle dans un système
homogène, c’est à dire invariant par translation
b) Corrélation in homogène : qui sont nécessairement nulles dans un système homogène

On considère dans un système homogène la translation 𝑙⃗ , on a :

𝜌 ({ 𝑞⃗𝑖 + 𝑙⃗}, {𝑝⃗}, 𝑡) = 𝜌 ({ 𝑞⃗𝑖 }, {𝑝⃗}, 𝑡) (III.28)

Cette relation impose la condition que les seuls coefficients non nuls dans un système
homogène doivent vérifier la condition :

22
⃗⃗⃗⃗
𝑘𝑖 ∙𝑙⃗
𝑒𝑖 ∑ =1 (III.29)

Cette condition doit être vrai quelque soit 𝑙⃗ , il faut donc , dans un système homogène
que :

𝜌{𝑘⃗⃗} ( {𝑝⃗}, 𝑡) = 0 si ∑𝑗 ⃗⃗⃗⃗


𝑘𝑗 ≠ 0 (III.30)

Les corrélations homogènes sont donc 𝜌{𝑘⃗⃗} les coefficients tels que ∑𝑗 ⃗⃗⃗⃗
𝑘𝑗 ≠ , les
corrélations inhomogène sont celles qui ne satisfont pas cette condition

Remarque, l’équation de Liouville telle que si un système est initialement homogène, il reste
au cours du temps

Exemples

Calculer la densité moyenne au point x et à l’instant t

Calculer la valeur moyenne du potentiel v (qi, qi)

III.3 Equation d’évolution des coefficients de fourrier


L’expression III.25 peut se mettre sous la forme :
1 𝑁 ⃗⃗⃗⃗⃗
𝜌 ({ 𝑞⃗ }, {𝑝⃗}, 𝑡) = 𝐿3𝑁 {∑{𝑘⃗⃗} 𝜌{𝑘⃗⃗} ( {𝑝⃗}, 𝑡) 𝑒 𝑖 ∑𝑗 𝑘𝑗 ∙𝑞⃗⃗𝑗
(III.31)

𝑁 ⃗⃗⃗⃗⃗
On substitut cette équation dans l’équation de Liouville, on multiplie par 𝑒 𝑖 ∑𝑗 𝑘𝑗 ∙𝑞⃗⃗𝑗
est on
intègre. Sachant la condition d’orthogonalité ;
1 ⃗⃗⃗⃗ ⃗⃗⃗⃗
𝐿3
∫ 𝑑𝑞⃗ 𝑒 𝑖 (𝑘 − 𝑘′) ∙𝑞⃗⃗ = 𝛿𝑘⃗⃗,𝑘′
⃗⃗⃗⃗

On obtient,

⃗⃗⃗}( {𝑝⃗},𝑡)
𝜕 𝜌{𝑘
𝑖 = ∑{𝑘⃗⃗} ⟨{𝑘⃗⃗}|𝐿|{𝑘⃗⃗′}⟩ 𝜌{𝑘′
⃗⃗⃗⃗} ( {𝑝
⃗}, 𝑡) (III.32)
𝜕𝑡

Avec ;

1 𝑁 ⃗⃗⃗⃗⃗ 𝑁 ⃗⃗⃗⃗′
⟨{𝑘⃗⃗ }|𝐿|{𝑘⃗⃗′}⟩ =
𝐿3𝑁
∫𝑑𝑞 }𝑁 𝑒 −𝑖 ∑𝑗 𝑘𝑗 ∙𝑞⃗⃗𝑗
𝐿 𝑒 𝑖 ∑𝑗 𝑘𝑖 ∙𝑞⃗⃗𝑗
(III.33)

Cette notation est analogue à celle utilisée pour les éléments de matrice en mécanique
quantique. Il y a cependant une différence importante à noter : L est un opérateur agissant sur
les variables position et impulsion. L’élément de matrice ⟨{𝑘⃗⃗}|𝐿|{𝑘⃗⃗′}⟩ reste un opérateur par
rapport aux variables impulsion

23
III.4 expression explicite des éléments de matrice de L
A la décomposition de l’Hamiltonien en une partie non perturbée H 0 et une partie perturbée
 V, correspond une décomposition de l’opérateur de Liouville :

𝐿 = 𝐿0 + 𝜆 𝛿 𝐿 (III.34)

Avec ;

𝒑𝒋
⃗⃗⃗⃗⃗ 𝝏 𝝏
𝑳𝟎 = −𝒊 ∑𝒋 ∙ = −𝒊 ∑𝒋 𝒗𝒋 ∙ (III.35)
𝒎 𝝏𝒙
⃗⃗⃗⃗𝒋 𝝏𝒙
⃗⃗⃗⃗𝒋

𝑉(|𝑞
⃗⃗⃗⃗⃗−
𝑗 ⃗⃗⃗⃗|)
𝑞𝑖 𝝏 𝝏
𝛿 𝐿 = 𝑖 ∑𝑁
𝑖<𝑗=1 (𝝏𝒑⃗⃗⃗⃗⃗ − ) (III.26)
𝜕𝑞
⃗⃗⃗⃗⃗𝑗 𝒊 𝝏𝒑
⃗⃗⃗⃗⃗𝒋

En tenant compte da la condition d’orthogonalité on obtient

⟨{𝑘⃗⃗}|𝐿0 |{𝑘⃗⃗′}⟩ = ∑𝒋 𝒗 ⃗⃗𝒋 ∏𝑁


⃗⃗𝒋 ∙ 𝒌 𝑗=1 𝛿𝑘 ⃗⃗ ′
⃗⃗ 𝑗, 𝑘 (III.36)
𝑗

Cet élément de matrice n’est pas un opérateur, cela est dû au fait que

1 𝑁 ⃗⃗
𝜑{𝑘⃗⃗𝑗 } = 3 𝑒 𝑖 ∑𝑗=1 𝑘𝑗 ∙𝑞⃗⃗𝑗
𝐿 ⁄2
Forme un système de fonction propre de l’opérateur L0 :

𝐿0 𝝋{𝒌⃗⃗𝒋 } = (∑𝒋 𝒗 ⃗⃗𝒋 )


⃗⃗𝒋 ∙ 𝒌 (III37)

Ce développement n’est rien d’autre que d’un développement en série de fourrier de fonctions
propres de l’opérateur non perturbé de Liouville. On reconnait ici une méthode standard en
mécanique quantique.

Pour le terme perturbé, on commence par développer le potentiel en série de Fourrier tel
que :
1
𝑉 (𝑟 ) = ∑𝑙⃗ 𝑉𝑙 𝑒 𝑖𝑙⃗∙𝑟⃗ (III.38)
𝐿3

L’élément de matrice de la partie perturbé de l’opérateur de Liouville est :

𝟏 𝑁 ⃗⃗⃗⃗⃗ 𝝏 𝝏 ⃗ 𝑁 ⃗⃗⃗⃗′
⟨{𝑘⃗⃗}|𝛿𝐿|{𝑘⃗⃗′}⟩ = −
𝑳𝟑+𝟑𝑵
∫𝑑𝑞 }𝑁 𝑒 −𝑖 ∑𝑗 𝑘𝑗 ∙𝑞⃗⃗𝑗
∑𝒍⃗ 𝑽𝒍 𝒍⃗(
𝝏𝒑
⃗⃗⃗⃗⃗
− 𝝏𝒑
⃗⃗⃗⃗⃗𝒋
)𝒆𝒊𝒍∙(𝒒⃗⃗𝒊−𝒒⃗⃗𝒋) 𝑒 𝑖 ∑𝑗 𝑘𝑖 ∙𝑞⃗⃗𝑗
(III.39)
𝒊

En tenant compte de la condition d’orthogonalité des fonctions propres de L on obtient


𝟏
⟨{𝑘⃗⃗}|𝛿𝐿|{𝑘⃗⃗′}⟩ = − ∑𝒊<𝑗=1 ∑⃗𝒍 ∏𝒎≠𝒊𝒋 𝜹⃗𝒌⃗ ⃗⃗′ 𝜹⃗⃗⃗⃗⃗ ⃗⃗𝒊 +𝒍⃗ 𝜹⃗𝒌⃗𝒋 ,𝒌
⃗ 𝝏 −
⃗⃗ 𝒋 −𝒍⃗ ∙ 𝑽𝒍 𝒍(𝝏𝒑
𝝏
) (III.40)
𝑳𝟑 𝒎 ,𝒌𝒎 𝒌𝒊 𝒋,𝒌 ⃗⃗⃗⃗⃗ 𝒊 𝝏𝒑
⃗⃗⃗⃗⃗𝒋

Interprétation ; les seuls éléments de matrice non nuls sont ceux pour les quels : {𝑘⃗⃗} et {𝑘⃗⃗′}
ne différent que par deux vecteurs d’ondes, la somme des vecteurs d’ondes est conservée.
Explicitement, les seuls éléments de matrice non nuls sont :

24
𝟏 𝝏 𝝏
⟨{𝑘⃗⃗}, 𝑘⃗⃗𝑖 , 𝑘⃗⃗𝑗 |𝛿𝐿|{𝑘⃗⃗′}, 𝑘⃗⃗𝑖 − 𝑙⃗, 𝑘⃗⃗𝑗 + 𝑙⃗ ⟩ = − 𝑽𝒍 𝒍⃗(𝝏𝒑⃗⃗⃗⃗⃗ − ) (III.41)
𝑳𝟑 𝒊 𝝏𝒑
⃗⃗⃗⃗⃗𝒋

On constate que

Les éléments de matrice L conservent la somme des vecteurs d’onde

L’équation III 41 ne couple les corrélations qu’à des corrélations ayant le même vecteur
d’onde

25
Chapitre IV

Equation de Boltzmann

I .Critères de détermination de l’équation de Boltzmann


Pour obtenir l’équation de Boltzmann, nous partons de l’équation de Liouville définie par :
𝜕𝜌 𝜕𝜌
+ ∑𝑖=1 𝑣⃗𝑖 ∙ 𝜕𝑥 = 0 (I V.1)
𝜕𝑡 𝑖

La fonction de distribution réduite à une particule est définie par :

𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡) = 𝑁𝑚 ∫ 𝑑𝑥⃗2 … . 𝑑𝑥⃗𝑁𝑑 𝑑𝑝⃗2 … . 𝑑𝑝⃗𝑁 (IV).2)

Telle que ; ∫ 𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡) 𝑑𝑥⃗1 𝑑𝑣⃗1 = 𝑁 (IV.3)

La distribution 𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡) n’est pas une densité de probabilité, 𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡)𝑑𝑥⃗𝑑𝑣⃗ représente le
nombre de particule à l’instant t dont la position est dans l’intervalle [ 𝑥⃗, 𝑥⃗ + 𝑑 𝑥⃗] et de
vitesse comprise entre 𝑣⃗ et 𝑣⃗ + 𝑑𝑣⃗ .

L’intégration de l’équation IV.1 sur les N – 1 variables position et impulsion permet


d’obtenir l’équation d’évolution dans le temps de la fonction de distribution 𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡) :
𝜕𝑓 𝜕𝑓
+ 𝑣⃗ ∙ 𝜕𝑥⃗ = 0 (IV.4)
𝜕𝑡

Cette équation ne peut en aucun cas décrire un phénomène irréversible puisque la distribution
des vitesses 𝑓 (𝑣⃗, 𝑡) = ∫ 𝑓 ( 𝑥⃗, 𝑣⃗, 𝑡)𝑑𝑥⃗ est constante. Pour faire varier la distribution des
vitesses, il faut tenir compte des processus d’interaction entre les particules. Les forces qui
existent au sein du système et qui accélèrent ou freinent les particules et permettent à celle-ci
de se mettre à l’équilibre.

Pour un système de N > 10 23 particules il est impossible de résoudre les équations


d’Hamilton. L’idée intuitive de Boltzmann est que les interactions peuvent être décrites
comme des collisions et donc l’équation (IV.4) est remplacée par :*
𝜕𝑓 𝜕𝑓
+ 𝑣⃗ ∙ 𝜕𝑥⃗ = 𝐽 ( 𝑓) (IV.5)
𝜕𝑡

Où, J ( f ) est une fonctionnelle de qui décrit la variation due aux collisions : J( f ) = 0 quand il
n’y a pas de collisions dans le système.

Il faut donc trouver la forme de J( f ) et montrer l’équation IV. 5 décrit bien l’approche vers
l’équilibre, malgré la réversibilité des processus considérés. Pour cela on considère un gaz
très dilué dont les molécules sans degrés de liberté interne interagissent par des forces de
courtes portées (sinon comment savoir quand commence une collision et quand elle s’achève)
Nous supposons que toutes les rencontres entre les molécules sont des collisions binaires. De
26
plus le temps moyen pendant lequel deux molécules sont en interaction doit donc être petit
comparé au temps moyen entre deux collisions successives, ce qui est équivalent à dire que
la porté des forces doit être petite comparée au libre parcours moyen ; ceci précise quelque
peut ce que nous entendons par « gaz dilué ».

II. théorie de collision élastique


Quand deux molécules de même masse entrent en collision élastique, il y a conservation de la
quantité de mouvement et de l’énergie cinétique, ce qui s’exprime par :

𝑣⃗ + 𝑣⃗1 = 𝑣⃗ ′ + 𝑣⃗1′
{ 2
𝑣 + 𝑣12 = 𝑣 ′2 + 𝑣1′2

(IV.6)
La variation de la vitesse d’une molécule est :

𝑣⃗ ′ − 𝑣⃗ = 𝐴 𝑘⃗⃗ (IV.7)

Où ; 𝑘⃗⃗ le vecteur unité de direction 𝑣⃗ ′ − 𝑣⃗, A un scalaire, tel que

𝐴 = 𝑘⃗⃗. 𝑔⃗

Avec ; 𝑔⃗ = 𝑣⃗1 − 𝑣⃗ (IV.8)

Vitesse relative des deux molécules avant la collision, on peut donc écrire :

𝑣⃗ ′ = 𝑣⃗ + 𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ (𝑣⃗1 − 𝑣⃗ )) = 𝑣⃗ + 𝑘⃗⃗ ∙ 𝑔⃗


{ (IV.9)
𝑣⃗1′ = 𝑣⃗1 − 𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ (𝑣⃗1 − 𝑣⃗ ) = 𝑣⃗1 − 𝑘⃗⃗ ∙ 𝑔⃗

Les vitesses après collision dépendent de façon linéaire des vitesses avant collision. La
variation de 𝑘⃗⃗ en direction donne toutes le valeurs possibles de 𝑣⃗ ′ et de 𝑣⃗1′ .

Inversement, la donnée de 𝑣⃗1′ de 𝑣⃗ ′ et de k permet d’obtenir 𝑣⃗ et 𝑣⃗1 . En effet de IV.9

𝑣⃗1′ − ⃗𝑣′
⃗⃗ = 𝑣⃗1 − 𝑣⃗ − 2𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ 𝑔⃗)

En posant ; 𝑔⃗ ′ = 𝑣⃗1′ − 𝑣⃗ ′ = 𝑔⃗ − 2𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ 𝑔⃗)

Ce qui permet d’obtenir

𝑣⃗ = 𝑣⃗ ′ + 𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ (𝑣⃗1′ − 𝑣⃗ ′ )) = 𝑣⃗ ′ + 𝑘⃗⃗ ∙ 𝑔⃗′


{ (IV.10)
𝑣⃗1 = 𝑣⃗1′ − 𝑘⃗⃗ ∙ (𝑘⃗⃗ ∙ ((𝑣⃗1′ − 𝑣⃗ ′ )) = 𝑣⃗1 − 𝑘⃗⃗ ∙ 𝑔⃗′

Les équations IV.9 et IV.10 signifient que pour une direction donnée si les vitesses 𝑣⃗ et 𝑣⃗1
deviennent après collision respectivement 𝑣⃗ ′ et 𝑣⃗1′ par collision directe, il existe une collision
inverse telle que 𝑣⃗ ′ et 𝑣⃗1′ se transforment en 𝑣⃗ et 𝑣⃗1. De plus IV.10 établie que(−𝑣⃗ ′ ,- 𝑣⃗1′ )

27
c'est-à-dire les vitesses après collision changées de signes, deviennent : (-𝑣⃗ et −𝑣⃗1 ) après
collisions et pour le même vecteur direction 𝑘⃗⃗ d’où la réversibilité des collisions élastiques

Remarque ; les transformations I V.9 et IV.10 sont linéaires, les Jacobien des transformation
est donc égale à un

Si on décompose le mouvement des molécules en mouvement relatif et mouvement de centre


de masse tel que 𝐺⃗ 𝑒𝑡 𝐺⃗ ′ sont les vitesses du centre de masse respectivement avant et après
collisions données par :
1
𝐺⃗ = (𝑣⃗ + 𝑣⃗1 )
2
{ 1 il vient ;
𝐺⃗ ′ = (𝑣⃗ ′ + 𝑣⃗1′ )
2

1 1
𝑣⃗ = 𝐺⃗ − 𝑔⃗ 𝑣⃗ ′ = 𝐺⃗ ′ − 2 𝑔⃗′
2
{ 1 { 1
𝑣⃗1 = 𝐺⃗ + 𝑔⃗ 𝑣⃗1′ = 𝐺⃗ ′ + 2 𝑔⃗′
2

(IV.11)

En vertu de la conservation de la quantité de mouvement on obtient

𝐺⃗ =𝐺⃗ ′ (IV12)

Ce qui signifie que les collisions n’affectent pas le centre de masse

D’autre part l’équation IV11 combinée aux équations IV.12 et IV. 6 donnent :

𝑔2 = 𝑔′2 ou |𝑔⃗| = |𝑔⃗′ | (IV.13)

Décomposons le mouvement des deux molécules qui entrent en collision en mouvement du


centre de masse et en mouvement relatif. Soient 𝐺⃗ et 𝐺⃗ ′ la vitesse du centre de masse avant et
après la collision :
1 1
𝐺⃗ = (𝑣⃗ + ⃗⃗⃗⃗⃗)
𝑣1 𝐺⃗ ′ = ⃗⃗⃗⃗⃗⃗1 )
(𝑣⃗′ + 𝑣′ (V.15)
2 2

Il vient alors :
1 1
𝑣⃗ = 𝐺⃗ − 𝑔⃗ ⃗⃗⃗ = 𝐺′
𝑣′ ⃗⃗⃗⃗ − ⃗⃗⃗⃗
𝑔′
2 2

1 1
𝑣1 = 𝐺⃗ +
⃗⃗⃗⃗⃗ 𝑔⃗ ⃗⃗⃗⃗⃗⃗1 = 𝐺′
𝑣′ ⃗⃗⃗⃗ + ⃗⃗⃗⃗
𝑔′ (V.16)
2 2

En vertu de la conservation de la quantité de mouvement (V.5) :

𝐺⃗ = 𝐺⃗ ′ (V.17)

C'est-à-dire que la collision n’affecte pas le mouvement du centre de masse. D’autre part, en
introduisant (V.16) dans (V.6) et en utilisant (V.17) on obtient :

28
𝑔² ⃗⃗⃗⃗⃗⃗
⃗⃗⃗⃗ = 𝑔 2′ ou ⃗⃗⃗⃗|
|𝑔⃗| = |𝑔′ (V.18)

C'est-à-dire que la valeur absolue de la vitesse relative est conservée dans la collision. La
collision correspond à une rotation de la vitesse relative.

Décrivons à présent la géométrie d’une collision entre deux molécules A et B dans un


système d’axes attaché à l’une des molécules (soit A). En supposant des forces centrales (à
symétrie sphérique), la trajectoire de B est plane (le moment cinétique est conservé). Ce sont
évidemment la loi des forces et les conditions initiales qui fournissent la valeur de 𝑘⃗⃗
précédemment défini.

On appelle paramètre d’impact la plus courte distance entre A et la trajectoire de B en


l’absence d’interaction (voir figure)

⃗⃗⃗⃗ sont les valeurs asymptotiques des


La trajectoire effective est dessinée en pointillés : 𝑔⃗ et 𝑔′
vitesses relatives. Le sens des flèches indique la direction de propagation.

Du fait de la symétrie par rapport à 𝑘⃗⃗ de la trajectoire (par construction), le paramètre


d’impact b se trouve inchangé après la collision. La collision inverse associée à cette collision
directe a le même 𝑘⃗⃗ et le même paramètre d’impact b.

Une manière de spécifier la collision consiste à dessiner un plan П passant par A et


perpendiculaire à la vitesse relative 𝑔⃗ et à introduire dans ce plan les coordonnées polaire
(b,θ) pour la trace de la position initiale et de la particule.

Si la loi des forces entre les molécules est connue, la trajectoire relative de B est, en principe,
entièrement déterminée dès que l’on connait le point (b,θ) dans le plan П et le module de la
vitesse initiale g. En particulier le vecteur 𝑘⃗⃗ devient une fonction connue de g, b et θ.

Soit 𝑑𝜔 = 𝑏𝑑𝑏𝑑𝜃 l’élément d’aire dans le plan П compris entre les circonférences de rayon b
et b + db centré sur A et les rayons qui font entre eux un angle dω peut être relié à la section
efficace différentielle. Par construction, toute molécule B de vitesse relative 𝑔⃗ se trouvant au
temps t dans le volume de base dω et de hauteur g τ aura, (au temps t + τ) subi une collision
avec la molécule A.

29
2) Équation de Boltzmann

Nous nous proposons de calculer la variation de f au cours du temps due aux collisions à
l’aide de la « Stosszahlansatz » (hypothèse du nombre de chocs) de Boltzmann.

En l’absence de force extérieure, le nombre de particules dans l’élément de volume 𝑑𝑥⃗𝑑𝑣⃗ à


l’instant 𝑡 + 𝛿𝑡 est :

𝑓(𝑥⃗, 𝑣⃗, 𝑡 + 𝛿𝑡)𝑑𝑥⃗𝑑𝑣⃗ = 𝑓 (𝑥⃗ − 𝑣⃗𝛿𝑡, 𝑣⃗, 𝑡) 𝑑(𝑥⃗ − 𝑣⃗𝑑𝛿 )𝑑𝑣⃗ + ∆𝑐 𝑓 (V.19)

Le premier terme du membre de droite est le terme de courant qui serait seul en l’absence
d’interactions et qui exprime simplement de fait qu’une particule de vitesse 𝑣⃗ reste enfermée
dans un petit volume de l’espace physique (à 3 dimensions) qui se déplace à la vitesse 𝑣⃗. En
vertu du théorème de Liouville, on a évidemment 𝑑𝑥⃗𝑑𝑣⃗ = 𝑑 (𝑥⃗ − 𝑣⃗𝛿𝑡)𝑑𝑣⃗. Le second terme
du membre de droite de (V.19), qui tient compte de l’effet des collisions peut s’exprimer
comme la différence de deux termes.

∆𝑐 𝑓 = 𝛷 + − 𝛷 − (V.20)

𝛷 + appelé terme de gain, donne le nombre de particules qui ne se trouvant pas à l’instant t
dans l’élément de volume 𝑑 (𝑥⃗ − 𝑣⃗𝛿𝑡) 𝑑𝑣⃗ se trouve à 𝑡 + 𝛿𝑡, du fait d’une collision dans
l’élément de volume 𝑑𝑥⃗ 𝑑𝑣⃗ .

𝛷 − , appelé terme de perte, donne le nombre de particules qui, se trouvant à t dans l’élément
de volume 𝑑 (𝑥⃗ − 𝑣⃗𝛿𝑡)𝑑𝑣⃗ ne se trouve pas du fait d’une collision, à 𝑡 + 𝛿𝑡 dans 𝑑𝑥⃗ 𝑑𝑣⃗.

Nous avons supposé que 𝛿𝑡 est un intervalle de temps tel que toute collision commencée
pendant 𝛿𝑡 est achevée avant la fin de cet intervalle.

D’après (V.3), le nombre de molécules de vitesse 𝑣⃗ qui entrent en collision avec une molécule
𝑣1 au pont 𝑥⃗ pendant l’intervalle [𝑡, 𝑡 + 𝑑𝑡]est le nombre de molécules de vitesse 𝑣⃗
de vitesse ⃗⃗⃗⃗⃗,
enfermée dans un cylindre de hauteur 𝑔𝛿𝑡 = |⃗⃗⃗⃗⃗𝑣1 − 𝑣⃗| 𝛿𝑡 et de base de rayon égal la portée
d’une interaction.

∫ 𝑏𝑑𝑏 ∫ 𝑑𝜃 𝑔 𝛿𝑡 𝑓(𝑥⃗, 𝑣⃗, 𝑡)

Où nous avons fait l’hypothèse que 𝑓(𝑥⃗, 𝑣⃗, 𝑡) varie suffisamment lentement en fonction de 𝑥⃗
pour pouvoir considérer 𝑓(𝑥⃗, 𝑣⃗, 𝑡) constant dans le petit cylindre.

En faisant l’hypothèse du « chaos moléculaire», c’est à dire l’hypothèse que le nombre


probable de particules de vitesse ⃗⃗⃗⃗⃗
𝑣1 dans un petit volume est indépendant du nombre
probable de particules de vitesse 𝑣⃗ dans le même volume, le nombre de collisions de vitesse
𝑣1 au point 𝑥⃗ dans l’intervalle [𝑡, 𝑡 + 𝛿𝑡] sera :
⃗⃗⃗⃗⃗

∫ 𝑏𝑑𝑏 ∫ 𝑑𝜃 𝑔 𝛿𝑡 𝑓 (𝑥⃗, 𝑣⃗, 𝑡) 𝑑 𝑣⃗ 𝑓(𝑥⃗, ⃗⃗⃗⃗⃗,


𝑣1 𝑡) 𝑑𝑥⃗ d ⃗⃗⃗⃗⃗
𝑣1 (V.21)

Et le nombre total de collision que subira une molécule de vitesse 𝑣⃗ au point 𝑥⃗ pendant
[𝑡, 𝑡 + 𝛿𝑡] d’est à dire 𝛷 − :
30
𝛷 − = ∫ 𝑑𝑣
⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏 ∫ 𝑑𝜃𝑔𝛿𝑡 𝑓(𝑥⃗, ⃗⃗⃗⃗⃗,
𝑣1 𝑡) 𝑑𝑥⃗ (V.21)

Dans le cas des forces centrales aucune grandeur de (V.21) ne dépend de θ. Nous pouvons
donc réécrire :

𝛷 − = 2𝜋 ∫ 𝑑𝑣 ⃗⃗⃗ 𝑡) 𝑓 (𝑥⃗, ⃗⃗⃗⃗⃗,


⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔𝛿𝑡 𝑓(𝑥⃗ , 𝑣, 𝑣1 𝑡)𝑑𝑥⃗ 𝑑𝑣⃗ (V.22)

𝛷 − tient compte de toutes les collisions directes qui diminuent le nombre de molécules de
vitesses (𝑣⃗, 𝑣⃗ + 𝑑 𝑣⃗) en (𝑥⃗, 𝑥⃗ + 𝑑𝑥⃗) pendant l’intervalle 𝛿𝑡.

Inversement, 𝛷 + va tenir compte de toutes les collisions inverses qui vont augmenter, pendant
𝛿𝑡 le nombre de molécules de vitesses (𝑣⃗, 𝑣⃗ + 𝑑 𝑣⃗) en (𝑥⃗, 𝑥⃗ + 𝑑𝑥⃗). 𝛷 + se calcule de la même
manière que 𝛷 − on a alors :

⃗⃗⃗⃗⃗⃗
𝛷 + = 2𝜋 ∫ 𝑑𝑣 1 ′ ∫ 𝑏′𝑑𝑏′𝑔′𝛿𝑡 𝑓(𝑥 ⃗⃗⃗⃗ 𝑡) 𝑓(𝑥⃗, ⃗⃗⃗⃗⃗⃗
⃗ , 𝑣, ⃗⃗⃗
𝑣1 ′, 𝑡)𝑑𝑥⃗ 𝑑𝑣′ (V.23)

On a vu (figure V.1 et V.2) que le paramètre d’impact était le même pour la collision directe
⃗⃗⃗⃗ 𝑑𝑣
et la collision inverse ; d’autre part, d’après (V.18) 𝑔 = 𝑔⃗ et d’après (V.14) 𝑑𝑣′ ⃗⃗⃗⃗⃗⃗
1′ =
𝑑𝑣⃗ 𝑑𝑣
⃗⃗⃗⃗⃗1 on peut dès lors écrire :

𝛷 + = 2𝜋 ∫ 𝑑𝑣 ⃗⃗⃗⃗⃗ 𝑡) 𝑓(𝑥⃗, ⃗⃗⃗⃗⃗⃗


⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔𝛿𝑡 𝑓(𝑥⃗ , 𝑣′, 𝑣1 ′, 𝑡)𝑑𝑥⃗ 𝑑𝑣⃗ (V.24)

Où ⃗⃗⃗⃗
𝑣′ et ⃗⃗⃗⃗⃗⃗
𝑣1 ′ doivent à présent s’exprimer comme des fonctions (𝑣⃗, ⃗⃗⃗⃗⃗,
𝑣1 𝑏) :

⃗⃗𝑣′
⃗⃗ = ⃗𝑣′
⃗⃗ (𝑣⃗, ⃗⃗⃗⃗⃗,
𝑣1 𝑏) 𝑣1 (𝑣⃗, ⃗⃗⃗⃗⃗,
𝑣1 = ⃗⃗⃗⃗⃗)
⃗⃗⃗⃗⃗ 𝑣1 𝑏)

En introduisant (V.22) et (V.24) dans (V.20) et (V.19) il vient :

𝑓 (𝑥⃗, 𝑣⃗, 𝑡 + 𝛿𝑡)𝑑𝑥⃗ 𝑑𝑣⃗


= 𝑓(𝑥⃗ − 𝑣
⃗⃗⃗⃗𝛿𝑡, 𝑣⃗, 𝑡)𝑑𝑥⃗ 𝑑𝑣⃗
𝑣1 ∫ 𝑏𝑑𝑏 𝑔 [𝑓(𝑥⃗, ⃗⃗𝑣′
+ 𝛿𝑡 2𝜋 ∫ 𝑑 ⃗⃗⃗⃗⃗ ⃗⃗, 𝑡)𝑓(𝑥⃗, ⃗⃗⃗⃗⃗⃗
𝑣1 ′, 𝑡) − 𝑓(𝑥⃗, 𝑣⃗, 𝑡)𝑓 (𝑥⃗, ⃗⃗⃗⃗⃗,
𝑣1 𝑡)] 𝑑𝑥⃗ 𝑑𝑣⃗

Si l’on considère des temps longs par rapport à 𝛿𝑡 on peut développer cette expression
autour de 𝛿𝑡 = 0 et négliger les termes proportionnels à des puissances de 𝛿𝑡 supérieures à 1.
De cette manière, on obtient l’équation de Boltzmann :

𝛿 𝛿
𝑓 (𝑥⃗, 𝑣⃗, 𝑡) + 𝑣⃗ 𝑓(𝑥⃗, 𝑣⃗, 𝑡) =
𝛿𝑡 𝛿𝑥⃗

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏 𝑔 [𝑓(𝑥⃗, ⃗⃗𝑣′


2𝜋 ∫ 𝑑𝑣 ⃗⃗, 𝑡)𝑓(𝑥⃗, ⃗⃗⃗⃗⃗⃗
𝑣1 ′, 𝑡) − 𝑓 (𝑥⃗, 𝑣⃗, 𝑡)𝑓(𝑥⃗, ⃗⃗⃗⃗⃗,
𝑣1 𝑡)] (V.25)

On écrit souvent l’équation de Boltzmann sous une forme plus compacte :


𝛿 𝛿
𝑓 + 𝑣⃗. 𝛿𝑥⃗ 𝑓 = 𝐼(𝑓, 𝑓) (V.26)
𝛿𝑡

Où le terme de collision est :

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏 𝑔(𝑓 ′ 𝑓 ′ 1 − 𝑓𝑓1 )


𝐼 (𝑓, 𝑓) = 2𝜋 ∫ 𝑑𝑣 (V.27)
31
Avec : 𝑓 = 𝑓(𝑥⃗, 𝑣⃗, 𝑡) ; 𝑓 ′ = 𝑓(𝑥⃗, ⃗⃗⃗⃗
𝑣 ′ , 𝑡)

L’équation de Boltzmann est une équation fermée pour f (f est la seule inconnue) mais c’est
une équation intégro – différentielle non linéaire.

Le premier membre de l’équation (V.25) qui contient des dérivées partielles par rapport au
temps et à la position, décrit la convection. L’intégrale qui apparait dans le second membre
provient d’un effet cumulatif : une particule de vitesse 𝑣⃗ peut entrer en collision avec une
𝑣1 Enfin, la non linéarité, qui s’exprime par le produit des deux
particule de vitesse arbitraire ⃗⃗⃗⃗⃗.
fonctions de distribution inconnues dans le membre de droite, provient du fait qu’une
collision implique deux molécules (cf en cinétique chimique limoléculaires).

Notons encore que 𝑥⃗ et t n’interviennent que comme paramètres dans le terme de collision où
l’intégration se fait sur b et ⃗⃗⃗⃗⃗
𝑣1 uniquement. De même, 𝑣⃗ n’intervient que comme paramètre
dans les termes de convection.

Il n’apparait dans le premier membre de l’équation de Boltzmann qu’une dérivée du premier


ordre de f par rapport au temps ; cela indique que l’équation servira à calculer 𝑓(𝑥⃗, 𝑣⃗, 𝑡) une
fois sa valeur initiale 𝑓(𝑥⃗, 𝑣⃗, 0) donnée. Le problème reste évidemment de savoir si, quelle
que soit sa valeur initiale, la fonction de distribution tend vers la distribution de Maxwell pour
des temps suffisamment longs.

En présence d’un champ extérieur, pourvu qu’il de varie pas trop rapidement dans la portion
d’espace et de temps dans laquelle d’effectue une collision, on suppose qu’il n’y a aucune
influence sur les collisions. Dès lors, puisqu’en l’absence des collisions, l’équation de
Boltzmann est réduite à l’équation de Liouville pour une particule libre, pour tenir compte du
champs extérieur, il suffit d’ajouter au premier membre de (V.26) le terme

𝛿𝐻 𝛿𝑓 𝐹⃗ 𝛿𝑓
− 𝛿𝑥⃗ . 𝛿𝑣⃗⃗ = 𝑚 . 𝛿𝑣⃗⃗ (où 𝐹⃗ est la force extérieure qui agit sur une particule) :

𝛿𝑓 𝛿𝑓 𝐹⃗ 𝛿𝑓
+ 𝑣⃗. 𝛿𝑥⃗ + 𝑚 . 𝛿𝑣⃗⃗ = 𝐽(𝑓, 𝑓) (V.28)
𝛿𝑡

En l’absence de collision, cette équation se réduit à l’équation de Liouville pour une particule
libre en présence d’un champs extérieur.

3) Invariantes de collision

Multiplions les deux membres de l’équation de Boltzmann (V.28) par une fonction
quelconque 𝛹(𝑥⃗, 𝑣⃗, 𝑡) et intégrons sur 𝑣⃗.

𝛿 𝛿 𝐹⃗ 𝛿
∫ 𝑑𝑣⃗ 𝛹 (𝑥⃗, 𝑣⃗, 𝑡) [𝛿𝑡 + 𝑣⃗. 𝛿𝑥⃗ + 𝑚 . 𝛿𝑣⃗⃗] 𝑓(𝑥⃗, 𝑣⃗, 𝑡) = 𝐽𝛹 (V.29)

Où nous avons posé :

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔𝛹 (𝑓 ′ 𝑓1 ′ − 𝑓𝑓1 )


𝐽𝛹 = ∫ 𝛹 𝐽(𝑓, 𝑓) 𝑑𝑣⃗ = 2𝜋 ∫ 𝑑𝑣⃗ ∫ 𝑑𝑣 (V.30)
32
Nous adoptons la même convention pour 𝛹 que pour f c'est-à-dire :

Ψ = Ψ(𝑥⃗, 𝑣⃗, 𝑡) Ψ1 = Ψ(𝑥⃗, ⃗⃗⃗⃗⃗,


𝑣1 t) … etc.

La grandeur 𝐽𝛹 possède des priorités de symétrie remarquables.

• On peut dans (V.30) permuter 𝑣⃗ et ⃗⃗⃗⃗⃗


𝑣1 puisque ce sont des variables
d’intégration, on a donc 𝐽Ψ = 𝐽Ψ1
(V.31)
• ⃗⃗⃗, ⃗⃗⃗⃗⃗
Si on fait le changement de variable 𝑣⃗ ⟶ 𝑣′ 𝑣1 ⟶ 𝑣⃗⃗⃗⃗⃗⃗
1 ′ on obtient :
⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔′ Ψ′ [𝑓𝑓1 − 𝑓 ′ 𝑓1 ′]
𝐽Ψ = 2𝜋 ∫ 𝑑𝑣⃗ ∫ 𝑑𝑣 (V.32)

Sachant (V.14) et (V.18) on a :

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔 Ψ′ [𝑓𝑓1 − 𝑓 ′ 𝑓1 ′]


𝐽Ψ = 2𝜋 ∫ 𝑑𝑣⃗ ∫ 𝑑𝑣

Soit 𝐽Ψ = − 𝐽Ψ′ (V.33)

• Dans (V.32), on ne change rien lorsqu’on permute 𝑣⃗ et ⃗⃗⃗⃗⃗,


𝑣1 d’où en utilisant
(V.14) et (V.18) : 𝐽Ψ = − 𝐽Ψ1 ′
(V.34)

On peut donc prendre pour 𝐽𝛹 une expression quelconque (V.31), (V.34) ou une combinaison
linéaire de celles-ci :

1
𝐽Ψ = [𝐽 + 𝐽𝛹1 − 𝐽𝛹′ − 𝐽Ψ1 ′ ]
4 𝛹
Expression que l’on peut encore écrire d’après (V.30) :
1
𝐽Ψ = ⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔 [Ψ + Ψ1 − Ψ′ − Ψ1′ ]. (𝑓 ′ 𝑓1′ − 𝑓𝑓1 )
2𝜋 ∫ 𝑑𝑣⃗ 𝑑𝑣 (V.35)
4

Les propriétés de symétries de 𝐽𝛹 sont des conséquences du fait que l’équation de Boltzmann
tient compte des collisions binaires et de la symétrie entre collision directe et inverse.

Certaines fonctions Ψ des vitesses des molécules sont conservées ; c'est-à-dire que leur
somme pour les molécules participant à la collision n’est pas modifiée par la collision :

Ψ + Ψ1 = Ψ′ + Ψ1′ (V.36)

Ces relations sont appelées invariants (additifs) de collision. Pour de telles fonctions Ψ il est
clair, d’après (V.35), que 𝐽𝛹 = 0. Inversement, si f est arbitraire, 𝐽𝛹 = 0 implique que Ψ est
un invariant de collision.

On peut montrer que tout invariant (additif) de collision est une combinaison linéaire, dont les
coefficients dépendent éventuellement de 𝑥⃗ et de t des cinq invariants de collision
fondamentaux : 1, 𝑣⃗ (c'est-à-dire 𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 ), 𝑣². Ces invariants correspondent respectivement

33
à la conservation par la collision du nombre de particules, de la quantité de mouvement et de
l’énergie de l’ensemble des 2 particules qui entrent en collision.

4) Théorème de 𝓗

Considérons à présent l’évolution de la grandeur 𝓗de Boltzmann définie comme :

ℋ (𝑥⃗, 𝑡) = ∫ 𝑓(𝑥⃗, 𝑣⃗, 𝑡)𝑙𝑛 𝑓(𝑥⃗, 𝑣⃗, 𝑡)𝑑𝑣⃗ (V.37)

La manière la plus commode est de prendre directement la dérivée partielle de ℋ par rapport
à t : (sachant l’équation de Boltzmann)
𝜕ℋ 𝜕𝑓 𝜕𝑓 𝐹 𝜕𝑓
= ∫ 𝑑𝑣⃗ (1 + ln 𝑓) = − ∫ 𝑑𝑣⃗ (1 + ln 𝑓) [𝑣⃗. 𝜕𝑥⃗ + 𝑚 . 𝜕𝑣⃗⃗ − 𝐽(𝑓, 𝑓)] (V.38)
𝜕𝑡 𝜕𝑡

Examinons la structure du dernier terme, c'est-à-dire la variation de ℋ due aux collisions :

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔 ln 𝑓(𝑓 ′ 𝑓1′ − 𝑓 𝑓1 ) = 𝐽ln 𝑓


∫ 𝑑𝑣⃗ (1 + ln 𝑓) 𝐽(𝑓, 𝑓) = 2𝜋 ∫ 𝑑𝑣⃗ 𝑑𝑣

Où nous avons tenu compte que 1 est un invariant de collision. D’après (V.35), on peut
encore écrire :
1 𝑓𝑓
𝐽ln 𝑓 = ⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏𝑔. ln 𝑓′ 𝑓1′ (𝑓 ′ 𝑓1′ − 𝑓𝑓1 ) ≤ 0
. 2𝜋 ∫ 𝑑𝑣⃗ 𝑑𝑣 (V.39)
4 1

L’intégrant fait de la propriété d’être négatif ou nul.


𝑥
En effet, considérons : 𝐴 = (𝑦 − 𝑥 ) ln 𝑦

𝑥
𝑥 > 𝑦 ⟶ ln >0∶ (𝑦 − 𝑥 ) < 0 ⟶ 𝐴 < 0
𝑦
𝑥
𝑥 = 𝑦 ⟶ ln =0 ∶ (𝑦 − 𝑥 ) = 0 ⟶ 𝐴 = 0
𝑦
𝑥
𝑥 < 𝑦 ⟶ ln <0∶ (𝑦 − 𝑥 ) > 0 ⟶ 𝐴 < 0
𝑦

Cette propriété implique que les collisions ne font jamais augmenter ℋ au cours du temps.
C’est le théorème de ℋ de Boltzmann.

Les autres termes de (V.38) peuvent se transformer de la manière suivante :

𝜕𝑓 𝜕
(1 + ln 𝑓). = (𝑓 ln 𝑓 )
𝜕𝑥⃗ 𝜕𝑥⃗

34
𝜕𝑓 𝜕 𝜕
(1 + ln 𝑓 ). = 𝜕𝑣⃗⃗ (𝑓 ln 𝑓 )Mais ∫ 𝑑𝑣⃗ 𝜕𝑣⃗⃗ (𝑓 ln 𝑓 ) = 0 puisqu’aucune composante de la
𝜕𝑣
⃗⃗
vitesse d’une molécule ne peut devenir infinie. Dès lors pour autant que la force 𝐹⃗ de dépende
pas de la vitesse, le deuxième terme de (V.38) est nul.

L’équation (V.38) prend alors la forme :


𝜕ℋ
+ 𝑑𝑖𝑣 ⃗⃗⃗⃗⃗
𝐽ℋ = 𝐽𝑒𝑛 𝑓 ≤ 0 (V.40)
𝜕𝑡

Où ⃗⃗⃗⃗⃗
𝐽ℋ = ∫ 𝑑𝑣⃗ 𝑣⃗ 𝑓 ln 𝑓 est le courant associé à la grandeur𝑓 ln 𝑓.

La variation totale deℋ au sein d’un système isolé est négative ; en effet, pour un tel système,
le flux à travers les parois est nul et l’on a :
𝑑
𝑑𝑡
∫ 𝑑𝑥⃗ ℋ = ∫ 𝑑𝑥⃗ 𝐽𝑒𝑛 𝑓 ≤ 0 (V.41)

Les propriétés de ℋ que nous venons d’énumérer présentent une grande analogie avec le
principe de la thermodynamique. Il existe au sein d’un système isolé une grandeur qui, à
cause des collisions ne peut que décroître au cours du temps.

L’existence de phénomènes irréversibles est ainsi démontrée dans le cas d’un gaz dilué,
systèmes pour lesquels les hypothèses que nous avons faites pour déduire l’équation de
Boltzmann son valables.

On peut utiliser ℋ pour donner la définition microscopique de l’entropie, la densité


d’entropie locale 𝑆(𝑥⃗, 𝑡) est :

𝑆(𝑥⃗, 𝑡) = −𝑘 ℋ (𝑥⃗, 𝑡) (V.42)

Où k la constante de Boltzmann, est introduite pour des raisons de dimensions et où le signe


est choisi de manière à ce que la production d’entropie soit positive.

L’équation (V.40) peut se réécrire :


𝜕𝑠
+ 𝑑𝑖𝑣 ⃗⃗⃗
𝐽𝑠 = 𝜎 ≥ 0 (V.43)
𝜕𝑡

Où ⃗⃗⃗
𝐽𝑠 = −𝑘 ∫ 𝑑𝑣⃗ 𝑣⃗ 𝑓 ln 𝑓 (V.44)

Est le flux d’entropie et où :

⃗⃗⃗⃗⃗1 ∫ 𝑏𝑑𝑏 𝑔 ln 𝑓(𝑓 ′ 𝑓1′ − 𝑓 𝑓1 )


𝜎 = −𝑘 𝐽𝑒𝑛 𝑓 = −𝑘 2𝜋 ∫ 𝑑𝑣⃗ 𝑑𝑣 (V.45)

Est la production d’entropie locale. Si l’on intègre (V.43) sur un petit volume du système
considéré, on obtient :
𝑑𝑠 𝑑𝑒𝑠 𝑑𝑖𝑠
= − ∫𝑠 ⃗⃗⃗
𝐽𝑠 𝑑 𝑠⃗ + ∫𝑣 𝑑 𝑥⃗ 𝜎 = 𝑑𝑡 + 𝑑𝑡 (V.46)
𝑑𝑡

35
Qui exprime que la variation d’entropie au sein d’un volume est due pour une part aux
échanges avec l’extérieur et pour l’autre à la création d’entropie dans ce volume.

5) Distribution de Maxwell Boltzmann


𝜕𝑓
Considérons un système uniforme (𝜕𝑥⃗ = 0). Dans ce cas le terme div ⃗⃗⃗
𝐽𝑠 de (V.43) est nul et
l’entropie du système ne pourra que croître au cours du temps. On peut montrer que 𝑠 =
−𝑘 ∫ 𝑓 ln 𝑓 𝑑𝑣⃗ possède une borne supérieure. Dès lors, l’entropie atteindra une valeur
maximale constante lorsque 𝜎 sera nul. Ceci est la condition d’équilibre du système.

D’après (V.45), (V.35) la production d’entropie est nulle lorsque ln 𝑓 est un invariant de
collision ; ln 𝑓 doit donc être une combinaison linéaire des cinq invariants fondamentaux.

⃗⃗⃗. 𝑣⃗ +∝4 𝑣²
ln 𝑓(𝑣⃗) = ∝0 +∝ (V.47)

𝑓(𝑣⃗) = 𝑒 ∝0+∝⃗⃗⃗.𝑣⃗⃗+∝4 𝑣² = 𝑎 𝑒 − 𝑏(𝑣⃗⃗−𝑐⃗)² (V.48)

∝0 = ln 𝑎 − 𝑏𝑐² ; ⃗⃗⃗= 2𝑏𝑐⃗;


∝ ∝4 = −𝑏

L’équilibre est donc réalisé lorsque le système possède la distribution des vitesses de Maxwell
Boltzmann (V.48). Cette distribution contient cinq paramètres qui dépendent de la nature du
système. Ces paramètres peuvent être fixés par les relations de définition de la densité n , de
la vitesse moyenne 𝑢⃗⃗ et de la température T :

𝑛 = ∫ 𝑓 𝑑𝑣⃗ (V.49)
1
𝑢
⃗⃗ = 𝑛 ∫ 𝑣⃗ 𝑓𝑑𝑣⃗ (V.50)

3 1 1
𝑘𝑇 = 𝑛 ∫ 2 𝑚 (𝑣⃗ − 𝑢
⃗⃗)² 𝑓𝑑𝑣⃗ (V.51)
2

A l’aide de ces relations (V.48) devient :

𝑚 3/2 𝑚
𝑓 (𝑣⃗) = 𝑛 (2𝑛𝑘𝑇 ) 𝑒 −2𝑘𝑇(𝑣⃗⃗−𝑢⃗⃗)² (V.52)

Où n, 𝑢
⃗⃗ et T sont ici cinq constantes par rapport à 𝑥⃗ et à T (si le système est immobile dans
son ensemble 𝑢 ⃗⃗ = 0).

Dans le cas des systèmes non uniformes on peut considérer la situation analogue où la
production d’entropie locale est nulle. De la même manière que dans le cas des systèmes
uniformes, on doit avoir :

ln 𝑓 = ∝0 (𝑥, 𝑡) + ∝
⃗⃗⃗ (𝑥, 𝑡). 𝑣⃗ +∝4 (𝑥⃗, 𝑡)𝑣²

Mais les coefficients peuvent dépendre de𝑥⃗ et t on a alors :

36
3/2 𝑚
𝑚 − (𝑣
⃗⃗−𝑢
⃗⃗(𝑥,𝑡))²
𝑓 (𝑥⃗, 𝑣⃗, 𝑡) = 𝑛(𝑥⃗, 𝑡) (2𝑛𝑘𝑇(𝑥,𝑡)) 𝑒 ⃗⃗⃗,𝑡)
2𝑘𝑇(𝑥 (V.53)

C’est la distribution d’équilibre local. La distribution 𝑓(𝑥⃗, 𝑣⃗, 𝑡) et la densité d’entropie locale
varient encore en raison du terme de courant de l’équation de Boltzmann par l’intermédiaire
de 𝑛(𝑥⃗, 𝑡) ; 𝑢 ⃗⃗⃗⃗⃗⃗⃗⃗⃗
⃗⃗ (𝑥, 𝑡) et 𝑇(𝑥, 𝑡).

Ces dernières grandeurs obéissent aux équations hydrodynamiques. Seule l’entropie totale de
tout le système isolé reste constante :

𝑑 𝑑𝑆
∫ 𝑑𝑥⃗ 𝑆(𝑥⃗, 𝑡) = = 0.
𝑑𝑡 𝑑𝑡

Puisque le terme de flux est nul aux bords.

37
Chapitre V

Phénomène de transport

I- Généralités

Les phénomènes de transport concernent plusieurs domaines scientifiques sociaux


économiques… En physique, l’évolution d’une particule ou d’une variable collective qui peut
être partie intégrale d’un milieu est un phénomène de transport et la théorie mathématique qui
le génère est la théorie de transport. La théorie des transports s’applique quand les degrés de
liberté d’un système peuvent être séparés en deux grandes classes :

- ceux qui varient lentement dont on veut décrire l’évolution, ils obéissent à une
équation de transport dont la forme et la structure dépendent du système

- ceux qui varient très rapidement, ils jouent le rôle d’un thermostat.

Les phénomènes de transport les lus importants en physique sont :

- Le mouvement Brownien

- L’évolution des charges dans champ électromagnétique

- Le transport de chaleur

- L’évolution des neutrons dans le combustible d’un réacteur nucléaire

- L’évolution des porteurs de charges dans un semi-conducteur ou dans un


métal

- Celle des photons dans un rayonnement électromagnétique

- Propagation des ondes…. etc

Ces phénomènes engendre des effets de transports tels que :

- La diffusion
- La conductivité électrique
- La conductivité thermique
- La conductivité thermoélectrique
- Les effets thermomagnétiques…etc
La description qualitative des phénomènes (effets) de transport fait appel aux
considérations générales concernant le mouvement de particules dans un champ de forces.

38
Le phénomène de transport concerne le transport de matière, d’impulsion, d’énergie…etc. Il
concerne aussi les grandeurs collectives ou macroscopiques (voir équations
hydrodynamiques).

Les équations de transport sont des équations irréversibles.

II- Linéarisation de l’équation de Botzmann

Certaines quantités tels que le tenseur de pression, le flux de chaleur, la quantité de chaleur
…etc doivent être exprimés en fonction des paramètres macroscopiques (température, vitesse,
densité du système…) qui s’expriment en terme fonction de la fonction de distribution. Pour
cela il faut résoudre l’équation de Boltzmann qui contient un terme non linéaire qui est le
terme de collision. Sauf dans certains cas simples, cette résolution ne peut se faire
qu’approximativement.

- Une première approximation est la méthode de relaxation dans laquelle on


 
Suppose que f ( r , v , t ) tend vers une fonction de distribution d’équilibre

f(o)( r , v , t ) en un temps d’ordre  . L’idée est alors de remplacer le terme de
f − f
collision par . L’équation de Boltzmann devient
 
f  f F f f − f
+ v.  + .  = − équation différentielle linéaire
t x m v 
 temps caractéristique des collisions appelé temps de relaxation (c’est le
temps mis entre deux collisions).

- Une deuxième approche concerne la situation ou le système est proche de


l’équilibre global en absence d’un champ extérieur. Dans ce cas :
m 31 mv 2
f ( o ) = n( ) exp − ( ) m et t sont constantes
2k bT 2k b T

On suppose alors que : f = f ( o )+ f i + f 2 + ... avec f i Terme perturbatif de f


(d’ordre i  1

- Une troisième approche, consiste à supposer qu’il y a équilibre local en


chaque point de l’espace

(o)    m 3 (m(v − u )) 2
f (r , v , t ) = n(r , t )(  ) exp − 2

2k BT (r , t ) 2k B T ( r , t )
  
Dans ce cas : f = f ( o ) (1 +  (r , v , t ))  (r , v , t ) <<1

III-Application : Détermination de la conductivité électrique d’un gaz

Nous allons calculer la conductivité électrique d’un gaz d’électrons soumis à


un champ électrique extérieur faible stationnaire (indépendant du temps) et uniforme. La force
F qui agit sur un électron est :
 
F = eE (2)

39
Où E est le champ appliqué. Lorsqu’on applique un tel champ à un système initialement
uniforme, il se crée un courant uniforme qui devient rapidement stationnaire. On recherchera
donc une solution à l’équation :


eE f f −fo
.  =− (3)
m v 

Cette équation exprime un compromis entre le champ qui accélère les électrons et les
collisions qui tendent à ramener le système à l’équilibre. On tire de (3) :

eE f
f = f  − .  (4)
m v

D’après (3), f – f° est au moins proportionnel à E , on pourra donc écrire :

f = f° + Ef ’+…..

Comme par hypothèse E est faible, on peut dans (4) négliger les termes proportionnels à E 2
et écrire :

eE f 
f = f  − .  (5)
m v

 1
La distribution de Maxwell ne dépend de v que par l’intermédiaire de l’énergie  = m v 2 :
2

eE  f  e  
f = f  − .  = f+ E.v f  (6)
m v  kTm

La densité de courant électrique est:


  
J = e  v fdv (7)

J est nul à l’équilibre par parité, il devient donc de (6)

 e 2     e 2 
J= E.  v v f dv = nE (8)
mkT m

La conductivité électrique est le coefficient de proportionnalité entre la densité de courant et


le champ appliqué (loi d’Ohm):

e 2
= n
m
Le facteur  qui intervient dans l’expression de  vient de ce que les phénomènes de
transport sont liés aux phénomènes irréversibles de relaxation vers l’équilibre, plus le temps
de relaxation est grand, plus les phénomènes de transport sont importants.
40
Un calcul, plus rigoureux que celui que nous avons donné, des coefficients de
transport, est bien vérifié par l’expérience pour le gaz dilué. D’autre part, les coefficients de
transport fournissent des renseignements sur les lois d’interaction entre les molécules qui
peuvent être utilisées en mécanique statistique d’équilibre. Ceci montre que l’équation de
Boltzmann est correcte pour décrire les phénomènes de transport. Néanmoins, son
interprétation pose certains problèmes théoriques.

EQUATION D’ENSKOG

Cette équation permet de retrouver les équations d’évolution des grandeurs ou


caractéristiques d’un système.

Un système (ou particule ou ensemble de particules) est caractérisé par sa masse, sa vitesse,
son énergie cinétique,…ets).
 
Soit P ( r , v ; t ) une propriété physique de cette particule (pour simplifier nous prenons P
scalaire le résultat est généralisable au cas vectoriel).
 
Notre objectif est de trouver la loi d’évolution de toute propriété P ( r , v ; t ) .

On défini ; P = P ( r ; t ) par :

 1    
P = P ( r;t ) =   P(r , v ; t ) f (r , v ; t ) dv (1)
n ( r ;t)

Cette équation combinée à l’équation cinétique de Boltzmann :



f  f F f
+ v.  + .  = I ( f , f ) (2)
t x m v
 
On multiplie l’équation (2) par P ( r , v ; t ) et on intègre sur l’espace des vitesses, on obtient :
           
 ( Df ) P(r , v ; t ) dv =  I P(r , v ; t )dv −  I − P(r , v ; t )dv =  I P(r , v ; t )dv = J ( P)
+
(3)

Le premier membre de cette équation s’écrit :



f   f  F f 
 ( Df ) P =  t Pdv +  v. r P dv +  m  v P dv (4)

Les différents termes de cette expression se calculent selon :


f   P    P  f  nP P
 t Pdv =  ( t ( fP) − f t ) dv = t  f P dv −  f t dv  t Pdv = t
−n
t
(5)


Où ; n = n( r ; t): est la densité est locale

41
La même technique appliquée à tous les termes du membre de droite donne :

 f   (n v r P) P
 v. r P dv =  r = x ,t , z dr
− nv r
r
(6)
  P
=  (n v P) − n v  
r r

 d U (r )
Pour le troisième terme la force F est indépendante de la vitesse; F = − 
dr
  
F f   F F P 
 m . v P dv =  (  v  ( m fP) − m f  v ) dv
  (7)
F P  F P
= −   f  dv = − n  
m v m v

Le regroupement des différents termes et sachant la définition de l’opérateur D on trouve :

    
D= + r   + p  
t r p
 (8)
  nv P
 ( D f ) P dv = n DP −  + J ( P)
r

Cette équation permet de retrouver toutes les équations hydrodynamiques.



 P  P F P
Avec : DP = +v  +   (9)
t r m v

D’où l’équation d’ENSKOG :

 
n P = n DP − n v P + C (P) (10)
  r

L’équation qui permet de retrouver la loi d’évolution de toutes les grandeurs physiques d’un
système.

42
ChapitreVI :

PROCESSUS STOCHASTIQUES

I- DESCRIPTION PHENOMEMOLOGIQUE DE PROCESSUS DEPNEDANT


DU TEMPS

1- Introduction

C’est au niveau de ses applications en physique et en technologie que la théorie des


probabilité s’est trouvée confronter avec le problème d’intégrer la notion de processus, c'est-
à-dire, de phénomène ayant lieu au cours du temps ; il fut alors nécessaire de développer une
théorie des processus stochastiques permettant d’étudier des variables aléatoires dépendantes
d’une ou de plusieurs paramètres et du temps.

Nous allons introduire la notion de processus et de variable stochastiques en se basant sur


l’exemple de la marche au hasard sur une droite

2- Exemple; le random flight (fuite au hasard) à une dimension

C’est l’exemple le plus simple qui sert de modèle aux problèmes de mouvement Brownien,
de la diffusion, il s’applique à la mécanique statistique des polymères,…etc.

Considérons une particule qui se déplace sur une droite par suite de bonds d’égales
longueurs. En absence de champs extérieur, la probabilité d’un pas à gauche ou d’un pas à
droite est égale à ½, elle ne dépend donc ni de la position de la particule au moment de la
transition, ni de l’instant au quel la transition a lieu, ni de la direction du pas précédent.

Partant de zéro, après N pas, la particule peut se trouver en –N, -N+1, …, 0, 1,…, N-1, N.

On cherche la probabilité P (m, N) pour qu’après N pas la particule se trouve en m, c'est-à-


dire ait fait un déplacement effectif m.

En vertu de ces hypothèses, la probabilité de toute suite de N pas est (1/2) N. Pour trouver P il
faut multiplier par le nombre de suites distinctes de N pas qui mènent en m.

Pour arriver en m au départ de zéro (après N pas). Il faut nécessairement faire (N+m)/2 pas
vers la droite et (N- m)/2 pas vers la gauche (N et m sont de même parité).

43
Le nombre de séquences distinctes est donc :
N! 1
= C NN + m et P ( N , m) = C NN + m ( ) N (1)
N +m N +m 2
( )!( )! 2 2
2 2

On retrouve ainsi une distribution de Bernoulli, ce qui est normal puisque la description de
ce type de mouvement suit la loi de Bernouilli. Le cas le plus intéressant de celui où m<<N, il
devient utile de travailler avec la formule de Stirling pour N très grand :

1 1 1
Sachant le développement pour x petit: ln N ! = ( N + ) ln N − N + ln 2 + 0( ) (2)
2 2 N

x2
Et pour x petit, ln(   x) =  x − + 0 (x 2 )
2
Il vient alors
1 1 N m 1 N m 1
ln P(m, M )  ( N + ) ln N − ( N + m + 1) ln (1 + )) − ( N − m + 1) ln (1 − )) − ln 2 − N ln 2
2 2 2 N 2 2 N 2
1  m m  1
2
 m m2 
− ( N + m + 1) ln N − ln 2 + −  − ( N − m + 1) ln N − ln 2 − − 
2  N 2N 2  2  N 2N 2 
D’où; après simplification
1
m2
1 1 m2  2  2 −2N
ln P (m, M )  − ln N + ln 2 − ln 2 − Et ; P(m, N )    e (3)
2 2 2N  N 
Cette approche est valable lorsqu’il s’agit de chercher la probabilité de trouver en m=5
après N=95 pas mais non en m=80 après N=100 (m et N voisins)

La formule (4) présentée ici comme un cas particulier du théorème de Moivre (passage de la
distribution binomiale à la distribution de Gausse) , peut aussi être comprise comme une
conséquence du théorème de la limite centrale(TCL).

Le TCL dit que la somme de tous les déplacements individuels saura représentée par une
distribution gaussienne même si les déplacements individuels prennent des distributions
différentes, on aurait trouver la même distribution limite pour le déplacement globale, le choie
de p=1/2 et d’une longueur constante du pas n’est pas restrictif.

Dans le cas où N est très grand, on introduit le déplacement totale; x = ml où l est la longueur
d’un pas. Si on considère un intervalle x grand par rapport à la longueur d’un pas, on peut
chercher la probabilité pour que la particule soit dans l’intervalle ; x, x + x après N
déplacements, on alors ;
x
P( x, N ) x = P(m, N ) ( )
2l

1
x2
 1  2 − 2 Nl 2
Soit P ( x, N )   2 
e (4)
 2Nl 

44
Si en plus on suppose que la particule effectue n déplacement par unité de temps ; N = nt, la
probabilité pour que la particule se trouve entre x et x + x après un temps t est :
1
  2 − x2
1  1 
1
4 nl 2t
P( x, t )x  e 2 x
2 1 2 
  nl t 
 2 
1
x2
1  1  2 − 4D t
D’où ; P( x, t )    e (5)
2  Dt 

1 2
Avec ; D= nl (6)
2

D est le coefficient de diffusion, il est proportionnel à la fréquence des déplacements par le


carré de la longueur d’un déplacement. Le coefficient D contient toute la dynamique

Remarque

Dans le cas où les déplacements élémentaires possèdent une distribution de probabilité, on


remplace l² par une moyenne.

L’expression obtenue de P(x, t) est en réalité une probabilité conditionnelle, c’est la


probabilité de trouver la particule en (x, t) alors qu’elle était à t=0 à l’origine, c'est-à-dire :
P(x, t /0, 0).

Si donc la particule part de x’ à l’instant t’, il est aisé de voir que la probabilité P (x, t/x’, t’)
1
( x − x ') 2
 1  2 − 4 D ( t − t ')
est telle que : P( x, t / x' , t ' ) =   e (7)
 4D (t − t ' ) 

Et la probabilité absolue de trouver la particule en x à l’instant t alors qu’elle était en x’ à


l’instant t’est :
W ( x, t ) =  dx' P( x, t / x' , t ' ) W ( x' , t ' ) (8)
1
( x − x ') 2
 1  − 4 D (t − t ')
2
W ( x, t ) =  dx'   e W ( x' , t ' ) (9)
 4D (t − t ' ) 
W(x,t) est appelée probabilité de transition.

La dérivation par rapport au temps et par rapport à x (dérivé seconde/ à x) de W(x, t) ou de


P(x, t/x’, t’), montre que ces fonctions sont solution de l’équation :

U 2 U
=D (10)
t  x2
Cette équation aux dérivés partiels de type parabolique est appelée équation de diffusion,
c’est un cas particulier d’un modèle très vaste d’équations Fokker PLANK ;

45

U 
La généralisation à trois dimensions est : = D U (11)
t
L’équation de diffusion décrit un phénomène irréversible, elle caractérise la tendance vers
l’uniformisation des probabilités de présence des particules : Après un temps suffisamment
long la distribution sera uniforme. Le comportement de cette équation est fondamentalement
différent de celui d’une corde vibrante :

2 U 2 U
= D
t2  x2

Celle ci est invariante par substitution de t en –t, c'est-à-dire que si U(t) est solution, U(-t) en
est une aussi, ce qui n’est pas le cas pour l’équation de diffusion pour la quelle une évolution
possible dans un sens ne l’est pas dans l’autre. Ce résultat est exprimé par le théorème H de
Boltzmann :

H (t ) =  dx P( x, t ) ln P( x, t ) (12)

Alors ;

 H (t )   P ( x, t )
t
=
t  dx P( x, t ) +  dx ln P ( x, t )
t

 2 P ( x, t )
= 0 + D  dx ln P( x, t )
x 2
1  P ( x, t ) 2
= − D  dx ( )
P ( x, t ) x

Comme, l’intégrant est toujours positif, on obtient le résultat ;

 H (t )
0 (13)
t

Quelles sont les faiblesses de ce modèle ?

i) on ne sait pas quand ce schéma s’applique, il est valable par exemple, pour une
macromolécule qui se déplace dans liquide. L’hypothèse faite suppose que la
particule se déplace indépendamment de l’histoire antérieure de son mouvement :
Entre chaque transition, elle a le temps d’oublier toutes les caractéristiques des
transitions précédentes. Une particule de haute énergie par exemple garde
longtemps le souvenir de son énergie.
ii) On ne sait pas quel coefficient de diffusion prendre ; dans ce modèle on le prend
arbitraire et on le rattache au milieu, par la suite, on le relie aux grandeurs
caractéristiques du système (masse, charge, moment dipolaire,…etc) qui entre
dans l’Hamiltonien.

46
II- CLASSIFICATION DES PROCESSUS STOCHASTIQUES

1- Variables Stochastiques
Une variable stochastique x est une variable dont on ne peut connaître qu la probabilité
pour quelle prenne un valeur xk.
Pour définir une variable stochastique, il est commode la probabilité conditionnelle
P1(x, t) au temps t.

P1(x, t) est la probabilité pour que la variable stochastique ait une valeur comprise
entre x et x+dx au temps t.P1(x, t) dx est la densité de probabilité qui ne peut
caractériser complètement le processus stochastique. En effet si la particule est en xk
au temps tk, le saut vers le point (xk-1, tk-1) peut dépendre des sauts antérieurs : (x1, t1),
(x2, t2),…(xk-2, tk-2).

La densité probabilité conjointe P2(x2, t2 /x1, t1); probabilité pour que la particule soit
en x2 au temps t2 et en x1 au temps t1, elle contient moins d’informations sur le
processus stochastique. Il en est de même pour les probabilités P k(xk, tk /xk-1, tk-1
/…/x1, t1). Par conséquent pour définir complètement le processus stochastique, il faut
connaître l’ensemble des densités de probabilité conjointes; P(x, t), P 2(x2, t2/x1, t1),…,
Pk(xk, tk /xk-1, tk-1 /…/x1, t1), qui doivent satisfaire :

*Pn(xn, tn/xn-1, tn-1/…./x1, t1)  0 puisque c’est la distribution de probabilité


*Pn(xn, tn/xn-1, tn-1/…/x1, t1) doit être symétrique par rapport aux permutations des
couples (xi, ti)
* Il existe un relation entre les probabilités conjointes d’ordres différents
Pk ( x k , t k /  / x1 , t1 ) =  Pn ( x n , t n /  / x1 , t1 ) dx k +1 dx  dx n k n (1)
On suppose par la suite que la séquence de temps est ordonnée

t1  t 2  t 3   t n (2)

2- Processus Markovien
Les processus stochastiques peuvent être classé selon leur degré de complexité ; qui est
défini à partir du nombre (ou ordre de distributions conjointes pour complètement définir
le processus aléatoire.
La situation la plus simple est le cas où la distribution P 1(x1, t1)dx suffit pour caractériser
le processus qui est dit complètement stochastique.
Dans ce cas ; P2(x2, t2/x1,t1) = P1(x2,t2)P1(x1, t1)

Exemple ;
Ce type de processus décrit par exemple le bruit blanc d’une chaîne électronique ou
l’arrivé d’un météorite sur la terre.
La situation la plus fréquente en physique correspond au processus de Markov : Ce type
de processus est complètement caractérisé par la donné de P 1(x1, t1) et de P2(x2, t2 / x1, t1).
On pratique on utilise la probabilité de transition W(x2, t2/x1, t1)

47
P2(x2, t2/x1, t1) = W(x2, t2 /x1, t1) P1(x1, t1) (4)

Combinée aux propriétés des Pn on obtient :

*W(x2, t2 / x1, t1)  0

*  W ( x 2 , t 2 / x1 , t1 ) dx = 1

* P2 ( x 2 , t 2 ) =  W ( x 2 , t 2 / x1 , t1 ) P1 ( x1 , t1 ) dx 2 (5)

Qui exprime le fait que pour calculer P2(x2, t2) il faut tenir compte de tous les x1 possibles

* Dans un processus markovien, la probabilité de transition d’ordre n :

Wn ( xn , t n / xn−1 , t n−1 /  / x1 , t1 ) = W ( xn , t n / xn−1 , t n−1 )

Avec ; t1  t 2  t 3   t n (6)

Ce qui signifie que la probabilité de transition de l’état (xn-1, tn-1) vers (xn, tn) ne dépend pas
de l’histoire du système (xn-2, tn-2, … , x1, t1))

Les processus non markovien sont plus complexes, ils nécessitent la connaissance des
probabilités d’ordre supérieur à deux.

3- Equation de Chapman-Kolmogorov
Cette équation, exprime la probabilité de transition de (x1, t1) vers (x3, t3) comme l’intégrale
sur x2 du produit de la probabilité de (x1, t1) vers (x2, t2) et de (x2, t2) vers (x3, t3), elle est
donnée par :
W ( x3 , t 3 / x1 , t1 ) =  W ( x3 , t 3 / x 2 , t 2 ) W ( x 2 , t 2 / x1 , t1 ) dx 2 (7)

C’est l’équation de Chapman-Kolmogorov ou équation de Smoluchouski fondamentale


pour l’étude de processus stochastique

Remarque
Il existe une classe particulière de processus markovien qui jouent un rôle très important en
physique ; il s’agit des processus stationnaires tels que la probabilité de transition ne dépend
que de la différence t 1-t2, on a alors ;

III-EQUATION DE LANGEVIN, MOUVEMENT BROWNIEN


1- Mouvement Brownien
Découvert par Brown, alors qu’il observé le mouvement de grains de pollen dispersés
dans l’eau, il s’apercevait qu’ils avaient une trajectoire très irrégulière, qu’il n’arrivé pas à
expliquer.

Einstein a donné en 1905 une explication ce phénomène qui a pour origine les collisions
des molécules du liquide sur les grains de pollen.
48
Plus généralement, le mouvement Brownien est observé lorqu’une particule
macroscopique de petite taille (quelque micron) est émergée dans un liquide gaz ou en
équilibre thermique.
Le mouvement Brownien est un excellent exemple d’illustration de la relation entre
Dissipation et Fluctuation

2-Exemples :
Exemple -1-
Soit une particule de masse M (Brownien) immergée dans un liquide à la température T. On
restreint notre étude à une dimension, la généralisation à trois dimensions est directe.

Soit x (t), la position de la particule M, sa vitesse est :



 dx
v=
dt
Macroscopiquement la particule M est soumise à deux forces :
   
• F(t), provient du champ extérieur (exemple, F (t ) = M g ou F (t ) = q E )

• Une force de Friction qui s’oppose au mouvement de la particule Brownien,


elle est proportionnelle à la vitesse mais de signe opposé, elle varie lentement
par rapport au temps.
Compte tenu de ces conditions, la force de Newton est :

dv  
M = F − v (8)
dt
Cette équation déterministe ne permet pas de décrire la trajectoire de la particule Brownien
puisqu’on ne tient pas compte des chocs des molécules sur cette particule. Dans le cas
particulier où M très grande par rapport aux molécules (M>>) ; cette équation décrit
parfaitement le mouvement de la particule Brownien.

Exemple-2- Chute d’une bille dans un liquide

Une manière simple de décrire ce mouvement est de corriger l’expression précédente en


ajoutant un terme aléatoire ou stochastique qui traduit l’influence des molécules du fluide
sur la particule M. Cette contribution aléatoire F(t) provient des fluctuation peut donc prédire
ns de la valeur moyenne de la résultante des forces :

dv   
M = F − v − f (t ) Equation de Langevin (9)
dt
C’est l’équation de Langevin, elle n’est pas déterministe mais stochastique.

L’idée est de faire des hypothèses raisonnables sur la nature de f (t) (chaque collision entre
une molécule et une particule Brownien conduit à une déflexion de cette dernière ; ces
collisions sont aléatoires en position, direction, intensité et temps. Compte tenu du grand
nombre de molécules présentes dans le fluide, on ne peut donc pas prédire l’effet des
collisions sur la particule M.

49
Exemple- 3-

On considère un ensemble de système pour lequel les propriétés macroscopiques sont


identiques (chaque système est dans le même macoétat mais dans un microétat différent), on
suppose en plus que
*Le liquide est isotropique et que F(t) est telle que

<F (t)> = 0 appelée moment d’ordre un de F (t)

*Les corrélations entre deux collisions se produisent l’une à l’instant t1, l’autre à l’instant t2
est nulle des que (t 1-t2) est supérieur c, duré d’une collision.
Le moment d’ordre 2 de F (t) s’écrit
 
F (t1 ) F (t 2 ) =  (t1 − t 2 ) (10)
*  (t1-t2) est une fonction très piquée autour de (t1-t2) = 0

  (t1-t2)  0 dés que (t1-t2) diffère considérablement de c

* On suppose en plus que le processus est Gaussien

* Les moments d’ordres supérieurs peuvent tous être exprimés en fonction des deux premiers

* On suppose que la fonction de corrélation (éq (10)) est une fonction de Dirac

f (t1 ) f (t 2 ) = C  (t1 − t 2 ) (11)

* On suppose qu’il n’y a pas de champs extérieur ; F(t) = 0; l’équation de Langevin devient :

dv  
M = − v − f (t ) (12)
dt
Équation différentielle qui se résout en deux étapes ;

1ier étape, solution de l’équation sans second membre


  − t
dv  
M + v = 0  v (t ) = K e M
dt
2iem étape, Variation de la constante, on obtient la solution générale :
t  
 − ( t − )  − t
v (t ) =  e M f ( )d + v (0)e M
(13)
0

Le second terme de cette équation décroit très vite avec le temps (t >> /M). L’énergie
cinétique dans ce cas est :
t  t 
M v2 M − ( t − ) − ( t − ')
 =  e M f ( )d  e M f ( ' )d ' 
2 2 0 0

50
 
M − ( t − ) − ( t − ' )
=   e M f ( ) e M f ( ' ) d d ' 
2 0
2 
M −M t ( +  ' )
=
2
e 
0
eM  f ( ) f ( ' )  d d '

Puisque la moyenne sur l’ensemble des macro états et l’intégration sur le temps sont deux
opérations indépendantes. En utilisant l’expression (11) on obtient :
2 
Mv 2 M − t ( +  ' )
  = C e M  e M  ( −  ' ) d d '
2 2 0

2

2
(14)
M − t t 2 M  d CM 2 − t
=C e M  e = (1 − e M )
2 0 4

Pour t>> on atteint un état stationnaire donné par,

Mv 2 M2
 = C (15)
2 4

Résumé : Partant de l’équation de Langevin et pour des temps très grands, nous avons obtenu
une expression simplifiée de l’énergie cinétique fonction ; de la constante C caractéristique
des fluctuations du système, de la masse M et du coefficient de friction 

D’autre part la particule brownienne est en équilibre statistique avec les molécules du milieu
(thermostat à la température T), d’après le théorème de l’équipartition des énergies :

M v 2 (t ) 1
 = KT (16)
2 2

Les équations (15) et (16) permettent d’obtenir :

2
C= KT (17)
M2
Remarquons, que le coefficient C (caractéristique des fluctuations) est directement
proportionnel à la constante de friction caractéristique de la dissipation, l’équation (15) est
une forme très particulière d’un théorème très générale intitulé Fluctuation -Dissipation.

Ce résultat, exprime le fait que si l’on observe de la dissipation dans un système, on doit
forcement observer des fluctuations, de même l’observation des fluctuations pour des
variables collectives d’un système complexe implique l’existence de dissipation ; en effet la
dissipation n’est rien d’autre qu’un transfert irréversible de l’énergie macroscopique des
degrés de liberté collectif vers les degrés de liberté interne qui sont en grand nombre et qu’on
ne décrit pas explicitement.

51
• Propriétés liées aux déplacements de la particule Brownienne
Si elle est en x = 0 au temps t = 0, par raison de symétrie < x > = 0 en absence d’un champ
extérieur (puisque la probabilité d’aller vers la gauche ou vers la droite est la même).

• La fluctuation autour de la valeur moyenne de x est :


 ( x −  x2  )2  =  x2 

Pour calculer cette moyenne on utilise l’équation de Langevin sans champ extérieur (F=0) et
on multiplie par x.
d x  d x x 
 Mx =M − x 2  = − x x + xf (t )
dt  dt 
La valeur moyenne de cette expression est telle que;
d x  d  x x 
 M x =M −  x 2   = −  x x +  xf (t ) (18)
dt  dt 
Or, x et f(t) ne son pas corrélés   x f (t )  =  x  f ( x)  = 0
Le théorème de l’équipartition de l’énergie est tel que ;
M x2  = k T

D’où le résultat ;
d  x x
M +  x x = T (19)
dt
En posant, z =  x x  , on constate que l’équation (19) est une équation différentielle à
coefficients constants pour la variable z, la solution générale de cette équation est la somme
de solution de l’ESSM et de la solution particulière de l’ASM
1 d x2  − t kT
z =  x x  = = Ae M +
2 dt 
kT
à, t = 0, x = 0  A=−

2kT  − t
M 
et,  x2  = 1 − e  (20)
 
Sachant qu’à t = 0,  x 2  = 0 , on obtient :
2kT  M − t
M 
 x2  =t − (1 − e ) (21)
   
Dans l’approximation ;
M 2 kT
t    x2   t (23)
 
La particule brownienne « Diffuse » dans le milieu, on donc à faire à un processus de
diffusion caractérisé par la constante D de diffusion donnée par :
kT
D= t Relation d’Einstein (24)

52
Exemple ;

Une particule sphérique plongée dans un liquide de viscosité Le coefficient de friction


est donné par la formule de Stocks :

 = 6   RB
kT (25)
 x2  = t
3   RB

Remarque ;

Connaissant la taille (RB) de la particule et la viscosité  on peut déterminer la constante de


Boltzmann.

53

Vous aimerez peut-être aussi