Vous êtes sur la page 1sur 74

UNIVERSITE DE LOME

Faculté Des Sciences

°°°
Département de Physique

Eléments de Cours de

UE PHY 312 : PHYSIQUE STATISTIQUE

Dr. Magolmèèna BANNA


Professeur des Universités (CAMES 2012)
Professeur Titulaire en Physique Energétique,
Transferts Thermiques et de Masse

1
SYLLABUS
Domaine : Sciences et Technologie ST

Parcours: Licence de Physique

Faculté Des Sciences

PHY 312 : PHYSIQUE STATISTIQUE

Semestre : Mousson

Nombre de crédits : 04

Langue d’enseignement : Français

Public cible : Etudiants des parcours de Physique, Chimie et Mathématiques

Pré-requis : Pour suivre cet enseignement, vous devez avoir suivi les Unités d'Enseignement de la
Thermodynamique Classique et de l’Introduction à la Mécanique Quantique.

Enseignants :
1 Dr. Magolmèèna BANNA
Professeur Titulaire des Universités
Téléphone cellulaire :
E-mail : magbanna@yahoo.fr

2 Dr Isiaka AREMUA, Maître de Conférences

Disponibilité :
Jours Heures
Lundi 15 h -17h
Mercredi 8 h-10 h

Description

L’Unité d’Enseignement « Physique Statistique » fournit aux étudiants de niveau licence des
fondamentaux de bases en thermodynamique statistique. Le but de la physique statistique est
d'étudier les lois particulières qui régissent le comportement des particules que composent les
corps physiques macroscopiques comprenant un très grand nombre de particules de l’ordre
de 1023, en relation avec les grandeurs observées à l’échelle humaine (macroscopique). Dans
ce cours, les concepts, définitions, principes et axiomes sont énoncés et les différentes
physiques statistiques classique et quantiques sont présentées et complétées par des
applications sur des systèmes physiques bien connus.

________________________________________________________
2
Objectifs de l’Unité d’Enseignement :

Objectif Général:

Etudier les propriétés macroscopiques de la matière des systèmes mécaniques à N particules


(N>1023) par des approches statistiques utilisant les lois de probabilité.

Objectifs Spécifiques

1. Définir les concepts fondamentaux et axiomes de la thermodynamique statistique


2. Présenter les différentes distributions statistiques des systèmes thermodynamiques en
équilibre : (Statistiques classique et quantiques)
3. Appliquer les lois de distributions quantiques et établir les lois et propriétés :

 du rayonnement électromagnétique (corps noir) ;


 de la théorie électronique des métaux ; et
 des corps condensés solides

________________________________________________________________________

PROGRAMME :

Pan du contenue l’Unité d’Enseignement :

 Chapitre 1 : Principes fondamentaux de la physique statistique


 Chapitre 2 : Distributions de Gibbs
 Chapitre 3 : Statistique de Maxwell-Boltzmann : Etude des gaz parfaits
 Chapitre 4 : Distributions de Bose-Einstein et de Fermi-Dirac et Applications
 Chapitre 5 : Corps condensés : Etude des solides

______________________________________________________________________

BIBLIOGRAPHIE :

1. Physique statistique, Landau ; Edition Mir


2. Thermodynamique, Bruhat ; Edition Cie et Masson
3. Physique statistique , L. Couture/R. Zitoun ; Edition Elipse, 1992
4. Thermodynamique Statistique : Résumés de cours et problèmes résolus, Chahine/P.
Devaux ; Dunod Université, 1976.
5. Exercice et problème corrigés de mécanique Statistique, Elie Berorizky et Wladmir Gorecki,
Presse Universitaire de Grenoble Science 1994
6. Problems and solutions on thermodynamics and statistical
7. Mechanic, Yung-Kuo Lin ; Word. Scientific.

____________________________________________________________________________________

3
4
INTRODUCTION GENERALE

La matière est constituée de « particules » (atomes, molécules) et l’état dans lequel se trouvent ces
particules (position, vitesse) est responsable des phénomènes observés à l’échelle humaine. Par
exemple :
 la notion de température est reliée à l’énergie cinétique, ou à la vitesse des particules : plus
leur vitesse moyenne est grande, plus le corps constitué par l’ensemble de ces particules
semble chaud.
 De même la notion de densité ou de masse volumique est reliée à la distance moyenne des
particules entre elles, et la notion de pression à la quantité de mouvement que ces particules
peuvent transmettre à une surface quelconque.

Le but de la physique statistique est d’étudier le comportement des particules qui composent les
corps physiques comprenant un très grand nombre de particules de l’ordre de 1023.

L’étude de comportement des particules est qualifiée de microscopique ; c’est une donc une étude
théorique a contrario des grandeurs observées dites macroscopiques issues des résultats de
mesure.

Il est impossible, comme il sera montré plus loin, de calculer à chaque instant la position et la
vitesse de chacune des particules d’un corps physique. En revanche on peut calculer, par exemple,
le nombre de particules dans un volume donné à un instant donné, ou encore le nombre de
particules ayant une vitesse donnée : il s’agit donc bien d’une approche statistique, qui repose sur
l’étude des probabilités.

Pour ce cours, nous nous limiterons essentiellement à l’étude des systèmes en équilibre
thermodynamique. La raison est que la plupart des systèmes physiques (hormis biologiques..)
sont en équilibre thermodynamique ou tendent rapidement vers cet équilibre.

La statistique étudie les lois particulières régissant le comportement et les propriétés des corps
macroscopiques. Le caractère général de ces lois n’est pas essentiellement déterminé par un type de
mécanique : classique ou quantique décrivant le mouvement de chaque particule du système ou du
corps.
Néanmoins, dans les 2 cas, les raisonnements nécessaires pour démontrer ces lois sont différentes.

Pour un système mécanique de s degré de liberté, si on connaît s équations de mouvement, on


peut en intégrant ce système obtenir tout au moins en principe, une description complète du
mouvement ou du système. Pour un nombre important de degré de liberté, on a un nombre
important d’équations difficiles à résoudre. Il est absolument impossible d’y introduire les
conditions initiales pour les vitesses et les coordonnées de position des particules.

A première vue, on pourrait en conclure que lorsque le nombre de particules augmente, les
propriétés du système mécanique doivent devenir infiniment compliquées et enchevêtrées et qu’il
est impossible de trouver dans le comportement des corps macroscopiques toutes trace de lois.
Mais, il en est tout autrement ; il apparait des lois toutes particulières lorsque le nombre de
particules devient grand.

En physique statistique, on introduit explicitement la structure moléculaire des systèmes et c’est ce


qui la distingue essentiellement de la thermodynamique et de la théorie phénoménologique des
processus.

5
Depuis Euler, on sait qu’on peut expliquer les propriétés des gaz en les considérants comme formé
d’un nombre important de particules animées d’un mouvement parfaitement désordonné.
Récemment, les physiciens ont généralisé cette notion de gaz et l’on appliqué à des particules
comme les électrons ou les photons.
Pour étudier théoriquement de tels gaz, on utilise les calculs probabilistes pour bâtir ainsi la
mécanique statistique.

En fait, il existe plusieurs mécaniques statistiques qui se distinguent par les conventions faites pour
évaluer les probabilités. Citons :

1. la statistique classique de Maxwell-Boltzmann,


2. les statistiques quantiques de :
 Bose-Einstein qui s’applique parfaitement au gaz de photons et fournit en autres les lois du
corps noir, et de
 Fermi-Dirac qui s’applique spécialement aux gaz d’électrons et permet d’étudier la théorie
électronique des métaux et les des semi-conducteurs.

Notons que la statistique de Gibbs élaborée au même moment que les autres modèles statistiques
par l’Américain S. W. Gibbs est une généralisation de l’ensemble de toutes les statistiques.

6
PRINCIPES FONDAMENTAUX DE LA PHYSIQUE
STATISTIQUE

I. Probabilité thermodynamique : Méthode d’évaluation

La probabilité thermodynamique W d’un état macroscopique d’un système physique considéré est
le nombre d’états microscopiques différents (distincts) réalisant cet état macroscopique.

Selon les systèmes physiques, les états quantiques relatifs à une particule sont peu nombreux et bien
séparés en énergie (substance paramagnétique dans un champ magnétique) ou au contraire en
nombre infini, avec des différences d’énergie beaucoup trop petites pour pouvoir être mesurées (gaz
monoatomique). Nous rencontrons aussi des cas intermédiaires.

Pour traiter ces différends cas, introduisant un même langage pour les gaz résumé dans le tableau
suivant, dans lequel une cellule désigne un état quantique et un domaine d’extension fini i
regroupe un nombre gi d’états quantiques d’énergie voisine Ei.
N Nombre de cas favorables

La répartition macroscopique
choisie est caractérisée par les
nombres : N1………… Ni………..Nr W0
Domaine 1 Domaine i Domaine r

Une des répartitions possible


des Ni particules entre les gi Wi
cellules est :
gi cellules

Une des répartitions … …


microscopiques possible est :

g1 gi gr Wi = W0 i Wi

Un état macroscopique est alors défini par l’ensemble des nombres :


N1…..Ni….Nr de particules dans chacun des domaines d’indice 1,….i….r. Pour chercher la
probabilité thermodynamique W(N1…..Ni….Nr) d’une telle répartition posée a priori, on procède en
deux étapes.

 Tout d’abord, on évalue le nombre W0 de façons de réaliser la répartition choisie


N1…..Ni….Nr des N particules dans les domaines.
 Puis on évalue le nombre Wi de façon de distribuer les Ni particules du domaine i dans les gi
cellules correspondantes.

En effectuant ce dénombrement pour chaque domaine, on obtient finalement :


W= W0.W1…….Wi ….. Wr

7
Théorème des probabilités composées

On rappelle que :
 Si un événement suppose à la fois réaliser 2 deux événement A et B, sa probabilité est le
produit de la probabilité de A multiplié de la probabilité de B : WAB = WA x WB

 Si un événement suppose à la fois réaliser 2 deux événement A ou B, sa probabilité est la


somme de la probabilité de A ajouté à celle de la probabilité de B : WAB = WA + WB

II Postulats de base de la statistique élémentaire

Si un système formé de N particules se trouve à un instant donné dans un certain état


microscopique, il n’y reste que très peu de temps, car les chocs ou les interactions des sous-
systèmes le font évoluer. Il change donc d’état microscopique avec une très grande fréquence.
On pourrait imaginer de déterminer l’évolution du système à l’aide des équations de mouvement
(classique ou quantique) mais on serait amené à résoudre un nombre N d’équations différentielles.
Ceci est utopique si N est de l’ordre du nombre d’Avogadro NA. Devant cette impossibilité de
prévoir précisément l’évolution du système Gibbs a introduit l’idée que tous les états
microscopiques accessibles à un système isolé se réalisent également au cours du temps. Ce conduit
à énoncer le premier postulat de la thermodynamique statistique :

Tous les états microscopiques accessibles à un système isolé sont équiprobable (également
probables)

Si tous les états microscopique sont aussi probables les uns que les autres, il n’en est pas de même
des états macroscopiques qui sont alors d’autant plus probables qu’ils sont réalisés par un nombre
plus grand nombre d’états microscopiques. Le nombre W(N1…..Ni….Nr) d’états microscopique
réalisant un état macroscopique caractérisé par les nombres N1…..Ni….Nr est appelé probabilité
thermodynamique.

III. Notion de micro et macro état d’un système.

Description d’un système :

Dans un ensemble de N particules identiques, d’énergie totale U, chaque particule peut se trouver
dans l’un des niveaux d’énergie permis U1, U2,….Ui.

Définitions :
L’état microscopique du système est décrit par la connaissance, à chaque instant donné, des niveaux
d’énergie de chaque particule pris individuellement.
L’état microscopique non distincts est encore appelée complexions.
Les états microscopiques différents peuvent donc être réalisés par plusieurs complexions.

Par contre, l’état macroscopique du système est défini par la connaissance, pour chaque niveau
d’énergie Ui, du nombre Ni de particules possédant cette énergie, sans se soucier de quelle
particule il s’agit. Cette description est donc moins détaillées que la première (état microscopique).

L’état macroscopique est donc défini en tenant compte de deux conditions :

 Condition de normalisation

 Conservation de l’énergie totale :

8
Exemple : Soient 3 particules a, b et c et 3 domaines 1, 2 et 3 . On suppose que la répartition
est réalisée pour une particule par domaine.
1 a b c a b c
2 b c a c a b
3 c a b b c a
On compte pour cette distribution :
 Si les particules sont discernables, on compte 6 complexions et un (1), état
macroscopique (1,1,1)
 Si les particules sont indiscernables (électrons par exemple), on a un seul état
microscopique correspondant au seul état macroscopique (1,1,1).

Nous avons donc dans le cas particules discernables, que l’état microscopique est réalisé par les 6
complexions (particules classique).
Pour des particules indiscernables, la notion de complexion perd son sens, une complexion efficace
est un état microscopique

IV. Dénombrement des complexions en statistique classique de Maxwell

Par suite de l’agitation thermique perpétuelle, les particules passent sans cesse d’un niveau
d’énergie à un autre et les états microscopiques possibles sont donc modifiés à chaque instant.

Déterminons le nombre d’états microscopique possibles d’un ensemble de N particules


discernables identiques.
Considérons les N particules comme des billes discernables donc numérotables à placer dans N
boites vides.
 Pour la première particule, nous avons N possibilités, il reste donc N-1 boites vides
 La seconde particule se mettra dans une des N-1 boites restantes, soit N(N-1) possibilités
pour l’ensemble des deux premières particules.
…………………..
 La Nième se mettra dans la dernière boite restante. Et pour l’ensemble des N particules, il
ya N(N-1)(N-2)(N-3) ……1. possibilités.

L’état macroscopique caractérisé par la présence de N particules dans N boites est donc réalisé à
l’aide de N! permutations ou complexions.

Si on permute 2 particules de 2 boites différentes d’un même domaine on n’obtient pas de


répartition différente puisque les valeurs Ni et Ui restent inchangés (l’état énergétique du domaine
n’est pas modifié).
Ainsi les N1! états obtenus en permutant les N1 particules ayant la même énergie U1 sont
identiques ; de même les N2! …….etc….. Il faut donc les extraire en divisant les N! permutations
par le nombre de permutions « inefficaces » ; soit N1! N2!……..Ni!.
d’où :

L’état macroscopique est donc défini par les quantités macroscopiques :

9
On peut donc caractériser l’agitation thermique par ce nombre W d’états microscopiques différents
(distincts).

Le postulat de base de la statistique élémentaire admet que tous les états d’équilibre d’un système
ont la même probabilité de se réaliser.

Boltzmann introduit la notion d’entropie statistique comme mesure du désordre et fonction


croissante du nombre d’états microscopiques W qui correspond à un état macroscopique donné :
S=f(W).

Si le système est formé de deux parties indépendantes A et B, on écrira :

WAB =W= WA x WB
SAB =S=SA + SB
f(W)= f(WA) +f(WB)
Le système
WAB =W= WA x WB
f(W)= f(WA) +f(WB)

admet la solution : S = k Ln W
k est la constant de Boltzmann : k=R/NA =1.380662. 10-23 J/K

Travail à faire :
Exercice 1.1 :
Deux particules sont reparties sur deux niveaux d’énergie : Є1 (dégénérescence g2=1) et Є2 (g2=2).
1) Montrer sur un schéma les complexions et les états macroscopiques si ces particules sont supposées
discernables
2) Montrer sur un schéma les états les états microscopiques et les macroscopiques si ces particules sont
supposées indiscernables
3) Si ces particules sont des électrons, combien reste-il d’état microscopique ?

Exercice 1.2 :
Soient 3 niveaux d’énergie équidistants (:Є1= 0 , Є2= U : Є3=2U) non dégénérés sur les quels se
répartissent 2 particules discernables A et B. On suppose qu l’énergie totale est Є= 2U.
1) Représenter sur un schéma les différents états macroscopiques possibles et les complexions
correspondantes. Quel est l’état le plus probable ?
2) Vérifier que le nombre de complexions de chaque état macroscopique vérifie la relation de probabilité
W de Boltzmann.
3) Même questions mais avec le niveau 2 dégénéré 2 fois.
Expliquez pourquoi la dégénérescence est aussi appelée poids statistiques du niveau.
4) Pourquoi ne peut-on calculer la répartition la plus probable par la formule générale de Maxwell-
Boltzmann ?

10
V. Distribution statistiques

Pour formuler le problème fondamental de la statistique classique, nous devons avant tout introduire
la notion d’espace des phases.

V.1 Espace des phases

Soit un système à s degrés de libertés la position de chaque point dans l’espace est caractérisée par s
coordonnées de position que nous désignons par qi, l’indice i=1,2,…. s. L’état de ce système à un
moment donné peut alors être déterminé par les valeurs simultanées des coordonnées qi et des s
vitesses correspondantes . En statistique, pour caractériser le système, on utilise habituellement
ses coordonnées qi et ses impulsions pi non pas ses vitesses ; ceci présentant un certain nombre
d’avantages. Mathématiquement, les divers états du système peuvent être représentés par des points
dans l’espace dit des phases (ce dernier étant une notion purement mathématique).

Exemple : Considérons un gaz monoatomique contenant N particules.

L’état de ce système’ est caractérisé par 6 paramètres : M(x,y,z) coordonnées de positions et V(Vx,
Vy, Vz) coordonnées de vitesses.
Dans l’espace des phases à 6 dimensions, le point M s’écrit : M(x , y, z, Px=mVx, Py=mVy,
Pz=mVz)

L’espace des phases est donc divisé en petits domaines délimité par :
x et x+dx ; y et y +dy ; z et z+dz ;
Px et Px + dPx ; Py et Py + dPy ; Pz et Pz + dPz

L’énergie d’une particule monoatomique est son énergie cinétique de translation : U=EC

V.2 Sous système d’un système macroscopique et Notion de la fonction de distribution

Considérons un système isolé n’interagissant avec aucun autre corps.

Nous appellerons sous-système de ce corps entier, toutes parties relativement petites mais
macroscopiques. Ce système défini est un système mécanique non isolé soumis à l’interaction des
autres parties du système entier.

Par suite de l’enchevêtrement des actions exercées sur le sous-système par les autres parties du
corps, durant un laps de temps suffisamment long, un sous-système choisi passera un grand nombre
de fois par tous les états possibles.

Soit pq un élément de « volume » de l’espace des phases du sous-système correspondant aux
valeurs des coordonnées q et d’impulsion p se trouvant dans de petits intervalles q et p.
Lorsque pq devient infiniment petit, on peut introduire la notion de probabilité d des états
représentés par des points dans le volume. C’est la probabilité pour des coordonnées q et impulsion
p de prendre des valeurs se trouvant dans les intervalles infiniment petites q et p et q+dq , p+dp.
On écrit :
soit

11
est une fonction de tous les coordonnées et toutes les impulsion.
La fonction  jouant le rôle de la « densité » de distribution des probabilités dans l’espace des
phases, s’appelle fonction de distribution statistique ou simplement fonction de distribution d’un
corps donné.
La fonction de distribution doit évidemment satisfaire à la « condition de normalisation ».

pour un milieu continu τ est l’espace total de phases


pour un milieu discontinu

L’intégration ou la somme est prise pour tout l’espace de phase.

Les égalités posées expriment simplement le fait que la somme des probabilités des divers états
possibles doit être égale à l’unité.

Avec la fonction de distribution , on définir la valeur moyenne des grandeurs physiques sous
la forme :
et

Si à l’aide de la fonction , on construit la fonction de distribution des probabilités des


différentes valeurs de la grandeur f(p,q), cette fonction aura un maximum très net pour =f, et ne
différera notablement de zéro que très près du point correspondant au maximum. Ainsi, les
prédictions permises en statistiques sont d’une grande précision.
f
δ

E
x

C’est la distribution de Dirac : avec

est la fonction de Dirac :

Si un corps ou système macroscopique isolé se trouve dans un état tel que les grandeurs physiques
« macroscopiques » relatives à une de ses parties (qui est elle-même un corps macroscopique) sont
égales avec une précision relativement grande à leurs valeurs, on dit que le système se trouve en
équilibre statistique ainsi on parle d’équilibre thermodynamique.

Considérons un système macroscopique en équilibre statistique, si à un moment initial


quelconque le système macroscopique isolé ne se trouvait pas en équilibre statistique (par exemple
artificiellement mis hors de cet équilibre par des actions extérieurs puis laissé à lui lui-même, donc
redevenu un système isolé) dans le temps, il reviendra obligatoirement vers cet équilibre.
L’intervalle de temps durant lequel le système doit obligatoirement passer à l’équilibre statistique
est appelé temps de relaxation. Ainsi lorsqu’on parle de temps suffisamment long, on sous-entend
des intervalles de temps supérieurs au temps de relaxation.

12
VI. Indépendance statistique

Les sous systèmes étant des corps macroscopiques non isolé en interactions incessants entre
eux, si le temps de relaxation est suffisamment grand, ces sous-systèmes se comporteront comme
des corps isoles. On dit qu’ils sont quasi-isolés et le l’on considère que les interactions sont alors
faibles. Ce qui permet de considérer les sous sous-systèmes comme statiquement indépendants.
Considérons deux sous-systèmes quelconque A et B indépendants. L’indépendance
statistique conduit à écrire :

Alors : soit

VII. Rôle de l’énergie

On démontre en physique statistique (théorème de Liouville) que seuls des combinaisons des
variables p, q restant constantes lors de l’évolution (mouvement) du sous-système supposé isolé,
doivent enter la fonction de distribution. Ces quantités sont des invariants mécaniques ou des
intégrales premières de mouvements.
Par conséquent, on peut dire que la fonction de distribution qui est fonction des invariants
mécaniques est elle-même une intégrale première. On peut réduire considérablement le nombre des
intégrales 1ères dont peut dépendre la fonction de distribution.

Rappelons que alors ; c’est-à-dire que le


logarithme de la fonction de distribution est une grandeur additive.

Le logarithme de la fonction de distribution doit être non seulement une intégrale première mais
aussi une intégrale première additive.

En mécanique, il existe 7 intégrales premières additives indépendantes L’énergie, les trois (3)
composantes de vecteur vitesse et les trois (3) composante de vecteur moment que nous désignerons
respectivement par : E(p,q), P(p,q) MΔ(p,q).

L’unique combinaison linéaire additive de ces grandeurs est la combinaison linéaire de la forme :

Les coefficients α, β, γ et δ sont des constantes ; de plus ces coefficients doivent être les mêmes
pour tous les sous-systèmes d’un système isolé. En particulier α est simplement une constante de
normalisation déterminée par la relation : .

Les 7 autres constantes β, γ et δ sont indépendantes et peuvent être déterminées par 7 valeurs
constantes des intégrales premières additives du système isolé en entier.

En conclusion, en statistique, les valeurs des intégrales premières additives : Energie, Impulsion et
Moment déterminent complètement les propriétés statistiques d’un système isolé. C’est-à-dire la
distribution statistique de tous les sous-systèmes et par la suite la valeur moyenne de toutes les
grandeurs physiques.

Ces 7 intégrales premières additives remplacent les innombrables données (conditions initiales)
requise pour une description mécanique.
Comme les valeurs des intégrales premières non additives n’influent pas sur les propriétés du
système, on peut se servir, pour les décrire, d’une fonction quelconque ne dépendant que des

13
valeurs des intégrales premières additives du système et satisfaisant au théorème de Liouville en
tout point de l’espace des phases.
La plus simple de ces fonction est pour tout point de l’espace des phases correspondant
aux constantes d’énergie (E0), d’impulsion (P0) et de moment (MΔ0) donnés su système. Et
pour tous les autres points.

Ainsi, pour que l’intégrale : soit définie en ces points, la fonction de distribution d’u
système isolé doit être écrite de la manière suivante :

La fonction est dite distribution microcanonique

L’impulsion et le moment d’un système isolé sont liés à son mouvement de translation et de
rotation uniforme. C’est pourquoi, on peut dire que l’état statistique d’un système effectuant un
mouvement donné ne dépend que de son énergie ; Ainsi, en statistique, l’énergie joue un rôle
prépondérant.

La fonction de distribution statistique se réduit et s’écrit :

et

VIII. Equilibre incomplet

Nous avons toujours supposé que tout le système isolé se trouve en état d’équilibre
statistique. En d’autres termes, nous l’avons considéré durant des intervalles de temps supérieurs au
temps de relaxation (Il faut noter que Le temps de relaxation augment avec les dimensions d’un
système). Les petites parties du système arrivent séparément à l’état d’équilibre bien avant que soit
établi l’équilibre entres les divers petites parties. Ce qui veut dire que chaque petite partie du
système est décrite par sa propre fonction de distribution , mais les valeurs β, γ et δ définies plus
haut sont différentes pour chaque petite partie. On dit alors que le système se trouve en équilibre
incomplet. L’équilibre incomplet se transforme peu à peu en équilibre complet.

XI. Matrice statistique

En statistique classique, la fonction de distribution donne directement la distribution des


probabilités des différentes valeurs de coordonnées et des impulsions des particules des corps ;
Il en est autrement en statistique quantique où on définit plutôt une matrice de densité (matrice
statistique) pour un nième sous-système, en raison du caractère incomplet de la nature quantique
des particules. est une matrice diagonale.

La distribution microcanonique s’écrit :

avec : Etats quantiques

On peut alors écrire :


et
14
X. Entropie

Considérons un système isolé en équilibre statistique complet (durant un intervalle de temps


supérieur au temps de relaxation).
Dans le développement qui va suivre, nous traiterons d’abord le cas de la statistique quantique.

Découpons le système en un grand nombre de parties macroscopiques (sous-systèmes


macroscopiques) et considérons l’une d’elle.
Soit , la fonction de distribution de ce sous-système fonction de l’énergie .
Pour obtenir la probabilité pour que l’énergie du sous-système se trouve dans l’intervalle
entre E et E+dE, il faut multiplier par le nombre d’états quantiques ayant des énergie se
trouvant dans cet intervalle.

En utilisant la notion de spectre énergétique « étalé », et en désignons Γ(E) le nombre d’états


quantiques dont les énergies sont inférieures ou égales à E.

Le nombre d’états quantiques qui nous intéresse, dont les énergies se trouvent entre E et E+dE,
est :
Et on obtient :

La condition de normalisation veut dire du point de vue de géométrique que la


surface limitée par la courbe est égale à l’unité.
a un maximum très net pour et défère de zéro (0) seulement à proximité de ce point.
Introduisons la « largeur » de la courbe en la déterminant comme la largeur du
rectangle dont la hauteur est égale à la valeur de la fonction au point du maximum et la
largeur à l’unité.

Or : ce qui entraine que


E
représente le nombre d’états quantiques
correspondant à l’intervalle des valeurs de l’énergie.

La grandeur caractérise le « degré d’étalement » de l’état


macroscopique du sous-système suivant ses états
microscopiques. est du même ordre de grandeur que la
fluctuation de l’énergie du sous-système.

Les définitions données peuvent être facilement rapportées à la statistique classique, mais la
fonction
doit être remplacée par la fonction classique de distribution ; au lieu de on parlera
de de volume du domaine des phases déterminé par la relation :

est l’élément de volume de l’espace des phases tout comme qui caractérise les dimensions du
domaine de l’espace des phases où ledit sous-système se trouve la majeure partie du temps.

15
On peut établir le lien qui lie et lors du passage à la limite de la théorie classique à la théorie
quantique.

On sait que, dans le cas quasi-classique, qui est voisin de la mécanique classique, on peut établir une
correspondance déterminée entre le volume d’un domaine quelconque de l’espace des phases et le nombre
d’états quantique qui lui « correspondent » ; on peut dire qu’à chaque état quantique « correspond » une
« cellule » dans l’espace des phases dont le volume est :

( s degré de liberté)

Dans le cas quasi classique le nombre d’états quantiques vaut :

appelé Poids statistique de l’état macroscopique du système

Et par définition l’entropie est :

Remarques :

 L’entropie ainsi définie est sans unité tout comme le poids statistique ; et comme n’est
jamais inférieur à 1 ; ainsi, l’entropie n’est jamais négative.

L’entropie est une des notions essentielles de la statistique.

 et en utilisant la relation ,
on écrit :

Par définition de la valeur moyenne, on a :

Si on a un système isolé en entier et soit les poids statistiques , ……. de ces divers
sous-systèmes. Si chacun des sous sous-systèmes se trouve dans l’un des états quantiques , il est
évident que le système entier aura : états.

Propriétés de la fonction entropie :

 L’entropie est additive puisque


 L’entropie est une grandeur caractérisant les propriétés moyennes du corps durant un certain
intervalle de temps t différent de zéro
On ne peut parler de la valeur instantanée de l’entropie (même pour des valeurs très petits
de l’intervalle de temps)
 Loi de croissance de l’entropie :
Si un système isolé se trouve à un moment donné dans un état macroscopique hors
d’équilibre, le plus probable est croissance ultérieure monotone de son entropie. C’est ce
qu’on appelle la loi de croissance de l’entropie ou la seconde loi de la thermodynamique.
Cette loi a été énoncée par R. Clausis et son aspect statistique mis en lumière par
Boltzmann.
 Unité de l’entropie et de la température :

L’entropie définie par l’expression : est sans unité comme le poids statistique.

16
Tout comme le poids statistique, la température est une grandeur a un caractère purement statistique
et n’a de sens pour les corps macroscopiques. La température absolue ou température tout
simplement T est définie par la relation :

L’entropie S est une grandeur sans dimension ; de la relation ci-dessus, il ressort que la température
a la dimension de l’énergie et exprimée en ergs. Mais l’unité ergs est trop grande et pratiquement on
mesure la température en unité particulières appelé Kelvin ou degré tout simplement.
Le passage l’erg aux degrés s’effectue à l’aide de la constante de Boltzmann.

k =1,38.1016 erg/degré
1 eV =11606 degrés

Si T est exprimé en degré alors la relation : devient : et exprimé en


J/degré.

On a donc les passages suivants : et

17
DISTRIBUTIONS DE GIBBS

I. Distribution canonique

I.1 Distribution microcanonique

La fonction de distribution d’un corps macroscopique quelconque considéré comme une petite
partie d’un grand système isolé est d’une façon générale définie en utilisant des distributions
microcanoniques pour tout le système.

Soit E0 l’énergie interne du système isolé. Cette énergie est théoriquement bien déterminée. Mais en
fait, un système n’est jamais parfaitement isolé et son énergie sera déterminée avec une incertitude
δE0.

La distribution microcanonique de Gibbs s’écrit :

Cette description, quoique simple est difficile à manier. On lui préfère dans la pratique celle de
l’ensemble canonique qui donne les mêmes résultats physiques dans tous les cas où les fluctuations
peuvent être négligées.

I.2 Distributions canoniques de Gibbs

Ensemble canonique

Considérons dans un système isolé un corps et supposons ce système composé d’une part du corps
en question et d’autre part, de tout le domaine restant, que nous appellerons « milieu » par rapport à
ce corps.

E E0
E’

La distribution microcanonique s’écrit :


Où E, d et E’ et d ‘ se rapportent respectivement aux corps et au milieu ; et E0 est la valeur
donnée de l’énergie du système isolé tel que : E0 = E+ E’.

Calculons la probabilité d’un état de tout le système pour lequel le corps considéré se
trouve dans un certain état quantique donné d’énergie E.
L’état microscopique du milieu nous intéresse peu, nous allons donc supposer que le milieu se
trouve dans un certain état décrit d’une manière macroscopique du milieu. Soit ΔE’ l’intervalle des
valeurs de l’énergie du milieu correspondant à Δ celle de l’état quantique.
Le système décrit peut être considéré comme un corps plongé dans un bain thermostatique ou en
contact avec un thermostat dont la température est T. Sa température est bien définie mais son
énergie fluctue autour d’une valeur moyenne du fait de l’échange constant d’énergie entre
le milieu et le corps.

18
Si les fluctuations peuvent être négligées, on peut dire que l’énergie du corps est . Pour
décrire un tel système, on peut imaginer un ensemble formé d’un grand nombre de systèmes
analogues à celui considéré et en contact thermique. L’interaction entre les systèmes de l’ensemble
doit être considéré comme faible pour pouvoir être négligé mais néanmoins suffisant pour permettre
l’établissement de l’équilibre thermique entre divers systèmes.
On peut traiter aussi l’ensemble canonique comme une assemblée de molécules géantes
(chaque molécule représentant un système de l’intervalle) obéissant à la statistique de Maxwell-
Boltzmann (sans interactions, particules discernables).

La probabilité cherchée s’écrit : en posant : et

Soit le nombre total d’états quantiques du milieu dont l’énergie est inférieure ou égale à
E’.

or
où : est l’entropie du milieu en fonction de son énergie E’.
ΔE’ est aussi fonction de E’.

Ainsi :

Or :

Alors :

En tenant compte du fait que ce corps est petit, son énergie E est également petite par rapport à E0.
La grandeur ΔE’ varie relativement peu lors de variation peu importante de E’. Ainsi, on peut poser
simplement E’=E0 une constante indépendante de E.
Il faut développer S’(E0-E) suivant les puissances de E.
En conservant le terme linéaire, on obtient :
(pour E petit)

0r :
T est la température du système (corps et milieu en équilibre)
Finalement, nous obtenons l’expression suivante :
avec T en ergs et S sans unité
avec T en Kelvins et S en J/K
C’est la distribution de Gibbs ou distribution Canonique.
La constante de normalisation A ne dépend pas de E. Elle est déterminée en posant :

soit :

19
I.3 Fonction de partition ou somme statistique :

En écrivant que : , posant ; z est la fonction de


partition.

La fonction de partition et la grande fonction de partition que nous poserons plus loin sont parmi les
fonctions les plus importantes de la mécanique statistique. A partir d’elles, toutes les propriétés
thermodynamique d’un système peuvent, en principe, être calculées.

La valeur moyenne d’une grandeur physique f peut être calculée à l’aide de la distribution de
Gibbs.

En statistique classique, l’expression correspondante de la distribution de Gibbs peut être obtenue


pour la fonction de distribution dans l’espace des phases.

: l’énergie du corps fonction de ses coordonnées de position et impulsions. La constante de


normalisation A est déterminée en écrivant la relation :

La distribution de Gibbs appliquée au sous-système peut également être appliquée avec succès pour
la détermination des propriétés statistiques essentielles des corps isolés. Les propriétés du corps
telles que les grandeurs thermodynamiques ou la distribution des probabilités des coordonnées et
des vitesses des particules, restent inchangées que le corps soit isolé ou plongé dans un thermostat
imaginaire. La différence n’apparait en réalité lorsqu’on étudie la question relativement importante
des fluctuations de l’énergie totale au cours du temps.

I.4 Distribution grand canonique de Gibbs

Ensemble grand canonique

Considérons les systèmes pour lesquels le nombre de particules N considéré n’est plus fixe comme
pour les systèmes fermés. C’est le cas pour les systèmes ouverts pour lesquels le nombre de
particules N varie. Cette nouvelle considération permet de traiter un grand nombre de systèmes
physiques ou chimiques. On peut alors parler de fluctuions du nombre de particules autour d’une
valeur moyenne .

La fonction de distribution de Gibbs dépend maintenant non seulement de l’énergie de l’état


quantique, mais aussi du nombre de particule N du corps, de plus, les niveaux d’énergie EN sont
aussi différents pour différents N.

Désignons par la probabilité pour le corps d’avoir N particules et de se trouver simultanément


dans l’état d’énergie E.
La forme de cette fonction peut être obtenue d’une manière tout à fait analogue à celle déjà présenté
pour déterminer .
, et (N0 nombre de particule de tout le système isolé très
grand devant N)

20
Compte tenu de la relation précédente, on peut écrire :

( N et E petits )
Car : et

Où : est le potentiel chimique du corps et celui du milieu coïncidant par suite des conditions
d’équilibre.

Ainsi, nous obtenons l’expression suivante pour la fonction de distribution grand canonique :
T en Kelvins

La constante de normalisation A peut s’exprimer comme précédemment à l’aide des grandeurs


thermodynamiques.

La détermination de la constante de normalisation conduit :

On obtient : ,

où :

zN est la Grande fonction de partition utile à la détermination des grandeurs thermodynamiques.

I. Expression statistique des potentiels thermodynamiques

Entropie S

On sait que or et
alors : T en ergs ou T en Kelvins

Fonction Energie libre F

, d’où soit or alors :

T en ergs
T en Kelvin

Ainsi la distribution canonique de Gibbs s’écrit :

21
II. Distribution des vitesses de Maxwell

L’énergie totale E(p,q) d’une particule est la somme de l’énergie cinétique et de l’énergie
potentielle. La première est une forme quadratique des impulsions des atomes. La seconde est une
fonction des coordonnées de position, la forme de cette dernière dépendant de la loi d’interactions
des particules à l’intérieur du corps.

Pour une expression plus simple de l’énergie : , la probabilité


peut s’écrire :
On a deux produits dont l’un ne dépend que des coordonnées de position q et l’autre des
impulsions p. Ceci veut dire que les probabilités pour les impulsions ou les vitesses et les
coordonnées de position sont indépendantes les unes des autres en ce sens que des valeurs
déterminées des impulsions n’influent nullement sur les probabilités de telle ou telle valeur des
coordonnées de position et inversement.
Ainsi, la probabilité de diverses valeurs des impulsions peut-être écrit sous la forme :

Et la distribution des probabilités des coordonnées sous la forme :

Pour déterminer les constantes a et b, il faut savoir que la somme des probabilités de toutes les
valeurs possibles des impulsions (de même pour les coordonnées de position) doit être égale à
l’unité.
Ainsi, chacune des probabilités et doit être normalisée, c’est-à-dire que les intégrales
prises sur toute les valeurs possibles des impulsions et des coordonnées de position du corps
considéré doivent être égale à l’unité.

Etudions la distribution des probabilités des impulsions ou vitesse. Cette distribution sera valable
pour tous les corps puisque en statistique classique, une telle distribution ne dépend nullement du
type d’interactions des particules à l’intérieur du système ou du type de champ extérieur.

L’énergie cinétique de tout le corps est égale à la somme des énergies cinétiques de tous les atomes
du corps et la probabilité se trouve de nouveau être un produit dont chacun des facteurs ne dépend
que des impulsions d’un seul des atomes. Ceci veut dire de nouveau que les probabilités des
impulsions des divers atomes sont indépendantes les unes des autres, c’est-à-dire que l’impulsion
de l’un d’entre eux n’influe en aucune sorte sur la probabilité des autres impulsions.

Ainsi, on peut écrire la distribution des probabilités des impulsions de chaque atome séparément.

Pour un atome de masse m, l’énergie cinétique est :

La probabilité prend la forme :

La constante a déterminée par la condition de normalisation.

On rappelle que :

22
Ainsi, conduit à écrire en coordonnées cartésiennes :

=1 soit

et finalement on obtient :
Ce qui permet d’écrire :

En passant des impulsions aux vitesses ( ), on peut écrire une distribution analogue pour les
vitesses.

C’est la distribution de Maxwell (1860) dans l’espace des vitesses.

C’est la distribution des vitesses pour que la vitesse des particules ait ses vitesses comprises entre
Vx et Vx+dVx, Vy et Vy+dVy et Vz et Vz+dVz.

Remarquons que cette distribution se trouve de nouveau être le produit de 3 termes indépendants :

C’est la distribution des vitesses pour que la composante Vx de la vitesse soit comprise entre Vx et
Vx+dVx.

C’est la distribution des vitesses pour que la composante Vy de la vitesse soit comprise entre Vy et
Vy+dVy.

C’est la distribution des vitesses pour que le composantes Vz de la vitesse soit comprise entre Vz et
Vz+dVz.
Ces expressions représentent la distribution des probabilités de l’une des composantes de la vitesse.
Si nous exprimons les relations ci-dessous en coordonnées sphériques,
V+dV
On obtient :

où V est la valeur absolue de la vitesse, θ et φ l’angle polaire et azimutale VV


déterminant la direction de la vitesse.

L’intégrant sur les angles, on trouve la distribution des probabilités pour la valeur absolue de la
vitesse :

C’est la distribution des vitesses pour que la particule ait une vitesse comprise entre V et V+dV.
Cette relation traduit la loi de répartition des vitesses de Maxwell.

La courbe a un maximum correspondant à la valeur Vp des vitesses.

23
V
Vpcylindriques conduit à écrire :
Une représentation en coordonnées

Avec : et

Energie cinétique moyenne

Par définition des valeurs moyennes, on écrit pour la composante cartésienne vx de la vitesse, la
moyenne quadratique :

L’intégration conduit à un résultat tel que :

Ainsi, la valeur moyenne de l’énergie cinétique de l’atome monoatomique est égale à

Pour un ensemble de N atomes, on a :

Ce résultat est similaire à celui obtenu en appliquant le théorème de l'équipartition de l’énergie (à


voir plus loin) pour un système de particules classiques.

24
Travail à faire :
Exercice 2.1 : Soit un gaz parfait monoatomique à N particules constituant un système isolé à
la température T. On admettra que le système est quantifié dans un volume V fixé.
a) En utilisant le théorème de l’équipartition de l’énergie, calculer son énergie interne U.
b) Définir la température absolue thermodynamique en fonction de la l’entropie statistique
c) Montrer que l’entropie statistique n’est fonction que U et de N, Conclure.
d) En déduire le nombre d’états microscopiques pour U fixé

Exercice 2.2 Considérons un système de N particules discernables et sans interactions, en


position fixe, dans un champ magnétique H et ayant un moment magnétique . Chaque
particule peut occuper un des deux niveaux d’énergie E=0 et E=2H.
1. Quelle est l’énergie interne U(n). Quelle est sa valeur maximale ?
2. L’entropie, S, du système peut être écrite sous la forme S=k.Ln(W(E)), où k est la
constante de Boltzmann et E l’énergie totale du système. Expliquer la signification de
W(E)).
3. Préciser l’expression de S(n) en fonction du nombre de particule n du niveau d’énergie
limite le plus élevé.
4. Pour quelle valeur de n l’entropie est maximum
5. En considérant l’énergie continue, montrer que ce système peut avoir une température
absolue négative.
6. Pourquoi la température absolue négative est possible ici et non dans un gaz contenu
dans une boite.

Exercice 2.3 : L’entropie d’un système idéal paramagnétique placé dans un champ magnétique
est donnée approximativement par la relation : S=S0 – C.U2
Où U est l’énergie du système de Spin et C une constante fonction des paramètres mécaniques
constants du système.
1. Déterminer l’énergie U du système de Spin en fonction de la température T.
2. Représenter la fonction U=U(T) pour toutes les valeurs de T (-  < T < ).
3. Expliquer brièvement le sens physique de la partie du résultat dans la zone de
température négative.

Exercice 2.4 : Considérons un système de N particules sans interactions (N >>1) pour lequel l’énergie de
chaque particule peut prendre seulement deux valeurs distinctes, 0 et E (E >0). Notons par N0 et N1 le
nombre d’occupation des niveaux d’énergie 0 et E, respectivement. L’énergie totale fixée du système est
U.
1. Calculer l’entropie du système
2. Calculer la température du système en fonction de l’énergie total U. Pour quel domaine de valeur
de N0 la température est négative (T < 0 ) ?

25
STATISTIQUE DE MAXWELL-BOLTZMANN :
Etude des gaz parfaits

I. Introduction

Un gaz parfait est par définition, un gaz composé d’atomes ou de molécules qui ont une interaction
mutuelle négligeable. Chaque particule d’un gaz parfait n’aura donc comme énergie que son énergie
cinétique. Négliger les interactions entre les particules d’un gaz est bien sûr une approximation qui
n’est vraiment valable que dans le cas d’un gaz raréfié. L’étude des gaz parfaits est très importante
parce qu’elle sert de point de départ pour l’étude des gaz réels.
Considérons un gaz composé de particules identiques ou un gaz composé de plusieurs substances
chacune étant composée de particules identiques.

Parmi les particules identiques, il faudra distinguer entre particules discernables (particules décrite
par la mécanique classique) et les particules indiscernables (particules décrites par la mécanique
quantique). Encore, faudra- t-il distinguer parmi les particules indiscernables, les Bosons et les
Fermions.

II. Particules indiscernables et discernables

Considérons un système composé de N particules identiques. En mécanique quantique les particules


identiques sont indiscernables. Par « indiscernabilité de N particule », il faut entendre que jamais
une expérience ne pourra distinguer une particule d’une autre.

Soit la fonction d’onde de ce système obéissant à l’équation de Schrödinger.

opérateur Hamiltonien

Les nombres 1,2…N représentent l’ensemble des propriétés qui caractérisent les particules
numérotées de 1 à N. C’est bien sur un numérotage artificiel puisque les particules sont supposées
indiscernables.
Pour éliminer toute trace de numérotation, on introduit un opérateur permutation P qui
permute un sous-groupe arbitraire des N particules. En tout, il y a N! permutations possibles.
Puisque les particules sont indiscernables, l’hamiltonien est invariant pour toutes permutions et P
commute avec .
P = P
On écrit :
P =
P =

Ce qui implique est aussi une fonction d’onde caractéristique de correspondant à


l’énergie E. Nous avons donc N! fonctions d’onde ou N! combinaisons linéaires de ces fonctions
d’onde qui sont toutes fonctions candidates possibles pour décrire un système de N particules ayant
une énergie E. Mais c’est un fait expérimental que dans la nature, il existe seulement deux
catégories de particules correspondant à des combinaisons linéaires très particulières des fonctions
d’onde. Une des catégories est décrite par une fonction d’onde qui est totalement symétrique dans
l’échange de toute paire de particules.

26
Cette somme s’étend sur les N! permutations possibles des N particules. L’autre catégorie de
particules est décrite par une fonction d’onde totalement antisymétrique.

si la permutation est paire


si la permutation est impaire

 Un système de particules identiques décrit par une fonction d’onde totalement symétrique
s’appelle un système de Bosons ; un tel système obéit aux statistiques de Bose-Einstein ;

 Un système de particules identiques décrit par une fonction d’onde totalement


antisymétrique s’appelle un système de Fermions ; un tel système obéit aux statistiques de
Fermi-Dirac ;

Un résultat très important de la théorie relativiste des champs montre que toutes les particules de
spin entier sont des bosons, et toutes les particules de spin demi-entier sont des fermions ;

Ainsi, les noyaux d’hélium, les photons, les mésons π sont des bosons tandis que les électrons, les
protons, les neutrons sont des fermions.

Bosons Spin Fermions Spin


photon 1 électron 1/2
phonon 1 proton 1/2
He4 0 neutron 1/2
neutrino 1/2
Méson π 0 méson µ 1/2

Pour le cas de particules sans interactions, la fonction d’onde vérifie :

Peut être décrite d’une manière plus suggestive. Car toute fonction d’onde peut être
écrite sous forme d’un produit des fonctions caractéristiques de d’une seule particule,
correspondant aux états énergétiques i, j…..r de la particule.

A partir de cette relation, on peut écrire la fonction d’onde totalement antisymétrique sous la
forme de déterminant.

est bien antisymétrique car une permutation de deux (2) particules arbitraires équivaut à une
permutation de colonne du déterminant, entrainant un changement de signe. Il est aussi facile de
constater que si 2 particules se trouvent dans un même état (par exemple si ), le déterminant
sera nul. Autrement dit, si un système de particules est décrit par une fonction d’onde totalement
antisymétrique, aucune paire de ces particules ne peut-être dans le même état, c’est-à-dire .

Ceci n’est rien d’autre que la traduction du principe d’exclusion de Pauli.


La condition qu’un système de bosons ou de fermions ait une fonction d’onde ayant des propriétés
de symétrie déterminée, implique qu’il existe certaines corrélations entre ces particules, même en
l’absence d’interactions entre elles.

27
En mécanique classique, les particules sont discernables ; c’est-à-dire qu’elles peuvent être
numérotées et une permutation de cette numérotation conduit à un état microscopique distinct.
Ainsi, la permutation de deux trajectoires dans l’espace des phases conduit à une configuration
distincte.

III. Théorème de l’équipartition de l’énergie et étude de la chaleur spécifique des


particules classiques

III.1 Théorème de l’équipartition

Hypothèse :

L’énergie des particules individuelles est une forme quadratique des coordonnées de l’espace des
phases.

représentant les coordonnées ou leur dérivées par rapport au temps. On peut démontrer que c’est
toujours vrai pour l’énergie cinétique. Cela est très souvent vrai pour l’énergie potentielle.

Exemples :
 Molécule monoatomique (3 degrés de libertés) :
 Energie cinétique d’une molécule biatomique indéformable (5 degrés de libertés) :

 Un oscillateur harmonique linéaire (2 degrés de libertés) :

Ainsi, l’hamiltonien d’un système est une fonction quadratique des impulsions et des
coordonnées :

Pour un solide de N atomes reliés par des forces élastiques, l’hamiltonien pour chaque atome
s’écrit :
(soit 6 degrés de libertés)

N.B.

Par définition le nombre de termes de l’énergie est ce qu’on appelle le nombre de dégré de liberté
d’un système.
L’énergie moyenne E correspond au terme particulier se calcule comme suit :
car :

or alors

28
Le même résultat est obtenu pour le terme particulier . Autrement dit, à chaque terme de
l’hamiltonien quadratique en une impulsion ou en une coordonnée correspond une énergie ( ).
Ce résultat est connu sous le nom de Théorème de l’équipartition de l’énergie pour un ensemble de
particules classiques.

Il est donc distribué par degré de liberté une énergie moyenne de

III.2 Etude de la chaleur spécifique des gaz

 Cas de gaz parfait à N molécules monoatomiques (ponctuelles) :

On a soit 3 degrés de liberté


Alors : et
Pour un gaz parfait et
On a : Ce résultat est bien connu pour des gaz monoatomiques

 Cas de gaz parfait à N molécules poly-atomiques rigides linéaires

C’est un système à 6 degrés de liberté

Alors : et

; Résultat bien connu comme la loi de Dulong-Petit


et

 Cas de gaz parfait à N molécules biatomiques linéaire indéformables ( )

Il y a une dimension en moins ; soit un système à 5 degrés de libertés

Alors : et

et

29
IV. Distribution ou statistique de Boltzmann

Boltzmann reprend les hypothèses essentielles de la théorie cinétique des gaz et le développe en
apportant des considérations beaucoup plus générales ayant pour base la notion de probabilité d’un
état formé d’un nombre de particules distribuées au hasard.

Hypothèses de la mécanique (statistique) classique :

On considère :
 un ensemble de particules en très grand nombre animées toutes de mouvements incessants
rapides,
 les particules sont supposées identiques et discernables (numérotables) et repérables en
vitesses et en position avec une précision infinie (en opposition d » la mécanique quantique),
 ensemble de particules monoatomiques ponctuelles ou plus généralement un gaz où
l’énergie est due à l’énergie cinétique de translation (l’énergie potentielle d’interaction entre
les particules est négligée).

IV.1 Dénombrement des complexions

Par suite de l’agitation thermique perpétuelle, les particules d’un ensemble de N particules passent
sans cesse d’un niveau d’énergie à un autre et les états microscopiques possibles sont donc modifiés
à chaque instant.

Déterminons le nombre d’états microscopique possibles W d’un ensemble de N particules


discernables identiques.

Si ces particules sont à repartir (à distribuer) entre des cellules de l’espace des phases, une
hypothèse fondamentale de Boltzmann consiste a admettre que toutes les complexions sont
également probables ou équiprobables (postulats de base de la statistique élémentaire). La
probabilité W d’un état macroscopique se mesure par le nombre de complexions distinctes (états
microscopiques) qui permettent de les réaliser.

Considérons les N particules comme des billes discernables donc numérotables à placer dans N
boites vides.
 Pour la première particule, nous avons N possibilités, il reste donc N-1 boites vides
 La seconde particule se mettra dans une des N-1 boites restantes, soit N(N-1) possibilités
pour l’ensemble des deux premières particules.
…………………..
 La Nième se mettra dans la dernière boite restante. Et pour l’ensemble des N particules, il
ya N(N-1)(N-2)(N-3) ……1. possibilités.

L’état macroscopique caractérisé par la présence de N particules dans N boites est donc réalisé à
l’aide de N! Permutations ou complexions.

Mais, si on permute 2 particules de 2 boites différentes d’un même domaine on n’obtient pas de
répartition différente puisque les valeurs Ni et Ei restent inchangées (l’état énergétique du domaine
n’est pas modifié). Ainsi les N1! états obtenus en permutant les N1 particules ayant la même énergie
E1 sont identiques ; de même les N2! …….etc….. Il faut donc les extraire en divisant les N!
permutations par le nombre de permutions « inefficaces » : N1! N2!……..Ni! =

30
D’où :

IV.2 Loi de répartition des particules

Boltzmann admet que l’état qui correspond à l’équilibre statistique est celui dont la probabilité est
maximale.

Cherchons la loi de répartition qui rende W maximum à l’équilibre.

W maximum correspond à Ln(W) est maximum

Or : et

Bien que les domaines de l’espace des phases soient considérés comme petits. Ils sont supposés
suffisamment grands pour contenir un grand nombre de particules.

Pour x grand, l’approximation de Sterling s’écrit :

or

et
car

Pour exprimer que W ou que Ln W est max, on posera d(Ln W)=0.

Les ne sont pas indépendants ; ils doivent vérifier aussi les relations :
et
Ce qui conduit au système suivant :

Pour résoudre ce système, on utilise la méthode des multiplicateurs de Lagrange α et β et on écrit :

1.(1) + α . (2) + β. (3) = 0 soit


On remarque que les facteurs α et β sont des multiplicateurs qui devront obligatoirement être
déterminés.
Les sont maintenant des variables indépendantes

Alors : et

31
En posant , on obtient :

Détermination de la constante α

 En transcrivant la condition de normalisation , on obtient :

et
où :
est appelée fonction de partition ou somme d’état du système

La somme est étendue sur tous les états

Détermination de la constante

On sait que et alors

à V=Cte

or et

alors :

IV.3 Calcul de la somme d’état (fonction de partition)

La fonction de partition est définie par la relation

Transformons la somme en une intégrale dans l’espace des phases à 6 dimensions ( s=6) par
exemple.

L’hypervolume élémentaire s’écrit :

En coordonnées cartésiennes l’hypervolume volume élémentaire dans l’espace des phases s’écrit :

Désignons par le nombre moyen de particules par éléments d’ hypervolume. La notation


exprime l’espace à 6 dimensions.

Un très petit élément d’extension beaucoup plus petit qu’une cellule contiendra tantôt 0, tantôt 1,
particule au gré du hasard des fluctuations. La densité dans l’espace des phases :

32
est une fonction du temps et varie de façon discontinue et régulière à cause des fluctuations. Mais
si on introduit la densité moyenne, on peut considérer et comme des grandeurs moyennes
susceptibles de variations continues. On peut alors écrire l’identité :

( domaine)
qui défini la densité moyenne locale dans l’espace des phases. Comme à l’état d’équilibre
statistique

alors

or le nombre total de particules est l’intégrale est étendue à tout l’espace des phases.

On en déduit donc que : et ce revient à identifier :

Cette transformation permet de passer d’un milieu discret (mécanique quantique) à un milieu
continu (mécanique classique où le domaine d’extension reste indéterminé).

On peut encore écrire :

Où : représente le volume réel :

Calcul de la somme d’état d’une particule d’un ensemble de particules parfaits

avec

or

alors : pour une particule d’un système de particules parfaits

33
Calcul de la somme d’état d’un ensemble de N particules parfaits

Soit un ensemble de N particules. Chacune des particules a une énergie


L’énergie totale des N particules est donc :

La fonction de partition s’écrit :

Or : alors :

On remarque si n=1 on retrouve :

est indéterminé en mécanique classique.


En mécanique quantique, on peut montrer que la structure (domaine) est très grand et doit être
remplacé par une structure plus fine δ qui est identifiée égale à δ=h3 en mécanique quantique.
Ainsi la quantité est la longueur d’onde thermique du système de particules
supposé gaz parfait.

IV.4 Distributions des particules

 Distribution spatiale des particules

Et la distribution spatiale des particules est :

La densité spatiale des particules quelque soit la vitesse s’écrit :

34
 Distribution des particules dans l’espace des vitesses

1. Le nombre de particules ayant leurs composantes de vitesses comprises entre vx et


vx+dvx ; vy et vy+dvz et vz et vz+dvz est :

La probabilité pour qu’une particule ait ses composantes de vitesses comprise entre vx et
vx+dvx vy et vy+dvz et vz et vz+dvz est :

2. Le nombre de particules ayant leurs vitesses comprises entre v et v+dv est :

C’est la loi de répartition des vitesses de Maxwell

La probabilité pour qu’une particule ait sa vitesse comprise entre et +d est :

IV.5 Equation barométrique

Nous avons jusqu’à présent considéré que l’énergie d’une particule était uniquement due à
son énergie cinétique de translation, c’est-à-dire uniquement fonction des impulsions. Pour un
ensemble de particules parfaits dans un champ de pesanteur parallèle à l’axe oz ; l’énergie totale
est fonction de l’ensemble des coordonnées de position et des impulsions :
Dans ce cas, une particule située dans une cellule de coordonnées z a pour énergie potentiel
mgz. Ainsi, l’énergie totale s’écrit :
z

Or

Supposons que la forme de la colonne est cylindrique


verticale alors z varie de z =0 à z =+∞ .
Si la section de base est notée Ω, alors :
O y
x

On sait que : et alors :

Le nombre de particules se trouvant dans l’intervalle z et z+dz est :


soit :

35
Et la probabilité de trouver une particule dans l’intervalle z et z+dz est :

En en déduit donc que : Z+dZ

C’est la relation de Boltzmann ou formule barométrique.

Si z0 =0 alors :

En théorie cinétique des gaz, on montre que la pression est proportionnelle au nombre de particules
par unité de volume ; ainsi la variation de la pression en fonction de l’altitude z et obéit donc à une
loi de la forme :
pour

C’est la relation traduisant le dénivellement barométrique. Cette loi a été vérifiée par Jean Perrin
en 1909 dans le cas d’une suspension de fines particules.

IV.6 Calcul des fonctions thermodynamiques

On sait que :

avec et

Or : et alors :

Or et donc

36
De sorte que

est effectué à V=Cte

Pour un gaz parfait : , alors avec

, on obtient :

et

Ce qui est connu sous le nom de l’équation de Sacur-Tetrode.

L’énergie moyenne du système est donc : (résultat identique à celui


trouvé en appliquant le théorème de l’équipartition de l’énergie pour les particules classiques)

IV.7 Equation d’Etat d’un gaz parfait

On sait que : et

or alors : soit

: Equation bien connue des gaz parfaits

R=8,314 107 ergs/degrés

V. Expression de la somme statistique des molécules ayant plusieurs modes de mouvements


indépendants : Cas des molécules diatomiques

Pour les gaz monoatomiques, seule l’énergie cinétique de translation a été considérée pour évaluer
la somme statistique. Mais, on sait que le niveau d’énergie d’une molécule diatomique se compose,
dans une certaine approximation, de trois parties indépendantes de :
 l’énergie électronique (elle inclue l’énergie d’interactions coulombiennes des noyaux dans
leur position d’équilibre comptée à partir de la somme des énergies des atomes isolés)
 l’énergie de rotation,
 l’énergie d’oscillation des noyaux à l’intérieur de la molécule.

Pour cette molécule, l’énergie totale s’écrit :


où :
: l’énergie électronique,
: le quantum d’oscillation,

37
n : le nombre quantique oscillatoire
J : le nombre quantique de rotation (moment de rotation de la molécule ….spin)
: le moment d’inertie de la molécule
: la masse réduite des atomes
: distance entre les noyaux à l’équilibre

En prenant en compte toutes les différentes formes d’énergie, la somme statistique s’écrit :

où :

 soit

où degré de dégénérescence du domaine du Spin.

Signalons que si dans un système, à part ces modes de mouvements, on y trouve un mouvement de
translation, il faut ajouter le terme :
Il faut s’avoir qu’en général, la fonction de partition se décompose en différentes fonctions de
partitions indépendantes relatives à chaque type d’énergie dans le système :

VI. Statistique classique avec dégénérescence

VI.1 Difficulté de la statistique classique Boltzmann

Pour un système de particules classiques, l’entropie du système est exprimée sous la forme :

Et pour un gaz parfait avec , on obtient :

soit

38
 Ce résultat est obtenu pour un système de particules obéissant à la mécanique classique. Il
contient évidemment un terme arbitraire qui dépend du volume arbitraire
fonction des coordonnées de l’espace des phases.
 A cela, il faut ajouter que la fonction S obtenue ne présente pas la propriété d’additivité que
doit posséder une variable extensive.

En effet, pour un nombre N particules occupant un volume , l’entropie a la valeur S indiquée.


Mais pour un système d’extension double, c’est-à-dire 2N particules occupant un volume 2 , on a :
alors que l’on devrait avoir

La différence est donc :


Ce résultat constitue le paradoxe de Gibbs pour un mélange de deux échantillons gazeux de même
nature.
En effet :
 pour deux ensembles échantillons identiques distincts d’entropie S chacun, l’entropie totale
vaut 2S.
 pour la réunion de deux échantillons en seul, l’entropie totale vaut

Le terme supplémentaire dans le dernier cas est appelé entropie de mélange qui ne peut s’expliquer
que si l’on mélange deux échantillons gazeux de natures différentes. Ce qui ne doit pas exister pour
des échantillons gazeux identiques.

Montrons qu’effectivement représente l’entropie de mélange.

S S
N N
A B
Soient W1 et W2 le nombre de complexions du premier (A) et du second échantillon (B)
respectivement :

 Sans mélange, on a : W = W1 . W2
 Si on mélange les deux échantillons, on obtient : W = W1 . W2. W*

W* est le nombre d’états microscopiques résultant du mélange.


En effet, pour 2N particules, on a 2N! permutations possibles.
Mais les permutations des N premières particules entre elles dans le même échantillon (A) ne crée
pas de nouvelles permutations. De même pour le second échantillon (B). De sorte que le nombre
d’états microscopiques résultant du mélange est :

Alors :

(est bien l’entropie de mixage)


Une telle entropie de mixage existe que lorsqu’on mélange deux échantillons de particules
différentes.

Conclusion.

39
Une hypothèse de base de la statistique classique, la « dicernabilité des particules » qui ne répond
pas à une réalité physique et qui conduit à des difficultés graves doit être abandonnée. Il en résultera
donc une sorte de généralisation de la statistique classique et une introduction discrète vers les
statistiques quantiques.

VI .2 Nécessité de prendre en compte la dégénérescence en statistique classique.

Position du problème

Pour établir un décompte statistique des particules dans l’espace des phases, Boltzmann a divisé ce
espace en hypervolumes, appelés domaines. Ces éléments d’extension finis jouent un double
rôle :

 C’est la grandeur des domaines qui permet de définir ce qu’on a appelé l’état
macroscopique noté (N1,….Nr).
 C’est également à partir des domaines que nous avons défini la notion de complexion qui
suppose les particules numérotables.
Une permutation de deux particules entre deux domaines différents crée une nouvelle complexion
différente ; alors qu’une permutation de deux particules à l’intérieur d’un même domaine ne change
pas le nombre de complexions (l’état énergétique n’est pas modifié). Cela veut dire que lorsque
plusieurs particules se trouvent à l’intérieur d’un même domaine, nous admettons que leur
coordonnées dans l’espace des phases sont physiquement indiscernables et peuvent être confondues.
Ainsi, des considérations physiques et la facilité de passage vers les statistiques quantiques
justifient l’abandon de la grosse structure .

D’après ce qui précède, les cellules sont donc des régions de l’espace des phases à l’intérieur
desquelles, les coordonnées des cellules sont physiquement indiscernables. La grandeur des
cellules est donc liée à la précision avec laquelle on peut mesurer les coordonnées de positions et
de vitesse d’une particule.

En mécanique classique, il n’existe en principe aucune limitation à cette précision. En fait, cette
précision est tellement grande que dans le cas d’un gaz, dans les conditions normales, les cellules
sont tellement petites qu’elles ne contiendront 0 particule et temps en temps et une (1) au hasard des
fluctuations.

Il en résulte que la probabilité de contenir plusieurs particules est pratiquement négligeable.

Si dans ces conditions, on se propose d’attribuer aux cellules la propriété qui définit l’état
macroscopique et si on évalue la probabilité de cet état par la relation : , on rencontre
des difficultés considérables.

En effet, les représentent le nombre de particules par cellule or comme ce nombre est égale à 0
ou 1 ; leur factoriel est toujours égale à 1 et , valeur constante indépendante de l’état
macroscopique. Ainsi, , conduit à , indépendante des variables macroscopiques.
Ce qui n’a aucun sens.
Conclusion :

On est amené à envisager une double structure de l’espace des phases :


- une structure grosse en domaine et
- une structure fine en cellules

40
le nombre de cellules par domaine est
Soit le nombre moyen de particules dans une cellule de domaine ,
est en général petit, mais sera suffisamment grand pour que et soient grand.

VI .3 Calcul de la probabilité de l’état macroscopique

Pour évaluer le nombre de complexions différentes (états microscopiques), il faut tenir compte de la
double structure :

- en permutant des particules entre deux domaines différents :


- en permutant les Ni particules d’un même domaine parmi les gi cellules :

En effet, la particule n° =1 a le choix entre gi possibilités différentes ;

Pour les deux premières particules, il y a possibilité différentes de se placer. Ainsi pour
l’ensemble de Ni particules, on a :

Un tel choix existe pour chaque domaine et le nombre total de possibilités de répartition à l’intérieur
de tous les domaines est :

Le nombre total d’états microspiques peut se réaliser à la fois grâce à l’échange intermédiaire Wa et
grâce à l’échange extra domaine Wb , soit : W=Wa.Wb

Statistique de Boltzmann avec dégénérescence.

L’état macroscopique le plus probable est donc

W est maximal si
Il faut associer les quantités : et
Ce qui conduit au système suivant :

En introduisant les multiplicateurs de Lagrange α et β , on obtient :

41
alors :

Ce résultat détermine le nombre moyen de particules par cellule du ième domaine d’énergie Ei.

avec la condition de normalisation , on obtient :

et

On désigne par fonction de partition (somme d’état) , la quantité :

Le facteur porte le nom de facteur de dégénérescence ou poids statistique

VI.4 Calcul des fonctions thermodynamiques

On peut facilement montrer que :

or : et alors :

Pour un gaz parfait :


soit

Le choix des dimensions est toujours arbitraire, mais la grandeur (extension des cellules) joue un
rôle essentiel. Cette grandeur reste indéterminée en mécanique classique. En mécanique quantique
est défini par rapport à la constante de Planck.

Malgré la prise en compte de la double structure, la statistique de Maxwell-Boltzmann avec


dégénérescence conduit toujours à des difficultés. La fonction entropie est toujours une grandeur
non additive.

Il faut donc abandonner la notion de numérotation des particules du système.

Avec cette nouvelle condition le nombre d’états microscopiques est égal à :


C’est la Statistique de Boltzmann Corrigée.
Cette nouvelle expression conduit à une fonction entropie additive. Il s’agit de la limite
commune des deux statistiques quantiques, lorsque .

42
VI.5 : Calcul de facteur de dégénérescence ou poids statistique des niveaux d’énergie de
translation très rapprochées.

Densité d’état : g(p)dp et g( E)dE

Pour des niveaux d’énergie rapprochés, on peut supposer une variation continue d’énergie pour le
système. Ainsi, au lieu de parler de nombre de places (cellules) pour les particules, on parle de
g( E)dE nombre d’état entre deux niveaux d’énergie E et E +dE ou densité d’état.

C’est le nombre de places offertes aux particules entre le domaine d’énergie E et .E +dE.
La fonction g( E) est appelée fonction densité d’état.

A chaque état d’énergie est associée une fonction d’onde correspondant aussi à une cellule de
l’espace des phases distribuées entre E et E +dE.

Le volume élémentaire dans l’espace des phases étant : , le nombre de cellules dans le
volume élémentaire est : ; soit :

Ce nombre est indépendant de la nature de la particule, mais dépend que de la forme de l’énergie.

 Pour une particule avec une énergie cinétique : , on obtient :

car et

 Pour une particule de photon d’énergie : , on obtient à :

 trois dimensions :

alors :

 deux dimensions

alors : et
 une dimension :

alors : et

43
Exercices d’application
Exercice 3.1 :
Soit un système de deux atomes, chacun des atomes possèdent trois niveaux d’énergie 0, Є et 2 Є.
Le système est en contact avec un réservoir à la température T. Ecrire la fonction de partition z pour le
système si les particules obéissent :
a) à la statistique classique et sont discernables
b) à la statistique de Bose –Einstein
c) à la statistique de Fermi Dirac

Exercice 3.2 :
On considère N particules discernables sans interaction, placées sur deux niveaux d’énergie.
1) Montrer que la population des deux niveaux est déterminée complètement en fonction de l’énergie totale
E et du nombre de particule N. Montrer qu’il en est de même de l’entropie.
2) Pour introduire la température on utilisera une relation de thermodynamique macroscopique exprimant
T en fonction d’une dérivée partielle de E par rapport à S. Calculer E en fonction de T et en déduire les
populations de deux niveaux en fonction de T. Le résultat obtenu est-il conforme à la formule de
Maxwell-Boltzmann ?

Exercice 3.3 :
On se propose d’établir l’expression de β dans la statistique de Maxwell-Boltzmann. Soit Ei les niveau
d’énergie et Ni le nombre de particules sur le niveau i à l’équilibre.
a) Ecrire l’expression statistique de l’énergie totale U.
b) On fait varier de façon infinitésimale l’état du système. Ecrire la variation de l’énergie
c) Les niveaux d’énergie Ei de translation en général du volume mais non la température. Interpréter les
deux termes qui interviennent dans l’expression de dU.
d) On rappelle que dQ=TdS, établir l’expression de β en fonction de la température thermodynamique dans
le cas de la statistique de Maxwell-Boltzmann.

Exercice 3.4 :
On considère un système composé d’un grand nombre de molécules N. Chacune des molécules possèdent
deux niveaux d’énergie Є1 et Є2 (Є1 < Є2) de même poids statistique g=1. On posera Є= Є 2 - Є1
Ce système obéît à la statistique de Maxwell-Boltzmann et est en équilibre avec un thermostat à la
température thermodynamique T.
1) Ecrire les expressions des nombres N1 et N2 de molécules ayant respectivement les énergies Є 1 et Є2
.
En déduire les probabilités p1 et p2 pour une molécule d’être respectivement sur les niveaux Є 1 et Є2
2) Calculer N1 - N2
3) Définir une température caractéristique θ du système
4) Quelle sont les limites de N1 et N2, N1-N2 dans les deux cas suivants : a) T << θ ; b) T >> θ.
Retrouver les résultats précédents par des arguments physiques simples.
5) Etablir l’expression de l’énergie interne U du système considéré. En déduire la capacité calorifique
du système Cv.
6) Tracer la courbe représentative de U et Cv en fonction de T/ θ.

Exercice 3.5 :
On introduit N molécules dans un cylindre de révolution de rayon R et de hauteur H. On fait tourner ce
cylindre autour de son axe à la vitesse angulaire constante ω. En régime permanente et du fait des chocs
moléculaires, on admettra qu’une molécule située à une distance r de l’axe de rotation a une accélération
normale égale à ω2r, dans un repère lié au laboratoire. On supposera la température uniforme et égale à T.
1) Donner l’expression de la fonction de partition Z relatif à une molécule du gaz en fonction de β et Δ.
2) Calculer la fonction de partition Z en fonction de T, k, R et Δ.
3) Calculer n(r) la densité de particules par unité de volume et la pression P=P(r) dans le gaz considéré
parfait. Mettre l’expression de P sous la forme de P=P0f(r) où P0=P(0), pression à r=0 que l’on
spécifiera.

44
Exercice 3.6 :
On considère un gaz formé de N particules monoatomiques, de masse m, en équilibre thermique dans une
enceinte où
La température est T. ces particules suivent la statistique de Maxwell-Boltzmann ; leur seule énergie est
l’énergie cinétique de translation.
1) Rappeler l’expression de la fonction de partition de ce gaz ainsi que l’expression du nombre de
particules ayant Ei à l’équilibre thermique, si le niveau Ei est gi dégénéré.
2) En fait, les niveaux de translation sont très approchés mais non dégénérés. On introduit la densité
d’états g(p)dp en groupant les niveaux dont l’impulsion est comprise entre p et p+dp ? En déduire le
nombre dNv de particules dont le module de la vitesse est compris entre v et v+dv
3) Quelle est l’expression de F(v)dv, probabilité pour qu’une particule ait le module de sa vitesse compris
entre v et v+dv. Représenter graphiquement F(v). Calculer la vitesse la plus probable v*
4) Quel est le nombre dNV,Ω de particules dont le module de la vitesse est compris entre v et v+dv, et dont
la direction pointe dans l’angle solide d Ω ?
5) On désigne par dNE le nombre de particules dont l(énergie est compris entre E et E+dE, quelle est
l’expression de dNE = f(E)dE. Représenter graphiquement f(E) et calculer l’énergie la plus probable.

Exercice 3.7 :
Le mouvement suivant un axe d’un atome ou d’un ion appartenant à un solide peut, en première
approximation, être assimilé au mouvement d’un oscillateur harmonique suivant cet axe. L’énergie de
vibration de l’atome ou de l’ion est quantifiée et peut prendre une des valeurs єn.
 n  (n  1/ 2)h n=0, 1,2… ∞
h désignant la constante de Planck et ν la fréquence classique de l’oscillateur :  n  1 / 2 k / m m étant
la masse de l’atome et k la constante de raideur d’un ressort équivalent au potentiel qui tend à ramener
l’atome vers sa position d’équilibre. En fait, un atome peut vibrer suivant trois directions indépendantes et
son énergie est :  n  (n1  n2  n3  3 / 2)h où n1, n2, n3 sont des entiers positifs ou nuls. Ces niveaux
d’énergie sont tels que g n1,n2,n3 =1 pour tout n1,n2,n3.
Dans le modèle d’Einstein, on admet que tous les atomes vibrent avec la même énergie la même fréquence
ν. On admettra que les atomes du solide obéissent à la statistique de Maxwell –Boltzmann.
1°) Ecrire l’expression de Ni représentant le nombre d’atomes se trouvant sur le niveau d’énergie є i et
définir la fonction de partition relative à un atome du solide et la calculer.
2°) Etablir l’expression de l’énergie interne du solide à partir de Z et calculer U. Quelle est l’énergie
moyenne de vibration d’un atome ? Quelle est l’énergie moyenne de vibration d’un atome suivant un axe ?
3°) Représenter la variation de l’énergie interne du solide en fonction de la température. Il sera commode de
définir une température caractéristique.
4°) Calculer la capacité calorifique molaire du solide Cv et étudier sa variation en fonction de la
température. Dans la zone de température élever, retrouver la valeur de Cv à partir du théorème de
l’équipartition de l’énergie.

45
DISTRIBUTIONS
de
BOSE-EINSTEIN et FERMI-DIRAC

VI. Introduction

Si la température d’un gaz parfait (pour une densité donnée) est suffisamment basse, la
statistique de Boltzmann devient inapplicable. Il est alors indispensable de créer une nouvelle
statistique dans laquelle les nombres moyens de remplissage des divers états quantiques des
particules ne sont pas supposés petits.
Cependant, cette nouvelle statistique diffère suivant le type de fonction d’onde décrivant le gaz,
qui est supposé être un système de N particules identiques. On sait que ces fonctions doivent être
soit antisymétrique, soit symétrique lorsqu’on inter-échange deux particules à Spin demi-entier pour
le premier groupe et le second pour les particules à Spin entier.

VII. Distribution de Bose

Les systèmes de particules décrits par des fonctions d’onde symétrique sont décrits par une
statistique appelée Statistique de Bose. Elle fut brièvement introduite par Bose à cause des photons
et étendue aux cas des particules d’un gaz par Einstein. C’est pourquoi, on appelle aujourd’hui
statistique de Bose-Einstein.

Pour ces Bosons, rien ne limite le nombre de remplissage des états quantiques des fonctions d’onde
symétriques, qui peuvent prendre des valeurs arbitraires (une cellule peut alors avoir plusieurs
particules).

II.1 Expression de la probabilité W pour les particules de Bosons

Le nombre d’état microscopique correspondant à un état macroscopique est déterminé par le


nombre de manière de repartir les Ni particules des domaines entre cellules de chacun de ces
domaines.
En effet, si les particules sont indiscernables, les cellules ne doivent pas être distinguées les une des
autres. Pour déterminer W considérons à titre d’exemple le schéma suivant :

qui présente un domaine et quelques cellules contenant un certain nombre de points


(particules). On peut donc considérer les particules et les parois de séparation des cellules comme
étant des objets (particules indiscernables).

On a donc Ni particules et parois. Entre tous ces objets, il y a permutations


possibles. Mais Ni! de ces permutations entre particules d’un même domaine ne change rien
(indiscernables). Aussi d’ailleurs que permutations entre parois.
Le nombre d’états microscopiques différents pour le domaine est donc :

Et comme Ni et sont grand, alors :

46
La probabilité W de l’état macroscopique qui correspond au nombre total d’états microscopiques
est :

L’état le plus probable est tel que d(Ln W) =0


En appliquant la formule de sterling, on obtient :

W est maximal si ;
Si on différencie en tenant compte des conditions :

on obtient le système :

L’utilisation des multiplicateurs de Lagrange α et β, conduit à :

et
soit :

C’est la distribution de Bose-Einstein

est le nombre moyen des particules dans les cellules à l’équilibre thermodynamique. Ce résultat
est bien différent de celui de Boltzmann même avec dégénérescence.

III. Distribution de Fermi

III.1 Probabilité et répartitions des fermions

Passons maintenant à l’étude de la statistique à laquelle obéit un gaz parfait composé de particules
indiscernables décrit par des fonctions d’onde totalement antisymétriques, obéissant au principe de
Pauli selon lequel dans chaque état quantique, il ne peut y avoir simultanément plus d’une particule.
La statistique basée sur ce principe est appelée statistique de Fermi ou statistique de Fermi-Dirac.

Dans une cellule, il ne peut y avoir au maximum qu’une particule. Deux particules ne peuvent
coexister dans une même cellule contrairement à la statistique de Bose.

Ainsi, dans une cellule vaut soit 0 ou 1 et donc

47
Le nombre total de particules est au maximum égale au nombre de cellules.

 Si le nombre d’état microscopiques possibles dans un domaine est l’unité. Il


n’y a une seule possibilité.
 Si , il y a cellules pleines et cellule vides.

Dans ce cas, on a au total ! permutations possibles. Mais parmi ces permutations les !
permutations obtenues entre les cellules pleines ne change pas le nombre de complexions ainsi que
permutations entre cellules vides. Le nombre d’états microscopiques différents pour
chaque domaine est donc :

La probabilité W de l’état macroscopique qui correspond au nombre total d’états microscopiques


est :

Et la distribution (répartition) des particules dans l’état le plus probable à l’équilibre est

De sorte qu’en statistiques quantiques, on écrive :

et

Un calcul direct pour évaluer la quantité : dans le cas général n’est pas aisé. Son calcul se
heurte à des difficultés mathématiques importantes. On peut montrer avec la grande fonction de
partition que ( avec le potentiel chimique).

III.1 Expressions des fonctions thermodynamiques en statistiques quantiques

 Cas limite où : soit 1

Pour 1, il faut que dans l’expression , le dénominateur soit grand. On peut


alors négliger 1 devant ;

La condition entraine que quelque soit le type de statistique.


Ce résultat peut-être rapproché à celui de la statistique de Boltzmann avec dégénérescence où
en identifiant

48
Ainsi pour , il y a une identité entre les lois de répartition des particules quelque soit la
statistique considérée. Cette identité n’est pas vraie pour les probabilités et donc pour les fonctions
thermodynamiques.
En effet, on a :
Bosons
Fermions
Soient :

Dans le cas limite 1: , et

alors :

or alors
est le logarithme de la probabilité en mécanique de classique (Maxwell-Boltzmann)

Avec : on obtient : et soit :

Pour un gaz parfait où avec on obtient :

et

 Cas général

Posons :

représente le :
 Potentiel thermodynamique pour les Bosons
 Energie libre pour les Fermions

Si on introduit le potentiel chimique on obtient :

49
III.2 Fonction de partition d’un gaz parfait de bossons et de fermions

Il faut dans ce cas utiliser la grande fonction de partition puisque pour les bosons et les fermions, le
nombre de particules n’est pas conservé.

avec appelé fugacité du gaz

Soit une distribution d’états microscopiques d’un système de particules indiscernables, alors :

Le nombre d’état accessibles du système est donné par toutes les distributions possibles de
l’ensemble . On obtient :

où maintenant la somme est sur tous les possibles sans restriction comme :
Dans le cas d’un gaz de fermions, le nombre d’occupation ne peut prendre qu’une des deux
valeurs 0 ou 1 (Principe de Pauli).
Ainsi la fonction de partition pour les fermions s’écrit :

fermions

Par contre, pour les bosons, peut prendre toutes les valeurs possibles et non négatives. Ainsi la
fonction de partition pour les bosons s’écrit :

bosons.

Si alors G=0 et

Ce qui conduit à la relation :

+ pour les fermions


- pour les bosons

 Dans le cas des bosons, représente la probabilité qu’un état d’énergie Ei contienne
particules.
 Dans le cas des fermions, représente la probabilité pour qu’un état d’énergie Ei soit
occupé.

Il faut remarquer que la fonction de distribution pour les bosons contient une singularité là où le
dénominateur s’annule. Ce fait a des conséquences physiques que nous allons étudier.

50
III.3 Limite classique des gaz de bosons et de fermions.

Examinons les distributions de Bose-Einstein et de Fermi-Dirac dans la limite classique, c’est-à-


dire dans la limite où la symétrie des fonctions d’onde des particules peut être négligée.
Cette condition sera satisfaite pour un gaz très raréfié où les particules pourront être distinguées par
leurs positions. Ces particules deviennent ainsi discernables.

La raréfaction du gaz se traduit par la condition:


Cette condition sera satisfaite à haute température en raison de l’agitation des atomes du gaz qui
favorise leur séparation.

Pour avoir une idée de la grandeur fugacité à haute température, calculons le potentiel chimique
dans la limité classique.

On sait :

Pour un gaz parfait où alors :

appelé Sackur-Tetrode

avec

Le potentiel chimique pour un gaz classique est donc négatif et la fugacité est
égale au rapport du « volume » qu’occupe la particule au volume spécifique du gaz.
Pour un gaz raréfié . Ce qui entraine

Cette condition permet de faire des développements en puissance de .

On a : or :

soit :

En remplaçant la somme par une intégral, on obtient :

- pour Fermi-Dirac
+ pour Bose –Einstein

avec

51
Les deux équations permettent de développer P/kT en puissance de la densité .

Un tel développement s’appelle développement du Viriel.

Si on ne retient dans ces équations que les termes linéaires en , on retrouve immédiatement la loi
classique

Puisque est réalisée à hautes températures, nous avons montré que tous les gaz parfaits
atteignent la limite classique à hautes températures.

III.4 : Equation d’état des gaz parfait de Bosons et de Fermions

On a vu que :

Soit :

par parties conduit à l’expression :

L’énergie du gaz est

En comparant les deux dernières relations, on a : qui se réduit à dans le cas


particulier d’un gaz classique où l’énergie est

On peut vérifier aisément que pour un gaz relativiste où l’énergie de chaque particule dépend
linéairement de l’impulsion E = c p , l’expression est remplacé par

IV . Gaz complètement dégénéré de Fermions et de Bosons

Un gaz est dit dégénéré si les effets dus à la symétrisassion sont importants. Un gaz est donc
dégénéré à très basses températures. Les propriétés d’un gaz dégénéré de fermions sont très
différentes de celles d’un gaz de bosons.

IV.1 Gaz d’électrons dégénérés

Etant donné la forte dégénérescence du gaz électronique, la statistique n’est plus valable en
première approximation. Il faut utiliser la statistique de Fermi-Dirac pour bâtir la théorie
électronique des métaux qui constitue une excellente application de la statistique de Fermi-Dirac.

On sait qu’en statistique de Fermi-Dirac, le taux d’occupation est :

52
avec et , on a :

On peut montrer que :

L’intégral est étendu à tout le domaine réel de volume total occupé par les particules.
Par ailleurs : , alors :

S’il n’y a pas de champ extérieur et si la pression p est constante et uniforme, alors :

En thermodynamique, on définit l’enthalpie libre et la fonction de Gibbs ou potentiel


thermodynamique à P et T constant tel que : alors :

Ce qui permet d’identifier (c’est l’enthalpie libre moyenne avec pour unité NkT)
On a coutume de désigner l’enthalpie libre par électron (G/N) sous le nom de l’énergie de fermi ou
niveau de Fermi, EF
La distribution de Fermi-Dirac pour un gaz d’électrons s’écrit :

qui représente la probabilité pour qu’un état Ei soit occupé par un électron à l’équilibre.

est la fonction de distribution de Dirac

IV.2 Gaz de fermions complètement dégénérés

IV.2.1 Propriétés

 Un gaz au zéro absolu (T= 0K) est dit complètement dégénéré.

 Un gaz de fermions au zéro a la propriété remarquable que son énergie cinétique totale
n’est pas nulle ( à T=0K et )

Ceci est une conséquence immédiate du principe de Pauli; car chaque état quantifié ne pouvant
contenir qu’un seul fermion, il s’ensuit que les fermions occuperont tous les états énergétiques

53
possibles allant de l’état d’énergie nulle à un état d’énergie maximum EF appelée énergie de Fermi
et dont la valeur sera déterminée par le nombre de fermions dans le gaz.

 Si la limite si

 à T= 0 K
 Si est discontinue

 à K

Ei
EF
 quand on parle de l’Energie de Fermi (niveau de Fermi)

Si tous les états pour lesquels sont occupés par les électrons par contre pour
les états sont vides.

VI.2.2 Détermination de l’énergie de Fermi , EF

On a :
 si

or ( car kT et )
alors : et

Ce qui montre bien que même au zéro absolu, la pression d’un gaz de fermions n’est pas nulle

L’énergie de Fermi dépend elle-même de la densité du gaz comme un simple calcul le montre.

Le nombre total de particules au zéro absolu est :

et

est le facteur de dégénérescence dû au spin des fermions

54
Avec : étant la quantité de mouvement à la surface de Fermi

En définissant la température de Fermi :

On remarque que « basse température » veut dire :

Cette notion est fortement dépendante de la densité et de la masse des particules du gaz.

Pour les électrons, le facteur de dégénérescence

Et la longueur d’onde de Fermi est : et pression au niveau de


Fermi

est de l’ordre de grandeur de 2 fois la distance moyenne ; c’est-à-dire qu’il y a


environ un électron par atome.
qui est de l’ordre de 2 fois la distance interatomique : 4 à 5
L’énergie cinétique est de l’ordre de .

Il est commode de représenter le métal comme un puits de potentiel à parois verticales de


profondeur (-eV0).

+
e avec une vitesse V dans le
vide
-
e au repos dans le vide

0
W0
-
e d’énergie E

-eV0 -
e au repos dans le
métal
L’énergie totale des électrons dont l’énergie cinétique a la valeur maximale EC est
quantité nécessairement positive sans quoi les électrons quitteraient le métal. La quantité W0 est le
travail de sortie, c’est-à-dire l’énergie qu’il faut fournir à un électron à la surface de Fermi pour
l’extraire du métal.

55
VI.2.3 Densité d’état des fermions

Nombre de cellules de Fermi

Dans l’espace des moments (impulsion), le rayon de la sphère de Fermi est . le


nombre de cellules inférieurs au niveau de Fermi correspond donc dans l’espace des moments au
volume de cette sphère :

Et l’hypervolume de l’espace des phases est :


Le nombre de cellules disponibles pour est :

est le volume d’une cellule. Or, on a un (1) électron par cellule (Spin ) alors le facteur de
dégénérescence dû au spin est .

Le nombre d’état est donc :

Le principe d’exclusion de Pauli limite l’occupation des états quantiques pour ces particules.

avec

Densité d’état
Le nombre d’états s’écrira de façon général par
La densité d’états distincts dont l’énergie est comprise dans la bande d’énergie E et E+dE est :

L’énergie cinétique totale des électrons à s’obtient facilement :

Or à , alors

IV3 Gaz dégénérés de fermions

Il s’agit de préciser la distribution des fermions à une température quelconques


Le nombre d’électrons dont l’énergie est compris entre E et E+dE est toujours donné par la
relation :

1
à T= OK
Etats vides
0,5 à T  OK
Etats E
56 i
occupés
EF
Pour calculer l’énergie cinétique totale, on écrit :

Il apparaît des intégrales compliquées : .

Néanmoins un long calcul permet de montre que :

IV.4 Gaz dégénérés de bosons

A basses températures les propriétés du gaz de Bose n’ont rien de commun avec celle du gaz de
Fermi. C’est évident, car pour un gaz de Bose, l’état de moindre énergie dans lequel le gaz se trouve
pour T=0K doit être l’état correspondant à E=0 (toutes les particules se trouvent à l’état Ei=0). Ce
qui n’était pas le cas pour un gaz de Fermions.

Condensation de Bose-Einstein

Pour un gaz de Bose, le nombre d’occupation est :

avec la fugacité

Puisque l’état de base a une énergie nulle, nous devons avoir , c’est-à-dire afin
que le nombre d’occupation n’atteigne jamais une valeur négative.
En général, on a : , c’est-à-dire à toutes températures.
Pour , on avait montré que l’équation d’un gaz parfait de bosons s’écrivait (développement
du viriel) :

Les deux expressions convergent seulement si .

A la limite l’expression de détermine pour une température donnée, une densité critique

La grandeur est la fonction zéta de Riemann. Ces valeurs de la fonction sont tabulées :
et conduit :

 Pour , décroit que si décroit ; on obtient des densités inférieures à .

 A la condition correspond donc des densités telles que

57
La situation devient très différente lorsqu’à une température donnée, la densité du gaz est
supérieure à puisque l’expression de n’est plus valable, cette équation ne décrit que des
densités satisfaisant
.

La contradiction provient du fait que pour obtenir l’expression de , il a été remplacé une somme par
une intégrale qui contenait un poids statistique (densité des états ) à une énergie E donnée.

Dans la limite thermodynamique, les niveaux énergétiques devenaient denses. Or, pour un gaz de
bosons, l’état de base peut être très peuplé, puisqu’il n’y a pas de limitation du nombre
d’occupation.
Malgré la possibilité que cet état soit très peuplé, le poids qui est attribué dans les calculs est nul
puisque la densité des états est proportionnelle à ; c’est-à-dire : qui est nul lorsque
E=0.

Il faut donc ajouter à N , la population N(0) de l’état de base.

où :

: Population de l’état de base

: c’est le nombre moyen de particules dans les états excités ;

Si l’on résout graphiquement l’équation donnant par rapport à , on trouve


dans la limite le résultat simple suivant :

pour

Ainsi, pour

En définissant maintenant pour une densité donnée, une température critique TC, on obtient la
relation :
pour

et peut être grand déjà lorsque T est largement inférieur à . Cette relation montre qu’à
T=0K, toutes les particules occupent l’état de base.
On a aussi :

avec :

58
Mais, pour grand donc

Et pour et :

Dans la région critique la pression indépendante de et varie comme . Autrement dit, l’état
condensé ne contribue pas à la pression.

En conséquence, le changement de phase s’effectue sans changement de volume et l’état condensé


n’occupe aucun volume.

La chaleur spécifique par particule s’écrit : et

La chaleur spécifique a donc une dérivée discontinue à . Cette propriété est caractéristique
d’une transition de phase. Ce phénomène s’appelle Condensation de Bose-Einstein.
Enfin, l’entropie calculée à l’aide de l’expression :

et l’entropie tend vers zéro à T=0K, en accord avec le théorème de Nernst.

59
V. Rayonnement d’un corps noir

L’une des principales applications de la statistique de Bose est le rayonnement électromagnétique à


l’équilibre thermique ou rayonnement du corps noir.

Le rayonnement noir peut être considéré comme un « gaz » composé de photons. Ce gaz est parfait
puisque les photons n’interagissent pas entre eux. Une cavité fermée et maintenue à une
température T émettra des photons et en réabsorbera. Après un certain temps, il s’établira une
situation où les photons et la cavité seront en équilibre thermodynamique. La radiation
électromagnétique à l’intérieur de la cavité s’appelle radiation d’un corps noir. Cette partie a pour
objet de décrire les propriétés de cette radiation.

V.1 Rayonnement d’un corps noir

Distribution des photons

Les photons diffèrent des autres bosons par le fait que leur nombre n’est pas conservé. Pour évaluer
la grande fonction de partition, la contrainte due à la conservation du nombre des particules devient
superflue. Ainsi, la fugacité est égale à l’unité et le potentiel chimique est nul.

et
Donc, la fonction de partition et la grande fonction de partition se confondent
Puisque pour un photon , on a la distribution des photons qui s’écrit :

C’est la distribution de Planck.

Si on suppose que le volume est grand, on peut introduire comme d’habitude une distribution
discrète à la distribution continue de fréquence propre.

Le nombre d’oscillation propre avec les composantes du vecteur d’onde dans les intervalles ,
et est calculé à partir de la relation de base :

Il faut tenir compte de la dégénérescence du spin .

Pour les photons, on a deux directions privilégiées

Or : , alors :

Pour l’espace des fréquence : , le nombre d’oscillation propre est :

60
Ainsi, le :

 Nombre de photons dans cet intervalle des fréquences est :

 Energie du rayonnement noir dans ce domaine du s spectre est :

Cette relation qui donne la distribution spectrale de l’énergie du rayonnement noir, est appelée
formule de Planck (1900).

La formule de Planck exprimée en fonction des longueurs d’onde :

 Pour des fréquences basses : ( ) , on a :

relation de Rayleigh- Jeans

 Dans le cas limite des fréquences élevées ( ):

relation de Wien

Si on introduit la fréquence , on obtient la densité d’énergie par intervalle de fréquence


d :

 Loi de Rayleigh-Jeans

 Loi de Wien

La loi de Wien montre que pour chaque température T, il y a une longueur d’onde
pour laquelle est maximum. Cette longueur d’onde est donnée par la relation :

en . degré. Kelvin

V.2 Calcul des fonctions thermodynamiques d’un gaz de photons

Pour un gaz de photons (corps noir), le potentiel chimique est nul ( )

et et

Or pour un gaz de Bosons : , alors :

61
Si on remplace la somme par une intégrale, on obtient :

En posant : et en intégrant par parties, on obtient :

 où : la constante de Stefan-Boltzmann

 E =F + TS L’énergie est proportionnelle à ; c’est la loi de


Boltzmann

 et

Comme on pouvait s’y attendre, pour un gaz parfait de photons, on trouve la même expression
limite pour la pression que pour un gaz électronique ultra-relativiste. Cette relation se trouve être la
conséquence directe de la dépendance linéaire E=pC entre l’énergie et l’impulsion de la particule.

Le nombre total de photons du rayonnement noir est :

L’intégration s’exprime à l’aide de la fonction zéta de Riemann

62
Exercices d’application
Exercice 4.1 :
On considère un gaz de fermions, supposés sans interaction mutuelle, de spin ½ (des électrons par
exemples) enfermés dans un volume V. Soient єi les niveaux d’énergie des particules. Le poids
statistique dû au spin est 2, correspondant à la possibilité pour un électron d’avoir la projection de
spin égale à ±1/2. En utilisant le principe d’exclusion de Pauli, montrer qu’au zéro absolu les
particules occupent les niveaux єi jusqu’à une énergie  F0 appelée énergie de Fermi.

Exercice 4.2 :
On considère une masse M de métal occupant un volume V, se trouvant à la température
thermodynamique T et à la pression atmosphérique. En première approximation, les ions positifs
formants ce métal ont pour effet de créer un puits de potentiel empêchant les électrons de quitter
celui-ci. On négligera toute interaction électron-électron.
Le nombre d’électrons N1 se trouvant sur le niveau є1 à l’équilibre a pour expression :
gi
Ni  et gi étant le poids statistique du niveau є1 le spin de l’électron J étant égal
exp(  i   )  1
à 1/2 gi=2J+1+2. On pose ν=βεF, où εF est une fonction dépendante des variables
thermodynamiques du système.
En admettant que εF(T) tend vers une limite finie  F lorsque T→ 0°K (On prendra l’énergie
0

potentielle d’un électron nulle à l’intérieur du métal). Interpréter physiquement la courbe ainsi
obtenue. Déterminer  F
0

Exercice 4.3 :
Une enceinte de température T est le siège d’ondes électromagnétique. Ces ondes sont équivalentes
à une assemblée de photons obéissant à la statistique de Bose–Einstein (le spin du photon est J=1).
A une onde de fréquence ν. On associe des photons d’énergie є=hν, h étant la constante de Planck.
L’énergie d’un photon est reliée à son impulsion p par є =cp, c est la vitesse de la lumière.
V .4 p 2 dp
1°) On rappelle que la densité d’états dans l’espace des impulsions est : g ( p)dp  2
h3
(le facteur 2 est dû au fait que pour une impulsion donnée, un photon peut avoir deux états
possibles de polarisation) Calculer la densité d’états en fonction de l’énergie.
2°) Rappeler la répartition des photons dans l’état le plus probable (à l’équilibre). Le nombre de
photons contenus dans l’enceinte n’est pas constant.
3°) On désigne par  ( ,T ) l’énergie par unité de volume des photons ayant leur fréquence
comprise entre ν et ν+d ν. Ν est la densité spectrale d’énergie. Déterminer  ( ,T ) .
4°) En déduire l’expression de la densité d’énergie u(T) dans l’enceinte.

Exercice 4.4 :
1°) Calculer, en fonction de la température, le nombre de photons n par unité de volume dans une
enceinte. L’expression de n fat intervenir une intégrale numérique.
3
2°) Calculer le nombre d n ,  de photons par unité de volume ayant leur énergie comprise entre
є et є + dє et leur impulsion pointant dans un angle solide dΩ. On rappelle que є=cp, où p est
l’impulsion d’un photon et c la vitesse de la lumière.
3°) calculer le flux de photons à travers un orifice percé dans la paroi de l’enceinte.
4°) Application numérique : calculer le nombre de photons s’échappant par seconde de l’orifice
d’une cavité de section S= 10 mm2 lorsque la température de l’enceinte est T=1000K.

63
La cavité de température T, percée d’un trou de faibles dimensions constitue un corps noir. On
définit le pouvoir émissif W du corps noir comme le flux d’énergie sortante de l’orifice.
5°) Calculer W en fonction de u, densité d’énergie dans l’enceinte.
6°) Montrer que l’on a W  T 4 et calculer σ.

Exercice 4.5 :
L’univers peut être considéré comme une cavité sphérique de rayon R contenant un nombre N de
photons. Ces Photons sont considérés comme placés dans un puits de potentiel infranchissable. Soit
T la température à l’intérieur de la cavité,
a) Calculer la densité des photons dans la le spectre des pulsations ω.
b) Estimer le nombre N de photons dans l’Univers
c) A.N R=1023 cm et T=3.0 K

x2
On donne : I   dx  2,4
0
ex 1

64
CORPS CONDENSES : SOLIDES

I. Propriétés structurales

I.1 Corps solide Basses températures

Les méthodes statistiques de calcul des grandeurs thermodynamiques peuvent également être
appliquées aux corps solides. Ces corps sont caractérisés par le fait que leurs atomes n’effectuent
que de petites oscillations autour de certaines positions d’équilibres, qui sont des « nœuds » du
réseau cristallin. La disposition mutuelle des nœuds correspondant à l’équilibre thermique du corps
doit être cristallisée, c’est-à-dire régulier dans les quels les atomes vibrent autour des points
disposés d’une manière chaotique. De point de vu thermodynamique, ce sont des corps métastables
qui devraient dans le temps se cristalliser. Cependant ce temps de relaxation étant tellement grand
que les corps amorphes se comportent comme des solides instables. Ainsi les calculs a effectuer sur
des corps cristallisés seront effectués sur des corps amorphes à condition de tenir compte pour ces
corps amorphes le théorème de Nerst n’est pas vérifiée. Ainsi à , l’entropie est différents
de zéro. Ainsi pour les corps amorphes il existe une entropie résiduelle . Il faut donc tenir
compte de cette entropie résiduelle dans le calcul de l’entropie . Mais ces constantes peu
importantes en particulier n’ont aucune influence sur la chaleur spécifique ; elles seront donc
omises dans les relations.

Il faut savoir que même pour les corps cristallisés ; on peut avoir une entropie résiduelle au cours
de leur mise en ordre.

Si la probabilité de trouver un atome au voisinage d’un nœud est égale à l’unité ; c’est-à-dire à
chaque atomes correspond un seul nœud, on parle de cristaux complètement ordonné. Dans le cas
contraire où on peut avoir un atome qui peut correspondre à plus de deux nœuds, la probabilité est
différente de 1.

Exemple de la molécule d’Oxyde de Carbonne solide ( CO) :

C’est une molécule qui peut avoir 2 orientations opposées obtenues par permutation des
atomes C et O. Alors pour

Conformément à la mécanique tous les atomes sont immobiles au zéro absolu, et l’énergie
potentielle d’interaction doit être minimale à l’équilibre. Ainsi, aux basses températures, les atomes
ne doivent, tout au moins effectuer que de petites oscillations, c’est-à-dire que tous les corps
doivent être solides.

Cependant, les effets quantiques peuvent conduire à des exceptions à cette règle. Tel est le cas de
l’hélium liquide qui est l’unique au zéro absolu et à la pression . Tous les autres se
solidifient avant que les effets quantiques ne soient sensibles.

Pour qu’un corps soit solide, il faut que sa température soit suffisamment basse.

65
Elle doit être petite (en fait, aux températures plus élevées tous les corps solides fondent) par
rapport à l’énergie d’interaction des atomes .

I.1.1 Modèles d’Einstein et de Debye

Soit N le nombre de molécules du corps, γ le nombre d’atomes dans une molécule. Le nombre
total d’atomes est alors γN. Trois des 3γN degrés de libertés correspondent au mouvement de
translation et rois au mouvement de rotation du corps. Ainsi le nombre de degré de liberté
d’oscillations est égal à 3γN-6 ; mais puisque 3γN est grand, on peut évidemment négliger le
nombre 6 et supposer égale à 3γN.

Il sera aussi négliger les degrés de liberté « internes » (électroniques) des atomes du solide. Si ces
degrés sont importants (ce qui peut être le cas pour les métaux) , il faut ajouter au effet des
oscillations dans le solide, les effets dd la partie électronique.

Du point de vue mécanique, un système à 3γN degrés de libertés oscillatoires peuvent ^tre
considéré comme un ensemble de 3γN oscillateurs indépendants, dont chacun correspond à une
oscillation normale.

On assimile donc le solide à une association d’oscillateurs harmoniques linéaires, reliés les uns aux
autres aux atomes du réseau. L’Excitation thermique en un point du réseau entraine une
propagation d’onde, généralement de très faible fréquence, de l’ordre des ondes acoustiques. A
cette onde, on lui associe une particule appelée phonon, de masse nulle et de potentiel chimique nul
puisque les particules ne se conservent pas.

Le caractère de cette particule est dispersif, c’est-à-dire qu’elle naît en un point, disparait et renait
au suivant la loi de propagation de l’onde.

Modèle d’Einstein

Dans le modèle de d’Einstein, l’énergie transportée la propagation linéaire d’un phonon est
quantifiée et vaut :

n est le nombre quantique : n = 0, 1,2… ∞

Si l’atome vibre suivant trois directions indépendantes sont énergie est :

où n1, n2, n3 sont des entiers positifs (nombre quantique pour les différentes directions) ou nuls variant de
0, 1,2… ∞

Dans la théorie d’Einstein, on émet l’hypothèse que les particules phonons obéissent à la statistique
de Maxwell-Boltzmann et que la densité d’état est égale 1 :

Pour les petites oscillations, la quantification de l’énergie qui s’écrit :

66
Comme , alors on peut étendre la somme à . Si on compte l’énergie de la
molécule à partir du niveau oscillatoire le plus bas (n=0) ; c’est-à-dire est inclus dans la
constante E0 (énergie électronique).

Or

En considérant le solide comme d’oscillateurs harmoniques à 3γN degré de liberté et ajoutant


l’énergie d’interaction E0 de tous les atomes du corps à l’équilibre (à l’état d’oscillations « nul »)
qui est proportionnelle au nombre de molécules. E0 n’est pas en général constant :

On peut écrire pour les basses températures :

La somme est prise pour tous les 3γN oscillations.

alors

A hautes températures

On a en tout 3γN composantes dans la somme suivant la grandeur


En introduisant la fréquence « géométrique » conformément à la définition :

Ainsi, pour l’énergie libre du corps solide, on obtient la relation :

67
Théorie de Debye

Dans le modèle de d’Einstein, nous avions posé que l’énergie transportée la propagation linéaire
d’un phonon est quantifiée et vaut :

n est le nombre quantique : n = 0, 1,2… ∞

Debye émet deux hypothèses (suppositions) :


Première supposition :
La première supposition de debye est que dans un solide, il y a principalement trois (3) modes de
vibrations :
 Deux (2) modes de vibration transverses et,
 Un(1) mode de vibration longitudinal.

Les vitesses de propagations des ondes acoustiques dans ces deux directions sont notées VT et VL.

Deuxième supposition :

La deuxième hypothèse de Debye stipule que le nombre maximum d’onde de vibration dans le
solide ; est égale à 3γN ; c’est-à-dire au nombre de modes principaux d’un système ayant 3γN
degrés de liberté.

Avec ces deux hypothèses, il facile, dans le cas de basses températures ou haute températures de
trouver une expression pour le spectre des fréquences des ondes acoustiques.
En effet, la vitesse de propagation des ondes dans un solide est :

K : constante d’élasticité
d : distance entre les masses ponctuelles
V : vitesse de propagation des ondes acoustiques dans le solide

Le nombre de vibration caractéristiques, c’est-à-dire la densité des états ayant un vecteur d’onde de
valeur absolue k autour de dk est :

Le nombre de mode de vibrations comprises entre et dans une direction donnée est :

68
En tenant compte des deux modes de propagation des ondes acoustiques dans un solide, le nombre
total de modes de vibration dans l’intervalle est :

Les phonons, comme les phonons peuvent occuper en nombre indéfini un état donné (bosons). De
plus, leur nombre n’est pas conservé. Il s’ensuit que les phonons obéissent aux statistiques de Bose-
Einstein et que le potentiel chimique d’un gaz de phonon est nul ;
Ainsi, la loi de distribution en énergie des phonons est analogue à celle des photons.

La fréquence maximum des phonons dans un cristal est selon la deuxième hypothèse de
Debye, donné par l’expression :

De cette condition, on obtient :

L’énergie interne du gaz de phonons est :

En posant : et , = : Température caractéristique de Debye

 ∞

A ces expressions, il faut ajouter la contribution de l’énergie électronique

69
La fonction énergie libre F se calcule en utilisant la relation :

Ce qui conduit a l’expression :

L’expression de la chaleur spécifique issue de la théorie de Debye ne décrit convenablement (avec


la précision que l’on peut attendre d’une formule d’interpolation) la chaleur en fonction de la
température que pour certains corps à réseau cristallin simple.
Soit pour la plupart des éléments et certains composés (à sel haploïdes). Elle n’est plus applicable
pour les corps plus complexes ; en particulier, elle n’est plus applicable du tout pour les cristaux
fortement anisotrope. De tels cristaux peuvent avoir des structures des type « étalement » ou en
« couche ».

II. Dilatation thermique des solides

On sait dans le modèle de Debye que le nombre de vibrations comprise entre et + est :

Si nous supposons que les températures sont basses, , les fréquences de vibration sont
alors faibles. Mais comme on sait, les oscillations de faibles fréquences ne sont d’autre que les
ondes sonores.

Pour un corps isotope, introduisons une vitesse moyenne dans les directions. Alors le nombre
de vibrations comprise entre et + devient :

La vitesse moyenne de propagation du son dans les cristaux est une fonction de la densité des
particules :
La fonction énergie libre peut se calculer en
transformons la somme en une intégrale.

Par suite de la convergence rapide de l’intégrale pour des kT petits, l’intégrations peut s’effectuer de
0à .

Remarque : Mise à part le terme , F ne diffère pas de celle trouvée pour un corps noir qu’en ce
sens que C la vitesse de la lumière remplace la vitesse moyenne du son et apparaît un facteur

70
supplémentaire 3/2. Ce terme provient du fait que les oscillations sonores ont 3 directions de
polarisation au lieu de 2 pour les photons.

Posons : et intégrons par parties, il vient :

or :

Le terme proportionnel à dans l’énergie libre pour des températures basses peut être considéré
comme au terme correctif à :

D’un autre côté, le terme correctif de l’énergie libre (à et T donnés) est égal au petit terme
correctif ( à et T donnés) du potentiel thermodynamique G. Ainsi, on peut écrire directement :

Où : est la partie du potentiel qui ne dépend pas de la température, le volume exprimé


en fonction de la pression par la relation :

et la vitesse moyenne du son, exprimée en fonction de la pression à l’aide de la


même relation.

La relation donne le volume des corps en fonction de la température ; soit :

Le coefficient de dilation thermique est égale à :

On voit qu’aux basses, le coefficient est proportionnel au cube de la température. Ceci est d’ailleurs
évident par suite du théorème de Nerst et de la loi en T3 pour la chaleur spécifique.

Dans le cas des températures élevées, on a :

71
Dans l’expression : les second et troisième termes
peuvent être considérés comme des termes correctifs au premier terme. Pour que le corps soit
solide, il faut tout au moins que l’on ait : .

On obtient alors :

d’où :

Le coefficient de dilatation thermique est :


ne dépend pas de la température et
Si P augmente les atomes d’un solide se rapprochent et augmente et c’est-à-dire
que le corps solide se dilate lorsque la température augmente.
En basses température est positif en vertu d’un raisonnement analogue.

72
Travail à faire
Exercice 5.1 :
Dans un solide, l’approximation de d’Einstein conduit à considérer la fonction densité d’états des
phonons g(E) comme étant une fonction partout nulle sauf pour une valeur unique E 0 de la variable
E, ce qui conduit à écrire : g(E)dE = 3N (E-E0)dE.
Où  est la distribution de Dirac. N est le nombre d’atomes, 3N est le nombre de degrés de liberté
du système. On définit une température caractéristique d’Einstein par E = E 0/k, k étant la
constante de Boltzmann.
1. Ecrire l’expression de l’énergie interne U et de la capacité calorifique Cv.
2. Etudier les limites de Cv pour les températures élevées et pour les températures faibles.
3. Tracer l’allure de la courbe représentative de Cv en fonction de T/ E , variable sans
dimension.

Exercice 5.2 :
1) Montrer que dans un réseau tridimensionnel, l’approximation de Debye conduit à considérer la
densité d’états des phonons comme indépendants de E. Soit : g(E)dE = AE2dE
2) Préciser la constante A et l’exprimer en fonction de l’énergie maximale ED dans le modèle de
Debye. Représenter graphiquement g(E).

Exercice 5.3 :
Dans un solide, une onde acoustique de vecteur d’onde k et de fréquence ν a l’énergie є=hν. La
variation de ν ou de є en fonction de k constitue la loi de dispersion du solide. En général, la
direction de propagation (direction k) n’est pas perpendiculaire, ni parallèle à la direction de
déplacement des atomes mais dépend de la structure du solide. Cependant pour les longueurs d’onde
  2 / k grandes devant les dimensions interatomiques du cristal, celui-ci se comporte comme un milieu
continu et on peut lui appliquer la théorie macroscopique de la propagation acoustique. On sait dans ce cas
que pour un solide, il existe pour tout vecteur d’onde k une onde longitudinale de vitesse cl et deux ondes
transversales de vitesses égales à ct, avec : k   / cl et k   / ct pour les ondes longitudinales et
transversales respectivement.
Le modèle de Debye consiste à attribuer aux vibrations acoustiques des vitesses cl et ct constantes dans tout
le domaine de variation de k.. L’impulsion d’un phonon associé à une onde de vecteur k est p=hk et son
énergie є= cl p et є= ct p pour les ondes longitudinales et transversales respectivement. Ce résultat est
analogue à celui que l’on a pour les photons.
1°) En utilisant la densité d’états dans l’espace des impulsions, établir l’expression de la densité d’états
3 1 2
g(є)d є des phonons. On pourra introduire une vitesse moyenne c définie par : 3
 3 3
c cl ct
2°) Le nombre total d’états quantiques différents étant égale à 3N (nombre de degrés de libertés du système)
l’énergie єD d’un photon doit avoir dans ce modèle une borne supérieure єD. On introduit une température
caractéristique de Debye  D   D / k , où k désigne la constante de Boltzmann, Exprimer  D en fonction
de c ; représenter graphiquement g(є).
3°) Ecrire les expressions de l’énergie interne U et de l a capacité calorifique Cv.
4°) Etudier Cv aux basses températures et aux températures élevées et comparer les résultats ainsi obtenus
à ceux du modèle de d’Einstein. Représenter graphiquement la capacité calorifique molaire Cv en fonction
de T/  D .

73
INTEGRALES UTILES
 

 x e dx  x e dx
P  ax
IP  P  ax
2
JP 
2

0 

1  JP = 2 IP pour paire
I0  1
2 a I1 
2a


 P  1   P  1  P  ax 2 J P=0 pour P impaire
IP2  IP     x e dx
 2a   2a  0

1  I3 
1 
I2  2a 2 J0 
4a a a

3 
I4 
8a 2 a

74

Vous aimerez peut-être aussi