Académique Documents
Professionnel Documents
Culture Documents
°°°
Département de Physique
Eléments de Cours de
1
SYLLABUS
Domaine : Sciences et Technologie ST
Semestre : Mousson
Nombre de crédits : 04
Pré-requis : Pour suivre cet enseignement, vous devez avoir suivi les Unités d'Enseignement de la
Thermodynamique Classique et de l’Introduction à la Mécanique Quantique.
Enseignants :
1 Dr. Magolmèèna BANNA
Professeur Titulaire des Universités
Téléphone cellulaire :
E-mail : magbanna@yahoo.fr
Disponibilité :
Jours Heures
Lundi 15 h -17h
Mercredi 8 h-10 h
Description
L’Unité d’Enseignement « Physique Statistique » fournit aux étudiants de niveau licence des
fondamentaux de bases en thermodynamique statistique. Le but de la physique statistique est
d'étudier les lois particulières qui régissent le comportement des particules que composent les
corps physiques macroscopiques comprenant un très grand nombre de particules de l’ordre
de 1023, en relation avec les grandeurs observées à l’échelle humaine (macroscopique). Dans
ce cours, les concepts, définitions, principes et axiomes sont énoncés et les différentes
physiques statistiques classique et quantiques sont présentées et complétées par des
applications sur des systèmes physiques bien connus.
________________________________________________________
2
Objectifs de l’Unité d’Enseignement :
Objectif Général:
Objectifs Spécifiques
________________________________________________________________________
PROGRAMME :
______________________________________________________________________
BIBLIOGRAPHIE :
____________________________________________________________________________________
3
4
INTRODUCTION GENERALE
La matière est constituée de « particules » (atomes, molécules) et l’état dans lequel se trouvent ces
particules (position, vitesse) est responsable des phénomènes observés à l’échelle humaine. Par
exemple :
la notion de température est reliée à l’énergie cinétique, ou à la vitesse des particules : plus
leur vitesse moyenne est grande, plus le corps constitué par l’ensemble de ces particules
semble chaud.
De même la notion de densité ou de masse volumique est reliée à la distance moyenne des
particules entre elles, et la notion de pression à la quantité de mouvement que ces particules
peuvent transmettre à une surface quelconque.
Le but de la physique statistique est d’étudier le comportement des particules qui composent les
corps physiques comprenant un très grand nombre de particules de l’ordre de 1023.
L’étude de comportement des particules est qualifiée de microscopique ; c’est une donc une étude
théorique a contrario des grandeurs observées dites macroscopiques issues des résultats de
mesure.
Il est impossible, comme il sera montré plus loin, de calculer à chaque instant la position et la
vitesse de chacune des particules d’un corps physique. En revanche on peut calculer, par exemple,
le nombre de particules dans un volume donné à un instant donné, ou encore le nombre de
particules ayant une vitesse donnée : il s’agit donc bien d’une approche statistique, qui repose sur
l’étude des probabilités.
Pour ce cours, nous nous limiterons essentiellement à l’étude des systèmes en équilibre
thermodynamique. La raison est que la plupart des systèmes physiques (hormis biologiques..)
sont en équilibre thermodynamique ou tendent rapidement vers cet équilibre.
La statistique étudie les lois particulières régissant le comportement et les propriétés des corps
macroscopiques. Le caractère général de ces lois n’est pas essentiellement déterminé par un type de
mécanique : classique ou quantique décrivant le mouvement de chaque particule du système ou du
corps.
Néanmoins, dans les 2 cas, les raisonnements nécessaires pour démontrer ces lois sont différentes.
A première vue, on pourrait en conclure que lorsque le nombre de particules augmente, les
propriétés du système mécanique doivent devenir infiniment compliquées et enchevêtrées et qu’il
est impossible de trouver dans le comportement des corps macroscopiques toutes trace de lois.
Mais, il en est tout autrement ; il apparait des lois toutes particulières lorsque le nombre de
particules devient grand.
5
Depuis Euler, on sait qu’on peut expliquer les propriétés des gaz en les considérants comme formé
d’un nombre important de particules animées d’un mouvement parfaitement désordonné.
Récemment, les physiciens ont généralisé cette notion de gaz et l’on appliqué à des particules
comme les électrons ou les photons.
Pour étudier théoriquement de tels gaz, on utilise les calculs probabilistes pour bâtir ainsi la
mécanique statistique.
En fait, il existe plusieurs mécaniques statistiques qui se distinguent par les conventions faites pour
évaluer les probabilités. Citons :
Notons que la statistique de Gibbs élaborée au même moment que les autres modèles statistiques
par l’Américain S. W. Gibbs est une généralisation de l’ensemble de toutes les statistiques.
6
PRINCIPES FONDAMENTAUX DE LA PHYSIQUE
STATISTIQUE
La probabilité thermodynamique W d’un état macroscopique d’un système physique considéré est
le nombre d’états microscopiques différents (distincts) réalisant cet état macroscopique.
Selon les systèmes physiques, les états quantiques relatifs à une particule sont peu nombreux et bien
séparés en énergie (substance paramagnétique dans un champ magnétique) ou au contraire en
nombre infini, avec des différences d’énergie beaucoup trop petites pour pouvoir être mesurées (gaz
monoatomique). Nous rencontrons aussi des cas intermédiaires.
Pour traiter ces différends cas, introduisant un même langage pour les gaz résumé dans le tableau
suivant, dans lequel une cellule désigne un état quantique et un domaine d’extension fini i
regroupe un nombre gi d’états quantiques d’énergie voisine Ei.
N Nombre de cas favorables
La répartition macroscopique
choisie est caractérisée par les
nombres : N1………… Ni………..Nr W0
Domaine 1 Domaine i Domaine r
g1 gi gr Wi = W0 i Wi
7
Théorème des probabilités composées
On rappelle que :
Si un événement suppose à la fois réaliser 2 deux événement A et B, sa probabilité est le
produit de la probabilité de A multiplié de la probabilité de B : WAB = WA x WB
Tous les états microscopiques accessibles à un système isolé sont équiprobable (également
probables)
Si tous les états microscopique sont aussi probables les uns que les autres, il n’en est pas de même
des états macroscopiques qui sont alors d’autant plus probables qu’ils sont réalisés par un nombre
plus grand nombre d’états microscopiques. Le nombre W(N1…..Ni….Nr) d’états microscopique
réalisant un état macroscopique caractérisé par les nombres N1…..Ni….Nr est appelé probabilité
thermodynamique.
Dans un ensemble de N particules identiques, d’énergie totale U, chaque particule peut se trouver
dans l’un des niveaux d’énergie permis U1, U2,….Ui.
Définitions :
L’état microscopique du système est décrit par la connaissance, à chaque instant donné, des niveaux
d’énergie de chaque particule pris individuellement.
L’état microscopique non distincts est encore appelée complexions.
Les états microscopiques différents peuvent donc être réalisés par plusieurs complexions.
Par contre, l’état macroscopique du système est défini par la connaissance, pour chaque niveau
d’énergie Ui, du nombre Ni de particules possédant cette énergie, sans se soucier de quelle
particule il s’agit. Cette description est donc moins détaillées que la première (état microscopique).
Condition de normalisation
8
Exemple : Soient 3 particules a, b et c et 3 domaines 1, 2 et 3 . On suppose que la répartition
est réalisée pour une particule par domaine.
1 a b c a b c
2 b c a c a b
3 c a b b c a
On compte pour cette distribution :
Si les particules sont discernables, on compte 6 complexions et un (1), état
macroscopique (1,1,1)
Si les particules sont indiscernables (électrons par exemple), on a un seul état
microscopique correspondant au seul état macroscopique (1,1,1).
Nous avons donc dans le cas particules discernables, que l’état microscopique est réalisé par les 6
complexions (particules classique).
Pour des particules indiscernables, la notion de complexion perd son sens, une complexion efficace
est un état microscopique
Par suite de l’agitation thermique perpétuelle, les particules passent sans cesse d’un niveau
d’énergie à un autre et les états microscopiques possibles sont donc modifiés à chaque instant.
L’état macroscopique caractérisé par la présence de N particules dans N boites est donc réalisé à
l’aide de N! permutations ou complexions.
9
On peut donc caractériser l’agitation thermique par ce nombre W d’états microscopiques différents
(distincts).
Le postulat de base de la statistique élémentaire admet que tous les états d’équilibre d’un système
ont la même probabilité de se réaliser.
WAB =W= WA x WB
SAB =S=SA + SB
f(W)= f(WA) +f(WB)
Le système
WAB =W= WA x WB
f(W)= f(WA) +f(WB)
admet la solution : S = k Ln W
k est la constant de Boltzmann : k=R/NA =1.380662. 10-23 J/K
Travail à faire :
Exercice 1.1 :
Deux particules sont reparties sur deux niveaux d’énergie : Є1 (dégénérescence g2=1) et Є2 (g2=2).
1) Montrer sur un schéma les complexions et les états macroscopiques si ces particules sont supposées
discernables
2) Montrer sur un schéma les états les états microscopiques et les macroscopiques si ces particules sont
supposées indiscernables
3) Si ces particules sont des électrons, combien reste-il d’état microscopique ?
Exercice 1.2 :
Soient 3 niveaux d’énergie équidistants (:Є1= 0 , Є2= U : Є3=2U) non dégénérés sur les quels se
répartissent 2 particules discernables A et B. On suppose qu l’énergie totale est Є= 2U.
1) Représenter sur un schéma les différents états macroscopiques possibles et les complexions
correspondantes. Quel est l’état le plus probable ?
2) Vérifier que le nombre de complexions de chaque état macroscopique vérifie la relation de probabilité
W de Boltzmann.
3) Même questions mais avec le niveau 2 dégénéré 2 fois.
Expliquez pourquoi la dégénérescence est aussi appelée poids statistiques du niveau.
4) Pourquoi ne peut-on calculer la répartition la plus probable par la formule générale de Maxwell-
Boltzmann ?
10
V. Distribution statistiques
Pour formuler le problème fondamental de la statistique classique, nous devons avant tout introduire
la notion d’espace des phases.
Soit un système à s degrés de libertés la position de chaque point dans l’espace est caractérisée par s
coordonnées de position que nous désignons par qi, l’indice i=1,2,…. s. L’état de ce système à un
moment donné peut alors être déterminé par les valeurs simultanées des coordonnées qi et des s
vitesses correspondantes . En statistique, pour caractériser le système, on utilise habituellement
ses coordonnées qi et ses impulsions pi non pas ses vitesses ; ceci présentant un certain nombre
d’avantages. Mathématiquement, les divers états du système peuvent être représentés par des points
dans l’espace dit des phases (ce dernier étant une notion purement mathématique).
L’état de ce système’ est caractérisé par 6 paramètres : M(x,y,z) coordonnées de positions et V(Vx,
Vy, Vz) coordonnées de vitesses.
Dans l’espace des phases à 6 dimensions, le point M s’écrit : M(x , y, z, Px=mVx, Py=mVy,
Pz=mVz)
L’espace des phases est donc divisé en petits domaines délimité par :
x et x+dx ; y et y +dy ; z et z+dz ;
Px et Px + dPx ; Py et Py + dPy ; Pz et Pz + dPz
L’énergie d’une particule monoatomique est son énergie cinétique de translation : U=EC
Nous appellerons sous-système de ce corps entier, toutes parties relativement petites mais
macroscopiques. Ce système défini est un système mécanique non isolé soumis à l’interaction des
autres parties du système entier.
Par suite de l’enchevêtrement des actions exercées sur le sous-système par les autres parties du
corps, durant un laps de temps suffisamment long, un sous-système choisi passera un grand nombre
de fois par tous les états possibles.
Soit pq un élément de « volume » de l’espace des phases du sous-système correspondant aux
valeurs des coordonnées q et d’impulsion p se trouvant dans de petits intervalles q et p.
Lorsque pq devient infiniment petit, on peut introduire la notion de probabilité d des états
représentés par des points dans le volume. C’est la probabilité pour des coordonnées q et impulsion
p de prendre des valeurs se trouvant dans les intervalles infiniment petites q et p et q+dq , p+dp.
On écrit :
soit
11
est une fonction de tous les coordonnées et toutes les impulsion.
La fonction jouant le rôle de la « densité » de distribution des probabilités dans l’espace des
phases, s’appelle fonction de distribution statistique ou simplement fonction de distribution d’un
corps donné.
La fonction de distribution doit évidemment satisfaire à la « condition de normalisation ».
Les égalités posées expriment simplement le fait que la somme des probabilités des divers états
possibles doit être égale à l’unité.
Avec la fonction de distribution , on définir la valeur moyenne des grandeurs physiques sous
la forme :
et
E
x
Si un corps ou système macroscopique isolé se trouve dans un état tel que les grandeurs physiques
« macroscopiques » relatives à une de ses parties (qui est elle-même un corps macroscopique) sont
égales avec une précision relativement grande à leurs valeurs, on dit que le système se trouve en
équilibre statistique ainsi on parle d’équilibre thermodynamique.
12
VI. Indépendance statistique
Les sous systèmes étant des corps macroscopiques non isolé en interactions incessants entre
eux, si le temps de relaxation est suffisamment grand, ces sous-systèmes se comporteront comme
des corps isoles. On dit qu’ils sont quasi-isolés et le l’on considère que les interactions sont alors
faibles. Ce qui permet de considérer les sous sous-systèmes comme statiquement indépendants.
Considérons deux sous-systèmes quelconque A et B indépendants. L’indépendance
statistique conduit à écrire :
Alors : soit
On démontre en physique statistique (théorème de Liouville) que seuls des combinaisons des
variables p, q restant constantes lors de l’évolution (mouvement) du sous-système supposé isolé,
doivent enter la fonction de distribution. Ces quantités sont des invariants mécaniques ou des
intégrales premières de mouvements.
Par conséquent, on peut dire que la fonction de distribution qui est fonction des invariants
mécaniques est elle-même une intégrale première. On peut réduire considérablement le nombre des
intégrales 1ères dont peut dépendre la fonction de distribution.
Le logarithme de la fonction de distribution doit être non seulement une intégrale première mais
aussi une intégrale première additive.
En mécanique, il existe 7 intégrales premières additives indépendantes L’énergie, les trois (3)
composantes de vecteur vitesse et les trois (3) composante de vecteur moment que nous désignerons
respectivement par : E(p,q), P(p,q) MΔ(p,q).
L’unique combinaison linéaire additive de ces grandeurs est la combinaison linéaire de la forme :
Les coefficients α, β, γ et δ sont des constantes ; de plus ces coefficients doivent être les mêmes
pour tous les sous-systèmes d’un système isolé. En particulier α est simplement une constante de
normalisation déterminée par la relation : .
Les 7 autres constantes β, γ et δ sont indépendantes et peuvent être déterminées par 7 valeurs
constantes des intégrales premières additives du système isolé en entier.
En conclusion, en statistique, les valeurs des intégrales premières additives : Energie, Impulsion et
Moment déterminent complètement les propriétés statistiques d’un système isolé. C’est-à-dire la
distribution statistique de tous les sous-systèmes et par la suite la valeur moyenne de toutes les
grandeurs physiques.
Ces 7 intégrales premières additives remplacent les innombrables données (conditions initiales)
requise pour une description mécanique.
Comme les valeurs des intégrales premières non additives n’influent pas sur les propriétés du
système, on peut se servir, pour les décrire, d’une fonction quelconque ne dépendant que des
13
valeurs des intégrales premières additives du système et satisfaisant au théorème de Liouville en
tout point de l’espace des phases.
La plus simple de ces fonction est pour tout point de l’espace des phases correspondant
aux constantes d’énergie (E0), d’impulsion (P0) et de moment (MΔ0) donnés su système. Et
pour tous les autres points.
Ainsi, pour que l’intégrale : soit définie en ces points, la fonction de distribution d’u
système isolé doit être écrite de la manière suivante :
L’impulsion et le moment d’un système isolé sont liés à son mouvement de translation et de
rotation uniforme. C’est pourquoi, on peut dire que l’état statistique d’un système effectuant un
mouvement donné ne dépend que de son énergie ; Ainsi, en statistique, l’énergie joue un rôle
prépondérant.
et
Nous avons toujours supposé que tout le système isolé se trouve en état d’équilibre
statistique. En d’autres termes, nous l’avons considéré durant des intervalles de temps supérieurs au
temps de relaxation (Il faut noter que Le temps de relaxation augment avec les dimensions d’un
système). Les petites parties du système arrivent séparément à l’état d’équilibre bien avant que soit
établi l’équilibre entres les divers petites parties. Ce qui veut dire que chaque petite partie du
système est décrite par sa propre fonction de distribution , mais les valeurs β, γ et δ définies plus
haut sont différentes pour chaque petite partie. On dit alors que le système se trouve en équilibre
incomplet. L’équilibre incomplet se transforme peu à peu en équilibre complet.
Le nombre d’états quantiques qui nous intéresse, dont les énergies se trouvent entre E et E+dE,
est :
Et on obtient :
où
E
représente le nombre d’états quantiques
correspondant à l’intervalle des valeurs de l’énergie.
Les définitions données peuvent être facilement rapportées à la statistique classique, mais la
fonction
doit être remplacée par la fonction classique de distribution ; au lieu de on parlera
de de volume du domaine des phases déterminé par la relation :
est l’élément de volume de l’espace des phases tout comme qui caractérise les dimensions du
domaine de l’espace des phases où ledit sous-système se trouve la majeure partie du temps.
15
On peut établir le lien qui lie et lors du passage à la limite de la théorie classique à la théorie
quantique.
On sait que, dans le cas quasi-classique, qui est voisin de la mécanique classique, on peut établir une
correspondance déterminée entre le volume d’un domaine quelconque de l’espace des phases et le nombre
d’états quantique qui lui « correspondent » ; on peut dire qu’à chaque état quantique « correspond » une
« cellule » dans l’espace des phases dont le volume est :
( s degré de liberté)
Remarques :
L’entropie ainsi définie est sans unité tout comme le poids statistique ; et comme n’est
jamais inférieur à 1 ; ainsi, l’entropie n’est jamais négative.
et en utilisant la relation ,
on écrit :
Si on a un système isolé en entier et soit les poids statistiques , ……. de ces divers
sous-systèmes. Si chacun des sous sous-systèmes se trouve dans l’un des états quantiques , il est
évident que le système entier aura : états.
L’entropie définie par l’expression : est sans unité comme le poids statistique.
16
Tout comme le poids statistique, la température est une grandeur a un caractère purement statistique
et n’a de sens pour les corps macroscopiques. La température absolue ou température tout
simplement T est définie par la relation :
L’entropie S est une grandeur sans dimension ; de la relation ci-dessus, il ressort que la température
a la dimension de l’énergie et exprimée en ergs. Mais l’unité ergs est trop grande et pratiquement on
mesure la température en unité particulières appelé Kelvin ou degré tout simplement.
Le passage l’erg aux degrés s’effectue à l’aide de la constante de Boltzmann.
k =1,38.1016 erg/degré
1 eV =11606 degrés
17
DISTRIBUTIONS DE GIBBS
I. Distribution canonique
La fonction de distribution d’un corps macroscopique quelconque considéré comme une petite
partie d’un grand système isolé est d’une façon générale définie en utilisant des distributions
microcanoniques pour tout le système.
Soit E0 l’énergie interne du système isolé. Cette énergie est théoriquement bien déterminée. Mais en
fait, un système n’est jamais parfaitement isolé et son énergie sera déterminée avec une incertitude
δE0.
Cette description, quoique simple est difficile à manier. On lui préfère dans la pratique celle de
l’ensemble canonique qui donne les mêmes résultats physiques dans tous les cas où les fluctuations
peuvent être négligées.
Ensemble canonique
Considérons dans un système isolé un corps et supposons ce système composé d’une part du corps
en question et d’autre part, de tout le domaine restant, que nous appellerons « milieu » par rapport à
ce corps.
E E0
E’
Calculons la probabilité d’un état de tout le système pour lequel le corps considéré se
trouve dans un certain état quantique donné d’énergie E.
L’état microscopique du milieu nous intéresse peu, nous allons donc supposer que le milieu se
trouve dans un certain état décrit d’une manière macroscopique du milieu. Soit ΔE’ l’intervalle des
valeurs de l’énergie du milieu correspondant à Δ celle de l’état quantique.
Le système décrit peut être considéré comme un corps plongé dans un bain thermostatique ou en
contact avec un thermostat dont la température est T. Sa température est bien définie mais son
énergie fluctue autour d’une valeur moyenne du fait de l’échange constant d’énergie entre
le milieu et le corps.
18
Si les fluctuations peuvent être négligées, on peut dire que l’énergie du corps est . Pour
décrire un tel système, on peut imaginer un ensemble formé d’un grand nombre de systèmes
analogues à celui considéré et en contact thermique. L’interaction entre les systèmes de l’ensemble
doit être considéré comme faible pour pouvoir être négligé mais néanmoins suffisant pour permettre
l’établissement de l’équilibre thermique entre divers systèmes.
On peut traiter aussi l’ensemble canonique comme une assemblée de molécules géantes
(chaque molécule représentant un système de l’intervalle) obéissant à la statistique de Maxwell-
Boltzmann (sans interactions, particules discernables).
Soit le nombre total d’états quantiques du milieu dont l’énergie est inférieure ou égale à
E’.
or
où : est l’entropie du milieu en fonction de son énergie E’.
ΔE’ est aussi fonction de E’.
Ainsi :
Or :
Alors :
En tenant compte du fait que ce corps est petit, son énergie E est également petite par rapport à E0.
La grandeur ΔE’ varie relativement peu lors de variation peu importante de E’. Ainsi, on peut poser
simplement E’=E0 une constante indépendante de E.
Il faut développer S’(E0-E) suivant les puissances de E.
En conservant le terme linéaire, on obtient :
(pour E petit)
0r :
T est la température du système (corps et milieu en équilibre)
Finalement, nous obtenons l’expression suivante :
avec T en ergs et S sans unité
avec T en Kelvins et S en J/K
C’est la distribution de Gibbs ou distribution Canonique.
La constante de normalisation A ne dépend pas de E. Elle est déterminée en posant :
soit :
19
I.3 Fonction de partition ou somme statistique :
La fonction de partition et la grande fonction de partition que nous poserons plus loin sont parmi les
fonctions les plus importantes de la mécanique statistique. A partir d’elles, toutes les propriétés
thermodynamique d’un système peuvent, en principe, être calculées.
La valeur moyenne d’une grandeur physique f peut être calculée à l’aide de la distribution de
Gibbs.
La distribution de Gibbs appliquée au sous-système peut également être appliquée avec succès pour
la détermination des propriétés statistiques essentielles des corps isolés. Les propriétés du corps
telles que les grandeurs thermodynamiques ou la distribution des probabilités des coordonnées et
des vitesses des particules, restent inchangées que le corps soit isolé ou plongé dans un thermostat
imaginaire. La différence n’apparait en réalité lorsqu’on étudie la question relativement importante
des fluctuations de l’énergie totale au cours du temps.
Considérons les systèmes pour lesquels le nombre de particules N considéré n’est plus fixe comme
pour les systèmes fermés. C’est le cas pour les systèmes ouverts pour lesquels le nombre de
particules N varie. Cette nouvelle considération permet de traiter un grand nombre de systèmes
physiques ou chimiques. On peut alors parler de fluctuions du nombre de particules autour d’une
valeur moyenne .
20
Compte tenu de la relation précédente, on peut écrire :
( N et E petits )
Car : et
Où : est le potentiel chimique du corps et celui du milieu coïncidant par suite des conditions
d’équilibre.
Ainsi, nous obtenons l’expression suivante pour la fonction de distribution grand canonique :
T en Kelvins
On obtient : ,
où :
Entropie S
On sait que or et
alors : T en ergs ou T en Kelvins
T en ergs
T en Kelvin
21
II. Distribution des vitesses de Maxwell
L’énergie totale E(p,q) d’une particule est la somme de l’énergie cinétique et de l’énergie
potentielle. La première est une forme quadratique des impulsions des atomes. La seconde est une
fonction des coordonnées de position, la forme de cette dernière dépendant de la loi d’interactions
des particules à l’intérieur du corps.
Pour déterminer les constantes a et b, il faut savoir que la somme des probabilités de toutes les
valeurs possibles des impulsions (de même pour les coordonnées de position) doit être égale à
l’unité.
Ainsi, chacune des probabilités et doit être normalisée, c’est-à-dire que les intégrales
prises sur toute les valeurs possibles des impulsions et des coordonnées de position du corps
considéré doivent être égale à l’unité.
Etudions la distribution des probabilités des impulsions ou vitesse. Cette distribution sera valable
pour tous les corps puisque en statistique classique, une telle distribution ne dépend nullement du
type d’interactions des particules à l’intérieur du système ou du type de champ extérieur.
L’énergie cinétique de tout le corps est égale à la somme des énergies cinétiques de tous les atomes
du corps et la probabilité se trouve de nouveau être un produit dont chacun des facteurs ne dépend
que des impulsions d’un seul des atomes. Ceci veut dire de nouveau que les probabilités des
impulsions des divers atomes sont indépendantes les unes des autres, c’est-à-dire que l’impulsion
de l’un d’entre eux n’influe en aucune sorte sur la probabilité des autres impulsions.
Ainsi, on peut écrire la distribution des probabilités des impulsions de chaque atome séparément.
On rappelle que :
22
Ainsi, conduit à écrire en coordonnées cartésiennes :
=1 soit
et finalement on obtient :
Ce qui permet d’écrire :
En passant des impulsions aux vitesses ( ), on peut écrire une distribution analogue pour les
vitesses.
C’est la distribution des vitesses pour que la vitesse des particules ait ses vitesses comprises entre
Vx et Vx+dVx, Vy et Vy+dVy et Vz et Vz+dVz.
Remarquons que cette distribution se trouve de nouveau être le produit de 3 termes indépendants :
C’est la distribution des vitesses pour que la composante Vx de la vitesse soit comprise entre Vx et
Vx+dVx.
C’est la distribution des vitesses pour que la composante Vy de la vitesse soit comprise entre Vy et
Vy+dVy.
C’est la distribution des vitesses pour que le composantes Vz de la vitesse soit comprise entre Vz et
Vz+dVz.
Ces expressions représentent la distribution des probabilités de l’une des composantes de la vitesse.
Si nous exprimons les relations ci-dessous en coordonnées sphériques,
V+dV
On obtient :
L’intégrant sur les angles, on trouve la distribution des probabilités pour la valeur absolue de la
vitesse :
C’est la distribution des vitesses pour que la particule ait une vitesse comprise entre V et V+dV.
Cette relation traduit la loi de répartition des vitesses de Maxwell.
23
V
Vpcylindriques conduit à écrire :
Une représentation en coordonnées
Avec : et
Par définition des valeurs moyennes, on écrit pour la composante cartésienne vx de la vitesse, la
moyenne quadratique :
24
Travail à faire :
Exercice 2.1 : Soit un gaz parfait monoatomique à N particules constituant un système isolé à
la température T. On admettra que le système est quantifié dans un volume V fixé.
a) En utilisant le théorème de l’équipartition de l’énergie, calculer son énergie interne U.
b) Définir la température absolue thermodynamique en fonction de la l’entropie statistique
c) Montrer que l’entropie statistique n’est fonction que U et de N, Conclure.
d) En déduire le nombre d’états microscopiques pour U fixé
Exercice 2.3 : L’entropie d’un système idéal paramagnétique placé dans un champ magnétique
est donnée approximativement par la relation : S=S0 – C.U2
Où U est l’énergie du système de Spin et C une constante fonction des paramètres mécaniques
constants du système.
1. Déterminer l’énergie U du système de Spin en fonction de la température T.
2. Représenter la fonction U=U(T) pour toutes les valeurs de T (- < T < ).
3. Expliquer brièvement le sens physique de la partie du résultat dans la zone de
température négative.
Exercice 2.4 : Considérons un système de N particules sans interactions (N >>1) pour lequel l’énergie de
chaque particule peut prendre seulement deux valeurs distinctes, 0 et E (E >0). Notons par N0 et N1 le
nombre d’occupation des niveaux d’énergie 0 et E, respectivement. L’énergie totale fixée du système est
U.
1. Calculer l’entropie du système
2. Calculer la température du système en fonction de l’énergie total U. Pour quel domaine de valeur
de N0 la température est négative (T < 0 ) ?
25
STATISTIQUE DE MAXWELL-BOLTZMANN :
Etude des gaz parfaits
I. Introduction
Un gaz parfait est par définition, un gaz composé d’atomes ou de molécules qui ont une interaction
mutuelle négligeable. Chaque particule d’un gaz parfait n’aura donc comme énergie que son énergie
cinétique. Négliger les interactions entre les particules d’un gaz est bien sûr une approximation qui
n’est vraiment valable que dans le cas d’un gaz raréfié. L’étude des gaz parfaits est très importante
parce qu’elle sert de point de départ pour l’étude des gaz réels.
Considérons un gaz composé de particules identiques ou un gaz composé de plusieurs substances
chacune étant composée de particules identiques.
Parmi les particules identiques, il faudra distinguer entre particules discernables (particules décrite
par la mécanique classique) et les particules indiscernables (particules décrites par la mécanique
quantique). Encore, faudra- t-il distinguer parmi les particules indiscernables, les Bosons et les
Fermions.
opérateur Hamiltonien
Les nombres 1,2…N représentent l’ensemble des propriétés qui caractérisent les particules
numérotées de 1 à N. C’est bien sur un numérotage artificiel puisque les particules sont supposées
indiscernables.
Pour éliminer toute trace de numérotation, on introduit un opérateur permutation P qui
permute un sous-groupe arbitraire des N particules. En tout, il y a N! permutations possibles.
Puisque les particules sont indiscernables, l’hamiltonien est invariant pour toutes permutions et P
commute avec .
P = P
On écrit :
P =
P =
26
Cette somme s’étend sur les N! permutations possibles des N particules. L’autre catégorie de
particules est décrite par une fonction d’onde totalement antisymétrique.
Un système de particules identiques décrit par une fonction d’onde totalement symétrique
s’appelle un système de Bosons ; un tel système obéit aux statistiques de Bose-Einstein ;
Un résultat très important de la théorie relativiste des champs montre que toutes les particules de
spin entier sont des bosons, et toutes les particules de spin demi-entier sont des fermions ;
Ainsi, les noyaux d’hélium, les photons, les mésons π sont des bosons tandis que les électrons, les
protons, les neutrons sont des fermions.
Peut être décrite d’une manière plus suggestive. Car toute fonction d’onde peut être
écrite sous forme d’un produit des fonctions caractéristiques de d’une seule particule,
correspondant aux états énergétiques i, j…..r de la particule.
A partir de cette relation, on peut écrire la fonction d’onde totalement antisymétrique sous la
forme de déterminant.
est bien antisymétrique car une permutation de deux (2) particules arbitraires équivaut à une
permutation de colonne du déterminant, entrainant un changement de signe. Il est aussi facile de
constater que si 2 particules se trouvent dans un même état (par exemple si ), le déterminant
sera nul. Autrement dit, si un système de particules est décrit par une fonction d’onde totalement
antisymétrique, aucune paire de ces particules ne peut-être dans le même état, c’est-à-dire .
27
En mécanique classique, les particules sont discernables ; c’est-à-dire qu’elles peuvent être
numérotées et une permutation de cette numérotation conduit à un état microscopique distinct.
Ainsi, la permutation de deux trajectoires dans l’espace des phases conduit à une configuration
distincte.
Hypothèse :
L’énergie des particules individuelles est une forme quadratique des coordonnées de l’espace des
phases.
représentant les coordonnées ou leur dérivées par rapport au temps. On peut démontrer que c’est
toujours vrai pour l’énergie cinétique. Cela est très souvent vrai pour l’énergie potentielle.
Exemples :
Molécule monoatomique (3 degrés de libertés) :
Energie cinétique d’une molécule biatomique indéformable (5 degrés de libertés) :
Ainsi, l’hamiltonien d’un système est une fonction quadratique des impulsions et des
coordonnées :
Pour un solide de N atomes reliés par des forces élastiques, l’hamiltonien pour chaque atome
s’écrit :
(soit 6 degrés de libertés)
N.B.
Par définition le nombre de termes de l’énergie est ce qu’on appelle le nombre de dégré de liberté
d’un système.
L’énergie moyenne E correspond au terme particulier se calcule comme suit :
car :
or alors
28
Le même résultat est obtenu pour le terme particulier . Autrement dit, à chaque terme de
l’hamiltonien quadratique en une impulsion ou en une coordonnée correspond une énergie ( ).
Ce résultat est connu sous le nom de Théorème de l’équipartition de l’énergie pour un ensemble de
particules classiques.
Alors : et
Alors : et
et
29
IV. Distribution ou statistique de Boltzmann
Boltzmann reprend les hypothèses essentielles de la théorie cinétique des gaz et le développe en
apportant des considérations beaucoup plus générales ayant pour base la notion de probabilité d’un
état formé d’un nombre de particules distribuées au hasard.
On considère :
un ensemble de particules en très grand nombre animées toutes de mouvements incessants
rapides,
les particules sont supposées identiques et discernables (numérotables) et repérables en
vitesses et en position avec une précision infinie (en opposition d » la mécanique quantique),
ensemble de particules monoatomiques ponctuelles ou plus généralement un gaz où
l’énergie est due à l’énergie cinétique de translation (l’énergie potentielle d’interaction entre
les particules est négligée).
Par suite de l’agitation thermique perpétuelle, les particules d’un ensemble de N particules passent
sans cesse d’un niveau d’énergie à un autre et les états microscopiques possibles sont donc modifiés
à chaque instant.
Si ces particules sont à repartir (à distribuer) entre des cellules de l’espace des phases, une
hypothèse fondamentale de Boltzmann consiste a admettre que toutes les complexions sont
également probables ou équiprobables (postulats de base de la statistique élémentaire). La
probabilité W d’un état macroscopique se mesure par le nombre de complexions distinctes (états
microscopiques) qui permettent de les réaliser.
Considérons les N particules comme des billes discernables donc numérotables à placer dans N
boites vides.
Pour la première particule, nous avons N possibilités, il reste donc N-1 boites vides
La seconde particule se mettra dans une des N-1 boites restantes, soit N(N-1) possibilités
pour l’ensemble des deux premières particules.
…………………..
La Nième se mettra dans la dernière boite restante. Et pour l’ensemble des N particules, il
ya N(N-1)(N-2)(N-3) ……1. possibilités.
L’état macroscopique caractérisé par la présence de N particules dans N boites est donc réalisé à
l’aide de N! Permutations ou complexions.
Mais, si on permute 2 particules de 2 boites différentes d’un même domaine on n’obtient pas de
répartition différente puisque les valeurs Ni et Ei restent inchangées (l’état énergétique du domaine
n’est pas modifié). Ainsi les N1! états obtenus en permutant les N1 particules ayant la même énergie
E1 sont identiques ; de même les N2! …….etc….. Il faut donc les extraire en divisant les N!
permutations par le nombre de permutions « inefficaces » : N1! N2!……..Ni! =
30
D’où :
Boltzmann admet que l’état qui correspond à l’équilibre statistique est celui dont la probabilité est
maximale.
Or : et
Bien que les domaines de l’espace des phases soient considérés comme petits. Ils sont supposés
suffisamment grands pour contenir un grand nombre de particules.
or
et
car
Les ne sont pas indépendants ; ils doivent vérifier aussi les relations :
et
Ce qui conduit au système suivant :
Alors : et
31
En posant , on obtient :
Détermination de la constante α
et
où :
est appelée fonction de partition ou somme d’état du système
Détermination de la constante
à V=Cte
or et
alors :
Transformons la somme en une intégrale dans l’espace des phases à 6 dimensions ( s=6) par
exemple.
En coordonnées cartésiennes l’hypervolume volume élémentaire dans l’espace des phases s’écrit :
Un très petit élément d’extension beaucoup plus petit qu’une cellule contiendra tantôt 0, tantôt 1,
particule au gré du hasard des fluctuations. La densité dans l’espace des phases :
32
est une fonction du temps et varie de façon discontinue et régulière à cause des fluctuations. Mais
si on introduit la densité moyenne, on peut considérer et comme des grandeurs moyennes
susceptibles de variations continues. On peut alors écrire l’identité :
( domaine)
qui défini la densité moyenne locale dans l’espace des phases. Comme à l’état d’équilibre
statistique
alors
or le nombre total de particules est l’intégrale est étendue à tout l’espace des phases.
Cette transformation permet de passer d’un milieu discret (mécanique quantique) à un milieu
continu (mécanique classique où le domaine d’extension reste indéterminé).
avec
or
33
Calcul de la somme d’état d’un ensemble de N particules parfaits
Or : alors :
34
Distribution des particules dans l’espace des vitesses
La probabilité pour qu’une particule ait ses composantes de vitesses comprise entre vx et
vx+dvx vy et vy+dvz et vz et vz+dvz est :
Nous avons jusqu’à présent considéré que l’énergie d’une particule était uniquement due à
son énergie cinétique de translation, c’est-à-dire uniquement fonction des impulsions. Pour un
ensemble de particules parfaits dans un champ de pesanteur parallèle à l’axe oz ; l’énergie totale
est fonction de l’ensemble des coordonnées de position et des impulsions :
Dans ce cas, une particule située dans une cellule de coordonnées z a pour énergie potentiel
mgz. Ainsi, l’énergie totale s’écrit :
z
Or
35
Et la probabilité de trouver une particule dans l’intervalle z et z+dz est :
Si z0 =0 alors :
En théorie cinétique des gaz, on montre que la pression est proportionnelle au nombre de particules
par unité de volume ; ainsi la variation de la pression en fonction de l’altitude z et obéit donc à une
loi de la forme :
pour
C’est la relation traduisant le dénivellement barométrique. Cette loi a été vérifiée par Jean Perrin
en 1909 dans le cas d’une suspension de fines particules.
On sait que :
avec et
Or : et alors :
Or et donc
36
De sorte que
, on obtient :
et
On sait que : et
or alors : soit
Pour les gaz monoatomiques, seule l’énergie cinétique de translation a été considérée pour évaluer
la somme statistique. Mais, on sait que le niveau d’énergie d’une molécule diatomique se compose,
dans une certaine approximation, de trois parties indépendantes de :
l’énergie électronique (elle inclue l’énergie d’interactions coulombiennes des noyaux dans
leur position d’équilibre comptée à partir de la somme des énergies des atomes isolés)
l’énergie de rotation,
l’énergie d’oscillation des noyaux à l’intérieur de la molécule.
37
n : le nombre quantique oscillatoire
J : le nombre quantique de rotation (moment de rotation de la molécule ….spin)
: le moment d’inertie de la molécule
: la masse réduite des atomes
: distance entre les noyaux à l’équilibre
En prenant en compte toutes les différentes formes d’énergie, la somme statistique s’écrit :
où :
soit
Signalons que si dans un système, à part ces modes de mouvements, on y trouve un mouvement de
translation, il faut ajouter le terme :
Il faut s’avoir qu’en général, la fonction de partition se décompose en différentes fonctions de
partitions indépendantes relatives à chaque type d’énergie dans le système :
Pour un système de particules classiques, l’entropie du système est exprimée sous la forme :
soit
38
Ce résultat est obtenu pour un système de particules obéissant à la mécanique classique. Il
contient évidemment un terme arbitraire qui dépend du volume arbitraire
fonction des coordonnées de l’espace des phases.
A cela, il faut ajouter que la fonction S obtenue ne présente pas la propriété d’additivité que
doit posséder une variable extensive.
Le terme supplémentaire dans le dernier cas est appelé entropie de mélange qui ne peut s’expliquer
que si l’on mélange deux échantillons gazeux de natures différentes. Ce qui ne doit pas exister pour
des échantillons gazeux identiques.
S S
N N
A B
Soient W1 et W2 le nombre de complexions du premier (A) et du second échantillon (B)
respectivement :
Sans mélange, on a : W = W1 . W2
Si on mélange les deux échantillons, on obtient : W = W1 . W2. W*
Alors :
Conclusion.
39
Une hypothèse de base de la statistique classique, la « dicernabilité des particules » qui ne répond
pas à une réalité physique et qui conduit à des difficultés graves doit être abandonnée. Il en résultera
donc une sorte de généralisation de la statistique classique et une introduction discrète vers les
statistiques quantiques.
Position du problème
Pour établir un décompte statistique des particules dans l’espace des phases, Boltzmann a divisé ce
espace en hypervolumes, appelés domaines. Ces éléments d’extension finis jouent un double
rôle :
C’est la grandeur des domaines qui permet de définir ce qu’on a appelé l’état
macroscopique noté (N1,….Nr).
C’est également à partir des domaines que nous avons défini la notion de complexion qui
suppose les particules numérotables.
Une permutation de deux particules entre deux domaines différents crée une nouvelle complexion
différente ; alors qu’une permutation de deux particules à l’intérieur d’un même domaine ne change
pas le nombre de complexions (l’état énergétique n’est pas modifié). Cela veut dire que lorsque
plusieurs particules se trouvent à l’intérieur d’un même domaine, nous admettons que leur
coordonnées dans l’espace des phases sont physiquement indiscernables et peuvent être confondues.
Ainsi, des considérations physiques et la facilité de passage vers les statistiques quantiques
justifient l’abandon de la grosse structure .
D’après ce qui précède, les cellules sont donc des régions de l’espace des phases à l’intérieur
desquelles, les coordonnées des cellules sont physiquement indiscernables. La grandeur des
cellules est donc liée à la précision avec laquelle on peut mesurer les coordonnées de positions et
de vitesse d’une particule.
En mécanique classique, il n’existe en principe aucune limitation à cette précision. En fait, cette
précision est tellement grande que dans le cas d’un gaz, dans les conditions normales, les cellules
sont tellement petites qu’elles ne contiendront 0 particule et temps en temps et une (1) au hasard des
fluctuations.
Si dans ces conditions, on se propose d’attribuer aux cellules la propriété qui définit l’état
macroscopique et si on évalue la probabilité de cet état par la relation : , on rencontre
des difficultés considérables.
En effet, les représentent le nombre de particules par cellule or comme ce nombre est égale à 0
ou 1 ; leur factoriel est toujours égale à 1 et , valeur constante indépendante de l’état
macroscopique. Ainsi, , conduit à , indépendante des variables macroscopiques.
Ce qui n’a aucun sens.
Conclusion :
40
le nombre de cellules par domaine est
Soit le nombre moyen de particules dans une cellule de domaine ,
est en général petit, mais sera suffisamment grand pour que et soient grand.
Pour évaluer le nombre de complexions différentes (états microscopiques), il faut tenir compte de la
double structure :
Pour les deux premières particules, il y a possibilité différentes de se placer. Ainsi pour
l’ensemble de Ni particules, on a :
Un tel choix existe pour chaque domaine et le nombre total de possibilités de répartition à l’intérieur
de tous les domaines est :
Le nombre total d’états microspiques peut se réaliser à la fois grâce à l’échange intermédiaire Wa et
grâce à l’échange extra domaine Wb , soit : W=Wa.Wb
W est maximal si
Il faut associer les quantités : et
Ce qui conduit au système suivant :
41
alors :
Ce résultat détermine le nombre moyen de particules par cellule du ième domaine d’énergie Ei.
et
or : et alors :
Le choix des dimensions est toujours arbitraire, mais la grandeur (extension des cellules) joue un
rôle essentiel. Cette grandeur reste indéterminée en mécanique classique. En mécanique quantique
est défini par rapport à la constante de Planck.
42
VI.5 : Calcul de facteur de dégénérescence ou poids statistique des niveaux d’énergie de
translation très rapprochées.
Pour des niveaux d’énergie rapprochés, on peut supposer une variation continue d’énergie pour le
système. Ainsi, au lieu de parler de nombre de places (cellules) pour les particules, on parle de
g( E)dE nombre d’état entre deux niveaux d’énergie E et E +dE ou densité d’état.
C’est le nombre de places offertes aux particules entre le domaine d’énergie E et .E +dE.
La fonction g( E) est appelée fonction densité d’état.
A chaque état d’énergie est associée une fonction d’onde correspondant aussi à une cellule de
l’espace des phases distribuées entre E et E +dE.
Le volume élémentaire dans l’espace des phases étant : , le nombre de cellules dans le
volume élémentaire est : ; soit :
Ce nombre est indépendant de la nature de la particule, mais dépend que de la forme de l’énergie.
car et
trois dimensions :
alors :
deux dimensions
alors : et
une dimension :
alors : et
43
Exercices d’application
Exercice 3.1 :
Soit un système de deux atomes, chacun des atomes possèdent trois niveaux d’énergie 0, Є et 2 Є.
Le système est en contact avec un réservoir à la température T. Ecrire la fonction de partition z pour le
système si les particules obéissent :
a) à la statistique classique et sont discernables
b) à la statistique de Bose –Einstein
c) à la statistique de Fermi Dirac
Exercice 3.2 :
On considère N particules discernables sans interaction, placées sur deux niveaux d’énergie.
1) Montrer que la population des deux niveaux est déterminée complètement en fonction de l’énergie totale
E et du nombre de particule N. Montrer qu’il en est de même de l’entropie.
2) Pour introduire la température on utilisera une relation de thermodynamique macroscopique exprimant
T en fonction d’une dérivée partielle de E par rapport à S. Calculer E en fonction de T et en déduire les
populations de deux niveaux en fonction de T. Le résultat obtenu est-il conforme à la formule de
Maxwell-Boltzmann ?
Exercice 3.3 :
On se propose d’établir l’expression de β dans la statistique de Maxwell-Boltzmann. Soit Ei les niveau
d’énergie et Ni le nombre de particules sur le niveau i à l’équilibre.
a) Ecrire l’expression statistique de l’énergie totale U.
b) On fait varier de façon infinitésimale l’état du système. Ecrire la variation de l’énergie
c) Les niveaux d’énergie Ei de translation en général du volume mais non la température. Interpréter les
deux termes qui interviennent dans l’expression de dU.
d) On rappelle que dQ=TdS, établir l’expression de β en fonction de la température thermodynamique dans
le cas de la statistique de Maxwell-Boltzmann.
Exercice 3.4 :
On considère un système composé d’un grand nombre de molécules N. Chacune des molécules possèdent
deux niveaux d’énergie Є1 et Є2 (Є1 < Є2) de même poids statistique g=1. On posera Є= Є 2 - Є1
Ce système obéît à la statistique de Maxwell-Boltzmann et est en équilibre avec un thermostat à la
température thermodynamique T.
1) Ecrire les expressions des nombres N1 et N2 de molécules ayant respectivement les énergies Є 1 et Є2
.
En déduire les probabilités p1 et p2 pour une molécule d’être respectivement sur les niveaux Є 1 et Є2
2) Calculer N1 - N2
3) Définir une température caractéristique θ du système
4) Quelle sont les limites de N1 et N2, N1-N2 dans les deux cas suivants : a) T << θ ; b) T >> θ.
Retrouver les résultats précédents par des arguments physiques simples.
5) Etablir l’expression de l’énergie interne U du système considéré. En déduire la capacité calorifique
du système Cv.
6) Tracer la courbe représentative de U et Cv en fonction de T/ θ.
Exercice 3.5 :
On introduit N molécules dans un cylindre de révolution de rayon R et de hauteur H. On fait tourner ce
cylindre autour de son axe à la vitesse angulaire constante ω. En régime permanente et du fait des chocs
moléculaires, on admettra qu’une molécule située à une distance r de l’axe de rotation a une accélération
normale égale à ω2r, dans un repère lié au laboratoire. On supposera la température uniforme et égale à T.
1) Donner l’expression de la fonction de partition Z relatif à une molécule du gaz en fonction de β et Δ.
2) Calculer la fonction de partition Z en fonction de T, k, R et Δ.
3) Calculer n(r) la densité de particules par unité de volume et la pression P=P(r) dans le gaz considéré
parfait. Mettre l’expression de P sous la forme de P=P0f(r) où P0=P(0), pression à r=0 que l’on
spécifiera.
44
Exercice 3.6 :
On considère un gaz formé de N particules monoatomiques, de masse m, en équilibre thermique dans une
enceinte où
La température est T. ces particules suivent la statistique de Maxwell-Boltzmann ; leur seule énergie est
l’énergie cinétique de translation.
1) Rappeler l’expression de la fonction de partition de ce gaz ainsi que l’expression du nombre de
particules ayant Ei à l’équilibre thermique, si le niveau Ei est gi dégénéré.
2) En fait, les niveaux de translation sont très approchés mais non dégénérés. On introduit la densité
d’états g(p)dp en groupant les niveaux dont l’impulsion est comprise entre p et p+dp ? En déduire le
nombre dNv de particules dont le module de la vitesse est compris entre v et v+dv
3) Quelle est l’expression de F(v)dv, probabilité pour qu’une particule ait le module de sa vitesse compris
entre v et v+dv. Représenter graphiquement F(v). Calculer la vitesse la plus probable v*
4) Quel est le nombre dNV,Ω de particules dont le module de la vitesse est compris entre v et v+dv, et dont
la direction pointe dans l’angle solide d Ω ?
5) On désigne par dNE le nombre de particules dont l(énergie est compris entre E et E+dE, quelle est
l’expression de dNE = f(E)dE. Représenter graphiquement f(E) et calculer l’énergie la plus probable.
Exercice 3.7 :
Le mouvement suivant un axe d’un atome ou d’un ion appartenant à un solide peut, en première
approximation, être assimilé au mouvement d’un oscillateur harmonique suivant cet axe. L’énergie de
vibration de l’atome ou de l’ion est quantifiée et peut prendre une des valeurs єn.
n (n 1/ 2)h n=0, 1,2… ∞
h désignant la constante de Planck et ν la fréquence classique de l’oscillateur : n 1 / 2 k / m m étant
la masse de l’atome et k la constante de raideur d’un ressort équivalent au potentiel qui tend à ramener
l’atome vers sa position d’équilibre. En fait, un atome peut vibrer suivant trois directions indépendantes et
son énergie est : n (n1 n2 n3 3 / 2)h où n1, n2, n3 sont des entiers positifs ou nuls. Ces niveaux
d’énergie sont tels que g n1,n2,n3 =1 pour tout n1,n2,n3.
Dans le modèle d’Einstein, on admet que tous les atomes vibrent avec la même énergie la même fréquence
ν. On admettra que les atomes du solide obéissent à la statistique de Maxwell –Boltzmann.
1°) Ecrire l’expression de Ni représentant le nombre d’atomes se trouvant sur le niveau d’énergie є i et
définir la fonction de partition relative à un atome du solide et la calculer.
2°) Etablir l’expression de l’énergie interne du solide à partir de Z et calculer U. Quelle est l’énergie
moyenne de vibration d’un atome ? Quelle est l’énergie moyenne de vibration d’un atome suivant un axe ?
3°) Représenter la variation de l’énergie interne du solide en fonction de la température. Il sera commode de
définir une température caractéristique.
4°) Calculer la capacité calorifique molaire du solide Cv et étudier sa variation en fonction de la
température. Dans la zone de température élever, retrouver la valeur de Cv à partir du théorème de
l’équipartition de l’énergie.
45
DISTRIBUTIONS
de
BOSE-EINSTEIN et FERMI-DIRAC
VI. Introduction
Si la température d’un gaz parfait (pour une densité donnée) est suffisamment basse, la
statistique de Boltzmann devient inapplicable. Il est alors indispensable de créer une nouvelle
statistique dans laquelle les nombres moyens de remplissage des divers états quantiques des
particules ne sont pas supposés petits.
Cependant, cette nouvelle statistique diffère suivant le type de fonction d’onde décrivant le gaz,
qui est supposé être un système de N particules identiques. On sait que ces fonctions doivent être
soit antisymétrique, soit symétrique lorsqu’on inter-échange deux particules à Spin demi-entier pour
le premier groupe et le second pour les particules à Spin entier.
Les systèmes de particules décrits par des fonctions d’onde symétrique sont décrits par une
statistique appelée Statistique de Bose. Elle fut brièvement introduite par Bose à cause des photons
et étendue aux cas des particules d’un gaz par Einstein. C’est pourquoi, on appelle aujourd’hui
statistique de Bose-Einstein.
Pour ces Bosons, rien ne limite le nombre de remplissage des états quantiques des fonctions d’onde
symétriques, qui peuvent prendre des valeurs arbitraires (une cellule peut alors avoir plusieurs
particules).
46
La probabilité W de l’état macroscopique qui correspond au nombre total d’états microscopiques
est :
W est maximal si ;
Si on différencie en tenant compte des conditions :
on obtient le système :
et
soit :
est le nombre moyen des particules dans les cellules à l’équilibre thermodynamique. Ce résultat
est bien différent de celui de Boltzmann même avec dégénérescence.
Passons maintenant à l’étude de la statistique à laquelle obéit un gaz parfait composé de particules
indiscernables décrit par des fonctions d’onde totalement antisymétriques, obéissant au principe de
Pauli selon lequel dans chaque état quantique, il ne peut y avoir simultanément plus d’une particule.
La statistique basée sur ce principe est appelée statistique de Fermi ou statistique de Fermi-Dirac.
Dans une cellule, il ne peut y avoir au maximum qu’une particule. Deux particules ne peuvent
coexister dans une même cellule contrairement à la statistique de Bose.
47
Le nombre total de particules est au maximum égale au nombre de cellules.
Dans ce cas, on a au total ! permutations possibles. Mais parmi ces permutations les !
permutations obtenues entre les cellules pleines ne change pas le nombre de complexions ainsi que
permutations entre cellules vides. Le nombre d’états microscopiques différents pour
chaque domaine est donc :
Et la distribution (répartition) des particules dans l’état le plus probable à l’équilibre est
et
Un calcul direct pour évaluer la quantité : dans le cas général n’est pas aisé. Son calcul se
heurte à des difficultés mathématiques importantes. On peut montrer avec la grande fonction de
partition que ( avec le potentiel chimique).
48
Ainsi pour , il y a une identité entre les lois de répartition des particules quelque soit la
statistique considérée. Cette identité n’est pas vraie pour les probabilités et donc pour les fonctions
thermodynamiques.
En effet, on a :
Bosons
Fermions
Soient :
alors :
or alors
est le logarithme de la probabilité en mécanique de classique (Maxwell-Boltzmann)
et
Cas général
Posons :
représente le :
Potentiel thermodynamique pour les Bosons
Energie libre pour les Fermions
49
III.2 Fonction de partition d’un gaz parfait de bossons et de fermions
Il faut dans ce cas utiliser la grande fonction de partition puisque pour les bosons et les fermions, le
nombre de particules n’est pas conservé.
Soit une distribution d’états microscopiques d’un système de particules indiscernables, alors :
Le nombre d’état accessibles du système est donné par toutes les distributions possibles de
l’ensemble . On obtient :
où maintenant la somme est sur tous les possibles sans restriction comme :
Dans le cas d’un gaz de fermions, le nombre d’occupation ne peut prendre qu’une des deux
valeurs 0 ou 1 (Principe de Pauli).
Ainsi la fonction de partition pour les fermions s’écrit :
fermions
Par contre, pour les bosons, peut prendre toutes les valeurs possibles et non négatives. Ainsi la
fonction de partition pour les bosons s’écrit :
bosons.
Si alors G=0 et
Dans le cas des bosons, représente la probabilité qu’un état d’énergie Ei contienne
particules.
Dans le cas des fermions, représente la probabilité pour qu’un état d’énergie Ei soit
occupé.
Il faut remarquer que la fonction de distribution pour les bosons contient une singularité là où le
dénominateur s’annule. Ce fait a des conséquences physiques que nous allons étudier.
50
III.3 Limite classique des gaz de bosons et de fermions.
Pour avoir une idée de la grandeur fugacité à haute température, calculons le potentiel chimique
dans la limité classique.
On sait :
appelé Sackur-Tetrode
avec
Le potentiel chimique pour un gaz classique est donc négatif et la fugacité est
égale au rapport du « volume » qu’occupe la particule au volume spécifique du gaz.
Pour un gaz raréfié . Ce qui entraine
On a : or :
soit :
- pour Fermi-Dirac
+ pour Bose –Einstein
avec
51
Les deux équations permettent de développer P/kT en puissance de la densité .
Si on ne retient dans ces équations que les termes linéaires en , on retrouve immédiatement la loi
classique
Puisque est réalisée à hautes températures, nous avons montré que tous les gaz parfaits
atteignent la limite classique à hautes températures.
On a vu que :
Soit :
On peut vérifier aisément que pour un gaz relativiste où l’énergie de chaque particule dépend
linéairement de l’impulsion E = c p , l’expression est remplacé par
Un gaz est dit dégénéré si les effets dus à la symétrisassion sont importants. Un gaz est donc
dégénéré à très basses températures. Les propriétés d’un gaz dégénéré de fermions sont très
différentes de celles d’un gaz de bosons.
Etant donné la forte dégénérescence du gaz électronique, la statistique n’est plus valable en
première approximation. Il faut utiliser la statistique de Fermi-Dirac pour bâtir la théorie
électronique des métaux qui constitue une excellente application de la statistique de Fermi-Dirac.
52
avec et , on a :
L’intégral est étendu à tout le domaine réel de volume total occupé par les particules.
Par ailleurs : , alors :
S’il n’y a pas de champ extérieur et si la pression p est constante et uniforme, alors :
Ce qui permet d’identifier (c’est l’enthalpie libre moyenne avec pour unité NkT)
On a coutume de désigner l’enthalpie libre par électron (G/N) sous le nom de l’énergie de fermi ou
niveau de Fermi, EF
La distribution de Fermi-Dirac pour un gaz d’électrons s’écrit :
qui représente la probabilité pour qu’un état Ei soit occupé par un électron à l’équilibre.
IV.2.1 Propriétés
Un gaz de fermions au zéro a la propriété remarquable que son énergie cinétique totale
n’est pas nulle ( à T=0K et )
Ceci est une conséquence immédiate du principe de Pauli; car chaque état quantifié ne pouvant
contenir qu’un seul fermion, il s’ensuit que les fermions occuperont tous les états énergétiques
53
possibles allant de l’état d’énergie nulle à un état d’énergie maximum EF appelée énergie de Fermi
et dont la valeur sera déterminée par le nombre de fermions dans le gaz.
Si la limite si
à T= 0 K
Si est discontinue
à K
Ei
EF
quand on parle de l’Energie de Fermi (niveau de Fermi)
Si tous les états pour lesquels sont occupés par les électrons par contre pour
les états sont vides.
On a :
si
or ( car kT et )
alors : et
Ce qui montre bien que même au zéro absolu, la pression d’un gaz de fermions n’est pas nulle
L’énergie de Fermi dépend elle-même de la densité du gaz comme un simple calcul le montre.
et
54
Avec : étant la quantité de mouvement à la surface de Fermi
Cette notion est fortement dépendante de la densité et de la masse des particules du gaz.
+
e avec une vitesse V dans le
vide
-
e au repos dans le vide
0
W0
-
e d’énergie E
-eV0 -
e au repos dans le
métal
L’énergie totale des électrons dont l’énergie cinétique a la valeur maximale EC est
quantité nécessairement positive sans quoi les électrons quitteraient le métal. La quantité W0 est le
travail de sortie, c’est-à-dire l’énergie qu’il faut fournir à un électron à la surface de Fermi pour
l’extraire du métal.
55
VI.2.3 Densité d’état des fermions
est le volume d’une cellule. Or, on a un (1) électron par cellule (Spin ) alors le facteur de
dégénérescence dû au spin est .
Le principe d’exclusion de Pauli limite l’occupation des états quantiques pour ces particules.
avec
Densité d’état
Le nombre d’états s’écrira de façon général par
La densité d’états distincts dont l’énergie est comprise dans la bande d’énergie E et E+dE est :
Or à , alors
1
à T= OK
Etats vides
0,5 à T OK
Etats E
56 i
occupés
EF
Pour calculer l’énergie cinétique totale, on écrit :
A basses températures les propriétés du gaz de Bose n’ont rien de commun avec celle du gaz de
Fermi. C’est évident, car pour un gaz de Bose, l’état de moindre énergie dans lequel le gaz se trouve
pour T=0K doit être l’état correspondant à E=0 (toutes les particules se trouvent à l’état Ei=0). Ce
qui n’était pas le cas pour un gaz de Fermions.
Condensation de Bose-Einstein
avec la fugacité
Puisque l’état de base a une énergie nulle, nous devons avoir , c’est-à-dire afin
que le nombre d’occupation n’atteigne jamais une valeur négative.
En général, on a : , c’est-à-dire à toutes températures.
Pour , on avait montré que l’équation d’un gaz parfait de bosons s’écrivait (développement
du viriel) :
A la limite l’expression de détermine pour une température donnée, une densité critique
La grandeur est la fonction zéta de Riemann. Ces valeurs de la fonction sont tabulées :
et conduit :
57
La situation devient très différente lorsqu’à une température donnée, la densité du gaz est
supérieure à puisque l’expression de n’est plus valable, cette équation ne décrit que des
densités satisfaisant
.
La contradiction provient du fait que pour obtenir l’expression de , il a été remplacé une somme par
une intégrale qui contenait un poids statistique (densité des états ) à une énergie E donnée.
Dans la limite thermodynamique, les niveaux énergétiques devenaient denses. Or, pour un gaz de
bosons, l’état de base peut être très peuplé, puisqu’il n’y a pas de limitation du nombre
d’occupation.
Malgré la possibilité que cet état soit très peuplé, le poids qui est attribué dans les calculs est nul
puisque la densité des états est proportionnelle à ; c’est-à-dire : qui est nul lorsque
E=0.
où :
pour
Ainsi, pour
En définissant maintenant pour une densité donnée, une température critique TC, on obtient la
relation :
pour
et peut être grand déjà lorsque T est largement inférieur à . Cette relation montre qu’à
T=0K, toutes les particules occupent l’état de base.
On a aussi :
avec :
58
Mais, pour grand donc
Et pour et :
Dans la région critique la pression indépendante de et varie comme . Autrement dit, l’état
condensé ne contribue pas à la pression.
La chaleur spécifique a donc une dérivée discontinue à . Cette propriété est caractéristique
d’une transition de phase. Ce phénomène s’appelle Condensation de Bose-Einstein.
Enfin, l’entropie calculée à l’aide de l’expression :
59
V. Rayonnement d’un corps noir
Le rayonnement noir peut être considéré comme un « gaz » composé de photons. Ce gaz est parfait
puisque les photons n’interagissent pas entre eux. Une cavité fermée et maintenue à une
température T émettra des photons et en réabsorbera. Après un certain temps, il s’établira une
situation où les photons et la cavité seront en équilibre thermodynamique. La radiation
électromagnétique à l’intérieur de la cavité s’appelle radiation d’un corps noir. Cette partie a pour
objet de décrire les propriétés de cette radiation.
Les photons diffèrent des autres bosons par le fait que leur nombre n’est pas conservé. Pour évaluer
la grande fonction de partition, la contrainte due à la conservation du nombre des particules devient
superflue. Ainsi, la fugacité est égale à l’unité et le potentiel chimique est nul.
et
Donc, la fonction de partition et la grande fonction de partition se confondent
Puisque pour un photon , on a la distribution des photons qui s’écrit :
Si on suppose que le volume est grand, on peut introduire comme d’habitude une distribution
discrète à la distribution continue de fréquence propre.
Le nombre d’oscillation propre avec les composantes du vecteur d’onde dans les intervalles ,
et est calculé à partir de la relation de base :
Or : , alors :
60
Ainsi, le :
Cette relation qui donne la distribution spectrale de l’énergie du rayonnement noir, est appelée
formule de Planck (1900).
relation de Wien
Loi de Rayleigh-Jeans
Loi de Wien
La loi de Wien montre que pour chaque température T, il y a une longueur d’onde
pour laquelle est maximum. Cette longueur d’onde est donnée par la relation :
en . degré. Kelvin
et et
61
Si on remplace la somme par une intégrale, on obtient :
où : la constante de Stefan-Boltzmann
et
Comme on pouvait s’y attendre, pour un gaz parfait de photons, on trouve la même expression
limite pour la pression que pour un gaz électronique ultra-relativiste. Cette relation se trouve être la
conséquence directe de la dépendance linéaire E=pC entre l’énergie et l’impulsion de la particule.
62
Exercices d’application
Exercice 4.1 :
On considère un gaz de fermions, supposés sans interaction mutuelle, de spin ½ (des électrons par
exemples) enfermés dans un volume V. Soient єi les niveaux d’énergie des particules. Le poids
statistique dû au spin est 2, correspondant à la possibilité pour un électron d’avoir la projection de
spin égale à ±1/2. En utilisant le principe d’exclusion de Pauli, montrer qu’au zéro absolu les
particules occupent les niveaux єi jusqu’à une énergie F0 appelée énergie de Fermi.
Exercice 4.2 :
On considère une masse M de métal occupant un volume V, se trouvant à la température
thermodynamique T et à la pression atmosphérique. En première approximation, les ions positifs
formants ce métal ont pour effet de créer un puits de potentiel empêchant les électrons de quitter
celui-ci. On négligera toute interaction électron-électron.
Le nombre d’électrons N1 se trouvant sur le niveau є1 à l’équilibre a pour expression :
gi
Ni et gi étant le poids statistique du niveau є1 le spin de l’électron J étant égal
exp( i ) 1
à 1/2 gi=2J+1+2. On pose ν=βεF, où εF est une fonction dépendante des variables
thermodynamiques du système.
En admettant que εF(T) tend vers une limite finie F lorsque T→ 0°K (On prendra l’énergie
0
potentielle d’un électron nulle à l’intérieur du métal). Interpréter physiquement la courbe ainsi
obtenue. Déterminer F
0
Exercice 4.3 :
Une enceinte de température T est le siège d’ondes électromagnétique. Ces ondes sont équivalentes
à une assemblée de photons obéissant à la statistique de Bose–Einstein (le spin du photon est J=1).
A une onde de fréquence ν. On associe des photons d’énergie є=hν, h étant la constante de Planck.
L’énergie d’un photon est reliée à son impulsion p par є =cp, c est la vitesse de la lumière.
V .4 p 2 dp
1°) On rappelle que la densité d’états dans l’espace des impulsions est : g ( p)dp 2
h3
(le facteur 2 est dû au fait que pour une impulsion donnée, un photon peut avoir deux états
possibles de polarisation) Calculer la densité d’états en fonction de l’énergie.
2°) Rappeler la répartition des photons dans l’état le plus probable (à l’équilibre). Le nombre de
photons contenus dans l’enceinte n’est pas constant.
3°) On désigne par ( ,T ) l’énergie par unité de volume des photons ayant leur fréquence
comprise entre ν et ν+d ν. Ν est la densité spectrale d’énergie. Déterminer ( ,T ) .
4°) En déduire l’expression de la densité d’énergie u(T) dans l’enceinte.
Exercice 4.4 :
1°) Calculer, en fonction de la température, le nombre de photons n par unité de volume dans une
enceinte. L’expression de n fat intervenir une intégrale numérique.
3
2°) Calculer le nombre d n , de photons par unité de volume ayant leur énergie comprise entre
є et є + dє et leur impulsion pointant dans un angle solide dΩ. On rappelle que є=cp, où p est
l’impulsion d’un photon et c la vitesse de la lumière.
3°) calculer le flux de photons à travers un orifice percé dans la paroi de l’enceinte.
4°) Application numérique : calculer le nombre de photons s’échappant par seconde de l’orifice
d’une cavité de section S= 10 mm2 lorsque la température de l’enceinte est T=1000K.
63
La cavité de température T, percée d’un trou de faibles dimensions constitue un corps noir. On
définit le pouvoir émissif W du corps noir comme le flux d’énergie sortante de l’orifice.
5°) Calculer W en fonction de u, densité d’énergie dans l’enceinte.
6°) Montrer que l’on a W T 4 et calculer σ.
Exercice 4.5 :
L’univers peut être considéré comme une cavité sphérique de rayon R contenant un nombre N de
photons. Ces Photons sont considérés comme placés dans un puits de potentiel infranchissable. Soit
T la température à l’intérieur de la cavité,
a) Calculer la densité des photons dans la le spectre des pulsations ω.
b) Estimer le nombre N de photons dans l’Univers
c) A.N R=1023 cm et T=3.0 K
x2
On donne : I dx 2,4
0
ex 1
64
CORPS CONDENSES : SOLIDES
I. Propriétés structurales
Les méthodes statistiques de calcul des grandeurs thermodynamiques peuvent également être
appliquées aux corps solides. Ces corps sont caractérisés par le fait que leurs atomes n’effectuent
que de petites oscillations autour de certaines positions d’équilibres, qui sont des « nœuds » du
réseau cristallin. La disposition mutuelle des nœuds correspondant à l’équilibre thermique du corps
doit être cristallisée, c’est-à-dire régulier dans les quels les atomes vibrent autour des points
disposés d’une manière chaotique. De point de vu thermodynamique, ce sont des corps métastables
qui devraient dans le temps se cristalliser. Cependant ce temps de relaxation étant tellement grand
que les corps amorphes se comportent comme des solides instables. Ainsi les calculs a effectuer sur
des corps cristallisés seront effectués sur des corps amorphes à condition de tenir compte pour ces
corps amorphes le théorème de Nerst n’est pas vérifiée. Ainsi à , l’entropie est différents
de zéro. Ainsi pour les corps amorphes il existe une entropie résiduelle . Il faut donc tenir
compte de cette entropie résiduelle dans le calcul de l’entropie . Mais ces constantes peu
importantes en particulier n’ont aucune influence sur la chaleur spécifique ; elles seront donc
omises dans les relations.
Il faut savoir que même pour les corps cristallisés ; on peut avoir une entropie résiduelle au cours
de leur mise en ordre.
Si la probabilité de trouver un atome au voisinage d’un nœud est égale à l’unité ; c’est-à-dire à
chaque atomes correspond un seul nœud, on parle de cristaux complètement ordonné. Dans le cas
contraire où on peut avoir un atome qui peut correspondre à plus de deux nœuds, la probabilité est
différente de 1.
C’est une molécule qui peut avoir 2 orientations opposées obtenues par permutation des
atomes C et O. Alors pour
Conformément à la mécanique tous les atomes sont immobiles au zéro absolu, et l’énergie
potentielle d’interaction doit être minimale à l’équilibre. Ainsi, aux basses températures, les atomes
ne doivent, tout au moins effectuer que de petites oscillations, c’est-à-dire que tous les corps
doivent être solides.
Cependant, les effets quantiques peuvent conduire à des exceptions à cette règle. Tel est le cas de
l’hélium liquide qui est l’unique au zéro absolu et à la pression . Tous les autres se
solidifient avant que les effets quantiques ne soient sensibles.
Pour qu’un corps soit solide, il faut que sa température soit suffisamment basse.
65
Elle doit être petite (en fait, aux températures plus élevées tous les corps solides fondent) par
rapport à l’énergie d’interaction des atomes .
Soit N le nombre de molécules du corps, γ le nombre d’atomes dans une molécule. Le nombre
total d’atomes est alors γN. Trois des 3γN degrés de libertés correspondent au mouvement de
translation et rois au mouvement de rotation du corps. Ainsi le nombre de degré de liberté
d’oscillations est égal à 3γN-6 ; mais puisque 3γN est grand, on peut évidemment négliger le
nombre 6 et supposer égale à 3γN.
Il sera aussi négliger les degrés de liberté « internes » (électroniques) des atomes du solide. Si ces
degrés sont importants (ce qui peut être le cas pour les métaux) , il faut ajouter au effet des
oscillations dans le solide, les effets dd la partie électronique.
Du point de vue mécanique, un système à 3γN degrés de libertés oscillatoires peuvent ^tre
considéré comme un ensemble de 3γN oscillateurs indépendants, dont chacun correspond à une
oscillation normale.
On assimile donc le solide à une association d’oscillateurs harmoniques linéaires, reliés les uns aux
autres aux atomes du réseau. L’Excitation thermique en un point du réseau entraine une
propagation d’onde, généralement de très faible fréquence, de l’ordre des ondes acoustiques. A
cette onde, on lui associe une particule appelée phonon, de masse nulle et de potentiel chimique nul
puisque les particules ne se conservent pas.
Le caractère de cette particule est dispersif, c’est-à-dire qu’elle naît en un point, disparait et renait
au suivant la loi de propagation de l’onde.
Modèle d’Einstein
Dans le modèle de d’Einstein, l’énergie transportée la propagation linéaire d’un phonon est
quantifiée et vaut :
où n1, n2, n3 sont des entiers positifs (nombre quantique pour les différentes directions) ou nuls variant de
0, 1,2… ∞
Dans la théorie d’Einstein, on émet l’hypothèse que les particules phonons obéissent à la statistique
de Maxwell-Boltzmann et que la densité d’état est égale 1 :
66
Comme , alors on peut étendre la somme à . Si on compte l’énergie de la
molécule à partir du niveau oscillatoire le plus bas (n=0) ; c’est-à-dire est inclus dans la
constante E0 (énergie électronique).
Or
alors
A hautes températures
67
Théorie de Debye
Dans le modèle de d’Einstein, nous avions posé que l’énergie transportée la propagation linéaire
d’un phonon est quantifiée et vaut :
Les vitesses de propagations des ondes acoustiques dans ces deux directions sont notées VT et VL.
Deuxième supposition :
La deuxième hypothèse de Debye stipule que le nombre maximum d’onde de vibration dans le
solide ; est égale à 3γN ; c’est-à-dire au nombre de modes principaux d’un système ayant 3γN
degrés de liberté.
Avec ces deux hypothèses, il facile, dans le cas de basses températures ou haute températures de
trouver une expression pour le spectre des fréquences des ondes acoustiques.
En effet, la vitesse de propagation des ondes dans un solide est :
K : constante d’élasticité
d : distance entre les masses ponctuelles
V : vitesse de propagation des ondes acoustiques dans le solide
Le nombre de vibration caractéristiques, c’est-à-dire la densité des états ayant un vecteur d’onde de
valeur absolue k autour de dk est :
Le nombre de mode de vibrations comprises entre et dans une direction donnée est :
68
En tenant compte des deux modes de propagation des ondes acoustiques dans un solide, le nombre
total de modes de vibration dans l’intervalle est :
Les phonons, comme les phonons peuvent occuper en nombre indéfini un état donné (bosons). De
plus, leur nombre n’est pas conservé. Il s’ensuit que les phonons obéissent aux statistiques de Bose-
Einstein et que le potentiel chimique d’un gaz de phonon est nul ;
Ainsi, la loi de distribution en énergie des phonons est analogue à celle des photons.
La fréquence maximum des phonons dans un cristal est selon la deuxième hypothèse de
Debye, donné par l’expression :
∞
69
La fonction énergie libre F se calcule en utilisant la relation :
On sait dans le modèle de Debye que le nombre de vibrations comprise entre et + est :
Si nous supposons que les températures sont basses, , les fréquences de vibration sont
alors faibles. Mais comme on sait, les oscillations de faibles fréquences ne sont d’autre que les
ondes sonores.
Pour un corps isotope, introduisons une vitesse moyenne dans les directions. Alors le nombre
de vibrations comprise entre et + devient :
La vitesse moyenne de propagation du son dans les cristaux est une fonction de la densité des
particules :
La fonction énergie libre peut se calculer en
transformons la somme en une intégrale.
Par suite de la convergence rapide de l’intégrale pour des kT petits, l’intégrations peut s’effectuer de
0à .
Remarque : Mise à part le terme , F ne diffère pas de celle trouvée pour un corps noir qu’en ce
sens que C la vitesse de la lumière remplace la vitesse moyenne du son et apparaît un facteur
70
supplémentaire 3/2. Ce terme provient du fait que les oscillations sonores ont 3 directions de
polarisation au lieu de 2 pour les photons.
or :
Le terme proportionnel à dans l’énergie libre pour des températures basses peut être considéré
comme au terme correctif à :
D’un autre côté, le terme correctif de l’énergie libre (à et T donnés) est égal au petit terme
correctif ( à et T donnés) du potentiel thermodynamique G. Ainsi, on peut écrire directement :
On voit qu’aux basses, le coefficient est proportionnel au cube de la température. Ceci est d’ailleurs
évident par suite du théorème de Nerst et de la loi en T3 pour la chaleur spécifique.
71
Dans l’expression : les second et troisième termes
peuvent être considérés comme des termes correctifs au premier terme. Pour que le corps soit
solide, il faut tout au moins que l’on ait : .
On obtient alors :
d’où :
72
Travail à faire
Exercice 5.1 :
Dans un solide, l’approximation de d’Einstein conduit à considérer la fonction densité d’états des
phonons g(E) comme étant une fonction partout nulle sauf pour une valeur unique E 0 de la variable
E, ce qui conduit à écrire : g(E)dE = 3N (E-E0)dE.
Où est la distribution de Dirac. N est le nombre d’atomes, 3N est le nombre de degrés de liberté
du système. On définit une température caractéristique d’Einstein par E = E 0/k, k étant la
constante de Boltzmann.
1. Ecrire l’expression de l’énergie interne U et de la capacité calorifique Cv.
2. Etudier les limites de Cv pour les températures élevées et pour les températures faibles.
3. Tracer l’allure de la courbe représentative de Cv en fonction de T/ E , variable sans
dimension.
Exercice 5.2 :
1) Montrer que dans un réseau tridimensionnel, l’approximation de Debye conduit à considérer la
densité d’états des phonons comme indépendants de E. Soit : g(E)dE = AE2dE
2) Préciser la constante A et l’exprimer en fonction de l’énergie maximale ED dans le modèle de
Debye. Représenter graphiquement g(E).
Exercice 5.3 :
Dans un solide, une onde acoustique de vecteur d’onde k et de fréquence ν a l’énergie є=hν. La
variation de ν ou de є en fonction de k constitue la loi de dispersion du solide. En général, la
direction de propagation (direction k) n’est pas perpendiculaire, ni parallèle à la direction de
déplacement des atomes mais dépend de la structure du solide. Cependant pour les longueurs d’onde
2 / k grandes devant les dimensions interatomiques du cristal, celui-ci se comporte comme un milieu
continu et on peut lui appliquer la théorie macroscopique de la propagation acoustique. On sait dans ce cas
que pour un solide, il existe pour tout vecteur d’onde k une onde longitudinale de vitesse cl et deux ondes
transversales de vitesses égales à ct, avec : k / cl et k / ct pour les ondes longitudinales et
transversales respectivement.
Le modèle de Debye consiste à attribuer aux vibrations acoustiques des vitesses cl et ct constantes dans tout
le domaine de variation de k.. L’impulsion d’un phonon associé à une onde de vecteur k est p=hk et son
énergie є= cl p et є= ct p pour les ondes longitudinales et transversales respectivement. Ce résultat est
analogue à celui que l’on a pour les photons.
1°) En utilisant la densité d’états dans l’espace des impulsions, établir l’expression de la densité d’états
3 1 2
g(є)d є des phonons. On pourra introduire une vitesse moyenne c définie par : 3
3 3
c cl ct
2°) Le nombre total d’états quantiques différents étant égale à 3N (nombre de degrés de libertés du système)
l’énergie єD d’un photon doit avoir dans ce modèle une borne supérieure єD. On introduit une température
caractéristique de Debye D D / k , où k désigne la constante de Boltzmann, Exprimer D en fonction
de c ; représenter graphiquement g(є).
3°) Ecrire les expressions de l’énergie interne U et de l a capacité calorifique Cv.
4°) Etudier Cv aux basses températures et aux températures élevées et comparer les résultats ainsi obtenus
à ceux du modèle de d’Einstein. Représenter graphiquement la capacité calorifique molaire Cv en fonction
de T/ D .
73
INTEGRALES UTILES
x e dx x e dx
P ax
IP P ax
2
JP
2
0
1 JP = 2 IP pour paire
I0 1
2 a I1
2a
P 1 P 1 P ax 2 J P=0 pour P impaire
IP2 IP x e dx
2a 2a 0
1 I3
1
I2 2a 2 J0
4a a a
3
I4
8a 2 a
74