Académique Documents
Professionnel Documents
Culture Documents
Navigation
Accueil
Portails thématiques
Article au hasard
Contact
Contribuer
Débuter sur Wikipédia
Aide
Communauté
Modifications récentes
Faire un don
Outils
Pages liées
Suivi des pages liées
Téléverser un fichier
Pages spéciales
Lien permanent
Informations sur la page
Citer cette page
Élément Wikidata
Imprimer / exporter
Créer un livre
Télécharger comme PDF
Version imprimable
Español
ह द
Bahasa Indonesia
Português
Русский
中文
76 de plus
Modifier les liens
Entropie (thermodynamique)
Le terme entropie a été introduit en 1865 par Rudolf
Clausius à partir d'un mot grec signifiant Entropie (thermodynamique)
« transformation ». Il caractérise le degré de
désorganisation, ou d'imprédictibilité, du contenu en
information d'un système.
Lien à d'autres
grandeurs
Conjuguée Température
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 2/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
thermodynamique
Sommaire
Définition thermodynamique
En thermodynamique classique
Deuxième principe de la thermodynamique
Transformations réversibles et irréversibles
Inégalité de Clausius
Conséquence de l’inégalité de Clausius sur le
travail fourni par un système
Définition de l'entropie selon la physique
statistique
Équilibre et maximum d'entropie
Exemples de compréhension
Entropie et désordre
Équilibre et maximum d'entropie
Évolution inéluctable vers le désordre
Énergie et entropie
Remarques d’ordre général
Étymologie
Pour en savoir plus
Approche thermodynamique de Carathéodory
(1908)
Approche thermodynamique de Lieb-Yngvason
(1997)
Notes, références et bibliographie
Notes
Références
Bibliographie
Vulgarisation
Initiation (premier cycle universitaire)
Ouvrages de référence
Aspects historiques
Voir aussi
Articles connexes
Liens externes
Définition thermodynamique
En thermodynamique classique, l'entropie est une fonction d'état extensive (c'est-à-dire dépendante de
2
la masse ou du volume de matière), introduite en 1865 par Rudolf Clausius dans le cadre du deuxième
3
principe de la thermodynamique, d'après les travaux de Sadi Carnot . Clausius a montré que le rapport
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 3/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Cette nouvelle définition de l'entropie n'est pas contradictoire avec celle de Clausius. Les deux
expressions résultent simplement de deux points de vue différents, selon que l'on considère le système
thermodynamique au niveau macroscopique ou au niveau microscopique.
Plus récemment, le concept d'entropie a été généralisé et étendu à de nombreux domaines, tels que par
exemple :
Potentiels thermodynamiques
avec :
Fonction de Massieu
l'énergie interne du système ;
l'énergie interne du milieu extérieur au
système.
Fonction de Planck
Cependant, ce principe n'impose aucune contrainte sur le
sens de l'échange énergétique entre le système et le milieu
extérieur. Pourtant, l'expérience montre que cette
Grandeurs
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 4/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Rien dans le premier principe n'empêche pourtant que le corps froid se refroidisse et que le corps chaud
se réchauffe, que l'eau liquide puisse geler au-dessus de zéro degré Celsius, ou que le ballon se regonfle,
mais ces transformations nous sembleraient choquantes car nous sommes habitués à ce qu'elles ne se
déroulent spontanément que dans un seul sens. Ce sens est précisé par le second principe de la
thermodynamique qui est un principe d'évolution : il introduit la notion d’irréversibilité des
phénomènes physiques. Cette irréversibilité est formalisée par la fonction entropie , fonction d'état
extensive non conservative. En effet, toute transformation réelle d'un système doit s'effectuer dans le
sens d'un bilan entropique global sur le système et son milieu extérieur positif, autrement dit d'une
création d'entropie :
avec :
éé l'entropie créée ;
l'entropie du système ;
l'entropie du milieu extérieur au système.
La thermodynamique classique définit l’entropie comme une grandeur extensive, ce qui signifie que l'on
b
obtient l'entropie d'un système en faisant la somme des entropies de ses parties constituantes .
Selon ce principe, l’entropie d’un système isolé (qui n'échange ni matière ni énergie sous quelque forme
que ce soit avec l'extérieur) ne peut pas diminuer. Elle augmente lors d’une transformation irréversible,
ou reste constante si la transformation est réversible :
La diminution d'entropie d'un système non isolé est possible si l’augmentation de l’entropie du milieu
extérieur fait plus que compenser la diminution d’entropie de ce système. Autrement dit, si
pour un système non isolé alors , la valeur absolue de . Le bilan entropique reste
ainsi conforme au deuxième principe.
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 5/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Une transformation affectant un système thermodynamique est dite réversible si elle est quasistatique et
s’effectue sans frottement entraînant un phénomène dissipatif de chaleur. Dans ces conditions, la
transformation peut être considérée comme étant constituée d’une succession d’états d’équilibre. Si on
inverse le sens de la contrainte responsable de la transformation, on repasse par les mêmes états
d’équilibre puisqu’il n’y a pas eu de phénomènes dissipatifs. On peut en conséquence modéliser la
transformation et décrire parfaitement, à chaque instant, l’état d’équilibre du système. Une
transformation réversible est donc un modèle idéal dont on peut se rapprocher, dans les transformations
réelles, en s’assurant que la transformation soit très lente, le déséquilibre des variables d'état très faible
et en minimisant les frottements. Une transformation réversible qui serait filmée pourrait être projetée à
l'envers (c'est-à-dire de la fin au début) sans que la séquence paraisse anormale. C'est par exemple le cas,
en première approximation, pour une balle en caoutchouc qui rebondit une fois sur un sol dur, il serait
difficile de distinguer si le film est projeté à l'endroit ou à l'envers. Une transformation réversible se
traduit par l'égalité :
À l'inverse, les transformations réelles (ou transformations naturelles) sont irréversibles à cause de
phénomènes dissipatifs. En toute rigueur, le rebond d'une balle de caoutchouc est accompagné de
frottements lors du choc au sol et de frottements lors du déplacement dans l'air, aussi faibles soient-ils ;
ces frottements dissipent de l'énergie et, après plusieurs rebonds, la balle finit par s'arrêter. Le film à
l'envers serait choquant puisque la balle rebondirait de plus en plus haut. De même dans le cas d'un œuf
s'écrasant sur le sol, le film projeté à l'envers montrerait l'œuf brisé se reconstituer puis monter en l'air.
On trouve dans cette irréversibilité une manifestation de la flèche du temps. Un système irréversible ne
peut jamais spontanément revenir en arrière. L’énergie perdue par le système sous forme de chaleur
contribue à l’augmentation du désordre global mesuré par l'entropie. Une transformation irréversible se
traduit par l'inégalité :
Inégalité de Clausius
Considérons un système siège d'une transformation quelconque (par exemple d'une réaction chimique
ou d'un changement d'état), posons :
Étant donné le premier principe, on a le bilan énergétique global sur le système et le milieu extérieur :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 6/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Le système et le milieu extérieur étant supposés former un système global isolé, nous avons la relation
sur les volumes :
Le travail reçu par le milieu extérieur est donc l'opposé du travail reçu par le système ; de même, la
chaleur reçue par le milieu extérieur est l'opposée de la chaleur reçue par le système (règle des signes).
L’entropie est une fonction d’état. Cela veut dire que sa valeur est déterminée dès que l’état d’équilibre
du système est établi. Il peut être écrit pour le milieu extérieur, qui n'est le siège d'aucune transformation
(pas de réaction chimique, pas de changement d'état…) :
Pour une transformation réversible, la création d'entropie étant nulle nous avons :
é
Pour une transformation réversible :
Pour une transformation irréversible il y a création d'entropie, le bilan entropique est positif :
é
Pour une transformation irréversible :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 7/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
La transformation peut être réversible ou irréversible. Si la variation de la fonction d'état entropie est la
même quel que soit le chemin emprunté, il n’en est pas de même pour la chaleur et le travail qui
dépendent du chemin suivi et seront donc différents : é é et é é .
nous obtenons : é é .
é é é é
On déduit que é é .
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 8/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Comme vu plus haut, le travail reçu par le milieu extérieur est l'opposé du travail reçu par le système (
) ; aussi pour l'extérieur :
é é
On en déduit que le travail utile reçu par le milieu extérieur est plus important lorsque la transformation
est réversible que lorsqu'elle est irréversible. La différence est dissipée sous forme de chaleur.
Remarques :
Les frottements sont une cause importante d’irréversibilité ; la lubrification des pièces en contact et
en mouvement dans un ensemble mécanique comme un moteur (conçu pour fournir du travail)
permet de les minimiser. Sans lubrification, on observe un échauffement des pièces et une perte
de rendement, conséquence de la dissipation d'une partie de l'énergie en chaleur plutôt qu'en
travail.
La vitesse est un facteur d’irréversibilité : la récupération de travail mécanique décroît à mesure
que la vitesse d'un véhicule s'accroît. Ainsi, pour une même quantité de carburant, plus un véhicule
se déplacera rapidement, plus la distance qu'il pourra parcourir sera réduite.
Une pile électrique fournit plus de travail électrique si son fonctionnement se rapproche de la
réversibilité (faible courant de fonctionnement délivré sous une tension proche de celle de la pile
en équilibre, c'est-à-dire non connectée). En revanche si on court-circuite les électrodes, on ne
récupère pratiquement que de la chaleur, libérée dans la pile.
La somme des énergies de toutes les particules d'un système thermodynamique donné s'appelle l'énergie
interne du système. Lorsque le système est isolé, c'est-à-dire qu'il n'échange ni matière ni énergie
avec l'extérieur, on dit que ce système se trouve dans l'ensemble microcanonique. Son état
macroscopique est caractérisé par son volume et son énergie interne . Cependant les particules
peuvent être disposées dans le volume d'un très grand nombre de façons différentes. De même l'énergie
interne peut être répartie sur les particules d'un très grand nombre de façons différentes. Chaque façon
de placer les molécules dans le volume et de leur distribuer l'énergie interne s'appelle une configuration
microscopique de l'état macroscopique caractérisé par le volume et l'énergie interne . Le nombre
de particules étant, dans un système macroscopique, immensément grand (de l'ordre de ) le nombre
de ces configurations microscopiques est lui-même immensément grand. On définit alors
l'entropie (fonction de et ) par :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 9/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Cette relation a été proposée par Ludwig Boltzmann vers les années 1870 alors que la notion d’états
microscopiques était encore très spéculative (les atomes étaient encore mal connus). Il a été en butte à la
moquerie des scientifiques de son époque ce qui l'a vraisemblablement conduit au suicide. Aujourd'hui il
est considéré comme le père fondateur de la thermodynamique statistique. Sur sa tombe à Vienne est
gravée sa formule à l'origine du concept de l'entropie.
Un système évolue en permanence d'une configuration microscopique à une autre, jusqu'à ce qu'il
atteigne l'équilibre. On admet alors le principe fondamental suivant :
Étant donné un système isolé en équilibre, il se trouve avec des probabilités égales dans
chacun de ses micro-états accessibles.
L'entropie jouit de la propriété d'additivité (on dit que c'est une grandeur extensive) : l'entropie d'un
système à l'équilibre est égale à la somme des entropies de chacune de ses parties. Par
exemple si l'on sépare le système en deux parties, d'entropies respectives et et ayant pour chacune
des parties et configurations, l'entropie globale est égale à . D'où :
Ces deux manières de formuler le principe fondamental de la physique statistique sont équivalentes. La
notion d'équilibre est liée à celle de système soumis à des contraintes extérieures. La définition du
système est très importante, et on considère ici, que le système se trouve dans l'ensemble
microcanonique.
Démonstration
On peut montrer l'équivalence entre ces postulats à l'aide des multiplicateurs de Lagrange.
Dans l'ensemble microcanonique, l'énergie est fixée à une valeur , et on a donc :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 10/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
1.
2.
On retrouve bien le premier axiome qui affirme que les probabilités associées à chaque
micro-états sont équiprobables.
Exemples de compréhension
Entropie et désordre
Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un
jeu de 52 cartes et posons-les toutes du même côté (ordre parfait) ; cet état macroscopique ne peut être
réalisé que d'une seule façon : . Retournons une carte, ce qui est le début du désordre ; mais il y a
façons de réaliser l'état macroscopique « une seule carte retournée ». Le désordre est maximal
quand 26 cartes sont d'un côté et 26 cartes de l'autre côté ; le nombre de configurations microscopiques
de cet état de désordre maximal est alors 4,96 × 1014. Dans cet exemple, le nombre de
configurations microscopiques (donc l'entropie) est bien une mesure du désordre. Mais il faut être
prudent dans l'utilisation de cette notion de désordre, qui est souvent subjective, et lui préférer le
nombre de configurations qui est objectif (c'est un nombre).
Reprenons le jeu de 52 cartes et supposons qu'on les jette en l'air de telle sorte que chaque carte retombe
d'un côté ou de l'autre avec la même probabilité. Si l'on recommence l'opération un grand nombre de
fois, les valeurs numériques précédentes montrent que le désordre maximal apparaîtra beaucoup plus
souvent que toute autre situation.
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 11/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Considérons maintenant un gaz dans un récipient de volume . Il comporte non pas 52 molécules mais
de l'ordre de . Parmi toutes les façons possibles de ranger ces molécules, il y en a un certain nombre
qui laissent la moitié du volume vide (ce qui correspond à toutes les cartes du même côté) mais un
nombre immensément plus grand pour lesquelles elles sont uniformément réparties dans tout le volume.
Comme toutes ces configurations microscopiques sont équiprobables, la répartition uniforme est réalisée
immensément plus souvent que toute autre situation, au point qu'elle apparaît macroscopiquement
comme un équilibre stationnaire ; et ceci simplement parce que le nombre de configurations
microscopiques, et donc l'entropie, qui lui correspondent ont leur valeur maximale.
Considérons toujours le jeu de 52 cartes. On les ordonne en les rangeant par ordre décroissant de valeur,
de l’as au 2 dans chaque couleur ; les couleurs étant rangées dans l’ordre suivant : trèfle, carreau, cœur et
pique. Avec cette contrainte définissant l'ordre parfait, il n'existe qu'une seule configuration ordonnée :
Ω = 1. L'entropie définie selon Boltzmann serait alors égale à :
Combien y a-t-il d'arrangements possibles des cartes dans le jeu, c'est-à-dire de configurations ?
On constate alors que les configurations désordonnées sont extrêmement majoritaires par rapport à la
configuration ordonnée.
Supposons maintenant que l'on fasse évoluer le système ordonné en battant le jeu toutes les secondes.
Existe-t-il une chance de revenir à l'état initial ordonné ?
En supposant que toutes les configurations (il y en a 8 × 1067) ont la même probabilité et que chaque
configuration n'apparaisse qu'une fois (contrainte arbitraire pour évaluer le temps), pendant 1 seconde.
Il faudrait battre le jeu pendant 8 × 1067 s, soit 2,5 × 1051 milliards d’années pour décrire toutes ces
configurations et ainsi revenir à l’état ordonné. Ce que l'on peut dire, c'est que si cette contrainte
arbitraire n'est pas posée, le temps d'attente moyen avant le retour de la configuration initiale possède
une valeur bien définie (une espérance) et que ce temps devrait être de l'ordre du nombre de
configurations, multiplié par le temps entre deux tirages (cf. Loi de Poisson). On peut donc conclure avec
certitude, que la probabilité de revenir à l'état ordonné sera quasi nulle.
Réfléchissons maintenant sur une mole de gaz parfait dans les conditions normales de température et de
pression. Le nombre de particules NA = 6,022 × 1023 est énorme. À l'inverse du jeu précédent où chaque
carte est unique et définie par un seul paramètre, chaque particule de gaz est définie par trois paramètres
de position spatiale et un paramètre d'énergie (agitation thermique). Le nombre de configurations ou
complexions est faramineux. Néanmoins, grâce à la thermodynamique statistique, il a été possible de le
calculer dans le cas d'un gaz parfait pris dans les conditions normales (volume molaire de 22,4 L) :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 12/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
De plus, il faut remarquer qu’avec l'agitation thermique, le système est en perpétuel changement. Bien
évidemment les configurations désordonnées sont les plus nombreuses. Ce sont ces configurations
désordonnées qui occupent la majorité du temps et définissent l’état d’équilibre du système à l’échelle
macroscopique.
= 159 J K−1. C’est l’entropie d’une mole de gaz parfait dans les conditions normales.
À zéro kelvin, l'agitation thermique s'arrête, le gaz se trouve alors dans l'état fondamental de plus basse
énergie. Deux cas sont possibles :
Si l'état fondamental est non-dégénéré, il n’y a plus qu'une configuration et l'entropie est nulle : =
0.
Si l'état fondamental est dégénéré, il existe en général un nombre fini d'états dégénérés. Si g est
ce nombre, l'entropie prend sa valeur minimale pour 0 = kB ln g.
Énergie et entropie
Cet exemple est directement issu de la théorie cinétique des gaz développée par Ludwig Boltzmann.
Simplement, au lieu d'associer une vitesse à chaque particule, on associe une énergie.
Considérons un système de N particules. On suppose que chaque particule i possède une énergie εi ≥ 0
multiple de δ et que les particules peuvent échanger deux à deux de l'énergie de façon conservative. Par
exemple :
L'état microscopique du système est constitué des quantités d'énergie de chaque particule. L'état
macroscopique du système ne dépend que du nombre de particules dans chaque niveau d'énergie. En
effet, au niveau macroscopique peu importe que ce soit la particule i qui ait un niveau d'énergie k et la
particule j un niveau 1, ou l'inverse, i au niveau l et j au niveau k.
Soit Nk le nombre de particules d'énergie εk = k δ. La multiplicité du système est définie par le nombre
de permutations de particules entre les niveaux d'énergie préservant le nombre de particules dans
chaque niveau :
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 13/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
La distribution de probabilités qui maximisent l'entropie suit une loi exponentielle, dite distribution de
Boltzmann :
En partant d'une distribution quelconque d'énergie initiale, par exemple toutes les particules avec la
même énergie εi = 1000 δ, et en laissant évoluer le système tel qu'aléatoirement les particules échangent
de l'énergie de façon conservative, la distribution des particules dans les niveaux d'énergie converge vers
la loi exponentielle P qui maximise l'entropie. Un système isolé qui suit la loi maximisant l'entropie est
dit à l'équilibre.
Ces équations modélisent aussi bien la distribution d'énergie entre les molécules d'un gaz échangeant de
l'énergie cinétique lors de chocs que la distribution de monnaie entre des agents échangeant de la
4
monnaie contre des biens et des services dans un système économique (voir éconophysique) .
Une diminution d'entropie pour un système est néanmoins possible, si l’augmentation de l’entropie du
milieu extérieur fait plus que compenser la diminution d’entropie du système. Le bilan reste conforme à
la deuxième loi de la thermodynamique : une augmentation globale de l'entropie assimilée à une création
d'entropie. Démontrons-le dans le cas d'un système composé d'un vase contenant de l'eau liquide que
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 14/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
l'on place à l'air libre à −10 °C soit 263 K. L'eau gèle à 0 °C (273 K) à la pression atmosphérique, et tant
qu'il y a coexistence de glace et d'eau liquide cette température de changement d'état reste constante et
égale à 273 K. La chaleur de solidification de l'eau : Lsolid est négative (c'est l'opposé de la chaleur de
fusion qui est positive), ainsi que l'entropie de solidification . En revanche, la
chaleur est reçue par le milieu extérieur et change de signe ( ) ; milieu extérieur dont la
température n'est pas affectée par l'échange avec le système beaucoup plus petit (notion de source de
chaleur). Elle reste constante et égale à 263 K. La variation d'entropie du milieu extérieur est alors égale
à:
Calculons alors le bilan entropique : ΔSsyst + ΔSext = (Lsolid / 273) + (–Lsolid / 263) = Lsolid (1/273 –
1/263).
Comme Lsolid < 0, il s'ensuit que le bilan est positif, et l'entropie créée sera d'autant plus grande que
l'écart des températures sera grand, ainsi que l'irréversibilité qui va de pair. Si la température du milieu
extérieur était très proche de 273 K, on se rapprocherait d'une transformation réversible et le bilan
entropique serait proche de zéro. En toute rigueur, le changement de température entre le système et le
milieu extérieur n'est pas brutal. Au voisinage de la paroi séparant le système du milieu extérieur, la
température varie de façon continue entre 273 K et 263 K. On dit qu'il y a un gradient de température ;
phénomène intimement associé à la notion d'irréversibilité.
L'expression « degré de désordre du système » introduite par Boltzmann peut se révéler ambiguë.
En effet, on peut aussi définir l'entropie comme une mesure de l'homogénéité du système
considéré. L'entropie d'un système thermique est maximale quand la température est identique en
tout point. De même, si on verse un liquide colorant dans un verre d'eau, l'entropie du système
coloré sera maximale quand, à la suite du mélange, la couleur du contenu sera devenue uniforme.
L'entropie d'un tableau parfaitement lisse et blanc est maximale et ne contient aucune information
visible. Si on y ajoute un point coloré, l'entropie diminue, et une information a été ajoutée. Ceci
illustre pourquoi, à la naissance de la théorie de l'information, la quantité d'information contenue
dans un système était appelée « néguentropie ». Tout système isolé, siège d'une agitation
aléatoire, tend spontanément à s'homogénéiser de manière irréversible. C'est pourquoi la notion
d'entropie, telle qu’elle est définie par la physique statistique, a été utilisée en théorie de
l'information par Claude Shannon au début des années 1950 pour mesurer la perte d'information.
Voir aussi l'article détaillé Entropie de Shannon.
Dans le cadre de sa théorie sur « l'évaporation » des trous noirs, le physicien Stephen Hawking a
proposé d'associer une entropie aux trous noirs. En effet, la création et l'annihilation de particules
virtuelles à proximité de l'horizon d'un trou noir provoquerait un rayonnement électromagnétique et
une perte de masse du trou noir, d'où le terme « évaporation ». À ce rayonnement, on associe une
température et une entropie. L'évaporation des trous noirs reste à être vérifiée expérimentalement.
Étymologie
Le mot entropie a été inventé par Clausius qui justifie son choix dans Sur diverses formes des équations
fondamentales de la théorie mécanique de la chaleur (1865) :
« Je préfère emprunter aux langues anciennes les noms des quantités scientifiques
importantes, afin qu'ils puissent rester les mêmes dans toutes les langues vivantes ; je
proposerai donc d'appeler la quantité l'entropie du corps, d'après le mot grec η τροπη
une transformation. C'est à dessein que j'ai formé ce mot entropie, de manière qu'il se
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 15/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
rapproche autant que possible du mot énergie ; car ces deux quantités ont une telle
analogie dans leur signification physique qu'une analogie de dénomination m'a paru
utile. »
(cité dans Dictionnaire d'histoire et de philosophie des sciences de Dominique Lecourt, chez PUF, 1999).
Dès la fin du XIXe siècle, la thermodynamique développée initialement pour les machines thermiques fut
appliquée avec succès aux phénomènes électriques et magnétiques, aux changements d'états, et aux
réactions chimiques. C'est pourquoi l'introduction traditionnelle de l'entropie fondée sur l'étude des
machines thermiques cycliques fut critiquée au début du XXe siècle pour son manque de généralité,
notamment par Born. Stimulé par cette critique, Carathéodory a remplacé en 1908 cette approche par un
traitement purement axiomatique fondé sur les propriétés d'intégrabilité des formes différentielles de
Pfaff.
En prenant comme postulat de sa thermodynamique d'équilibre qu'il existe des états inaccessibles par
voie adiabatique dans le voisinage de tout état d'équilibre donné, Constantin Carathéodory démontre
5 6
l'existence (locale ) d'une fonction entropie . En termes techniques, Carathéodory démontre que la
forme différentielle « transfert thermique élémentaire » δQ admet un facteur intégrant 1/T, c'est-à-dire
que :
Pour voir le lien avec le postulat initial, on remarque que tous les états accessibles par voie adiabatique
(δQ = 0) à partir d'un état initial Ei sont alors nécessairement situés sur la surface isentropique S = S (Ei)
= cste. Il existe donc des états inaccessibles par voie adiabatique, à savoir tous ceux qui ne sont pas situés
sur cette surface. Le théorème de Carathéodory établit la réciproque non-triviale : s'il existe des états
inaccessibles par voie adiabatique, alors il existe un facteur intégrant, et donc une fonction d'état
entropie (cf. le livre de Rocard).
Cette présentation axiomatique reçut à l'époque un accueil enthousiaste de Born, Landé, Chandrasekhar,
et Buchdahl, mais son orientation mathématique a rebuté nombre de physiciens, et elle est restée
7
relativement confidentielle jusqu'à ce qu'elle soit simplifiée à la fin des années 1950 par L. A. Turner,
8
Francis Sears, et Peter T. Landsberg .
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 16/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Planck (1926) - de façon purement mécanique à travers le déplacement d'un poids, sans référence au
concept de transfert thermique. Dans cette approche, la température apparait à la fin comme une
dérivée partielle de l'entropie, une fois que la différentiabilité de cette fonction a été démontrée.
Notes
a. en général, seulement quand les transformations subies par le système sont
réversibles.
b. Par contraste, la température n’est pas une grandeur extensive parce que la température d’un
système n’est pas la somme des températures de ses parties ; c'est au contraire une grandeur
intensive parce qu'un système constitué de deux parties à la même température est aussi à cette
température. Certaines grandeurs [Lesquelles ?] ne sont ni intensives ni extensives.
c. Cette formulation avec des lois de probabilités est à rapprocher de la formulation de l'entropie en
théorie de l'information.
Références
1. Rudolf Clausius, Communiqué à la Naturforschende Sur les autres projets Wikimedia :
Gesellschaft de Zurich, 27 janvier 1862 ; publié dans
Vierteljahrschrift, vol. vii. p. 48, Naturforschende entropie, sur le Wiktionnaire
Gesellschaft de Zurich ; in Poggendorff, Annalen,
may 1862, vol. cxvi. p. 73 ; in Philosophical
Magazine, S. 4. vol. xxiv. p. 81, 201 ; et in Journal
des Mathématiques de Paris, S. 2. vol. vii, p. 209.
2. Landau Lifchits, t. 5, chap. 1.
3. Sadi Carnot, Réflexions sur la puissance motrice du
feu et sur les machines propres à développer cette
puissance, Paris, Bachelier, coll. « Landmarks of
science », 1824, 118 p.
(OCLC 4758242 (https://worldcat.org/oclc/4758242&lang=fr)
, lire en ligne (https://books.google.fr/books?id=BuN
3PWUpQ_IC&pg=PP13)).
4. Victor M. Yakovenko, J. Barkley Rosser, Jr.,
Colloquium: Statistical mechanics of money, wealth,
and income, 2009
5. Sur ce point, lire par ex. : (en) Jos Uffink ; Bluff your
way in the second law of Thermodynamics, Studies
in History and Philosophy of Modern Physics, 2000
(ArXiv : cond-mat/0005327 (http://xxx.arxiv.org/abs/c
ond-mat/0005327)).
6. Constantin Carathéodory, Untersuchungen über die
Grundlagen der Thermodynamik, Mathematische
Annalen no 67, 1909, p. 355-86, reproduit dans :
Gesammelte Mathematische Schriften (Munich,
1955), p. 131-66.
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 17/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Bibliographie
Vulgarisation
Bernard Brunhes, La dégradation de l'énergie, éd. Flammarion, 1909 ; rééd. éd. Flammarion, coll.
Champs no 251, 1991.
P. W. Atkins ; Chaleur & Désordre - Le Second Principe de la thermodynamique, Collection
« L'univers des sciences », Belin/Pour La Science (1987) 216 pp. Par le célèbre professeur de
chimie-physique de l'Université d'Oxford, un ouvrage de vulgarisation de la thermodynamique des
points de vue macroscopique et microscopique. Niveau premier cycle universitaire.
Bernard Diu, Les atomes existent-ils vraiment, Paris, Odile Jacob, coll. « Sciences », 1997, 321 p.
(ISBN 978-2-7381-0421-2, notice BnF no FRBNF35862414 (https://catalogue.bnf.fr/ark:/12148/cb35862414z.public)).
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 18/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Bernard Jancovici ; Thermodynamique & Physique statistique, Ediscience (1969), 186 pp. Réédité
(sans les exercices) par Nathan Université dans sa collection « 128 sciences » (1996), 128
pp. L'auteur, professeur de physique théorique de l'université de Paris Sud-Orsay, a longtemps
enseigné la physique statistique à l'ENS Ulm (MIP & DEA de physique théorique). Ce petit ouvrage
est un cours d'introduction à la thermodynamique via la physique statistique élémentaire. Niveau
premier cycle universitaire.
Frederic Reif ; Physique statistique, Cours de physique de Berkeley (vol. 5), Armand Colin (1972),
398 pp. réédité par Dunod. Ce volume 5 du célèbre Cours de physique de Berkeley des années
1960 est un incontournable absolu.
Michel Bertin, Jean-Pierre Faroux et Jacques Renault, Thermodynamique, Paris, Dunod,
coll. « Cours de physique » (no 1), 1976, 324 p. (ISBN 978-2-04-001703-3,
OCLC 489138684 (https://worldcat.org/oclc/489138684&lang=fr)).
Jean-Pierre Faroux et Jacques Renault, Thermodynamique : cours et 136 exercices corrigés :
1re année MPSI, PCSI, 2e année MP, PSI, PC, Paris, Dunod, coll. « J'intègre : prépas
scientifiques », 1997, 418 p. (ISBN 978-2-10-003099-6,
OCLC 465672924 (https://worldcat.org/oclc/465672924&lang=fr), notice BnF
no FRBNF36171989 (https://catalogue.bnf.fr/ark:/12148/cb361719894.public)).
Stéphane Olivier et Hubert Gié, Thermodynamique : première année et deuxième année, Paris,
Technique et documentation - Lavoisier, coll. « sciences physiques », 1996, 512 p.
(ISBN 978-2-7430-0133-9, notice BnF no FRBNF35843656 (https://catalogue.bnf.fr/ark:/12148/cb358436568.public)).
Georges Gonczi, Comprendre la thermodynamique : cours avec exercices résolus et commentés :
niveau L, Paris, Éditions Ellipses, coll. « Physique-LMD, Universités-Écoles d'ingénieurs », 2005,
260 p. (ISBN 978-2-7298-2363-4, OCLC 70812214 (https://worldcat.org/oclc/70812214&lang=fr))
Ouvrages de référence
Lev Landau et Evgueni Lifchits, Physique théorique, t. 5 : Physique statistique [détail des éditions] ;
édition anglaise : (en) Lev Landau et Evgueni Lifchits, Statistical Physics, Pergamon Press, 1969
(lire en ligne (https://archive.org/details/ost-physics-landaulifshitz-statisticalphysics)).
Georges Bruhat, Cours de Physique Générale, Thermodynamique, Masson (réimpr. 1968,
6e édition), 912 p.
Ce cours de référence, devenu un « classique », est accessible à partir du premier cycle
universitaire. Cette 6e édition a été revue et augmentée par Alfred Kastler, prix Nobel de
physique 1966 pour ses travaux en physique atomique, notamment sur le pompage optique,
utile au développement des laser.
Yves Rocard, Thermodynamique, Masson (réimpr. 1967 (2e édition)), 540 p.
Père de l'ancien premier ministre Michel Rocard, l'auteur prit, après la Seconde Guerre
mondiale, la suite de Georges Bruhat comme directeur du laboratoire de physique de l'École
normale supérieure de la rue d'Ulm. Cet autre cours de référence, devenu également un
« classique », est accessible à partir du premier cycle universitaire.
(en) Percy W. Bridgman, The Nature of Thermodynamics, Harvard University Press, 1941, 230 p.
Réflexions sur le sens des 2 principes de la thermodynamique. L'auteur, Brigman, a reçu le
prix Nobel de physique 1946 pour ses travaux sur les fortes pressions. Ce livre contient
quelques équations, accessible au niveau du premier cycle universitaire.
(en)Mark W. Zemansky et Richard H. Dittman, Heat & Thermodynamics : An Intermediate
Textbook, Auckland, McGraw-Hill, 1981 (réimpr. 1981, 6e édition), 6e éd., 544 p.
(ISBN 978-0-07-066647-4 et 0-07-066647-4)
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 19/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 20/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
GzjS0IhcC&printsec=frontcover))
Aspects historiques
Voir aussi
Articles connexes
Affinité chimique Entropie métrique Néguentropie
Conjecture de Cercignani Entropie de Shannon Physique statistique
Énergie interne Enthalpie Principe d'entropie
Énergie libre Enthalpie libre maximale
Entropie (fermions) Exergie Théorème de Gibbs
Entropie d'un corps pur Formule de Boltzmann Théorème H
Liens externes
«Entropie : la théorie du chaos», La Méthode scientifique, France Culture, 18 février 2020 (https://
www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-emission-du-mardi-
18-fevrier-2020)
(en) Tomasz Downarowicz, « Entropy » (http://www.scholarpedia.org/article/Entropy), sur
Scholarpedia
Roger Balian ; Entropie, information : un concept protéiforme (http://www-spht.cea.fr/articles/t00/15
8/) : texte d'une conférence donnée à l'Université de tous les savoirs (239e conférence : Les États
de la matière, 26 août 2000, Conservatoire national des Arts et Métiers, Paris). Publiée par Yves
Michaud (éditeur) ; Université de tous les savoirs (Vol. 4), Odile Jacob (2001) p. 947-959 / Repris
en édition de poche : Université de tous les savoirs (Vol. 17), Poches Odile Jacob (2002)
p. 205-220
Roger Balian ; Le temps macroscopique (http://www-spht.cea.fr/articles/t94/009/) : texte d'une
conférence sur l'irréversibilité et l'entropie donnée lors du premier colloque « Physique &
Interrogations Fondamentales » : Le Temps et sa Flèche organisé par la Société Française de
Physique le 8 décembre 1993 à Paris. Publié par : Étienne Klein & Michel Spiro (éditeurs) ; Le
Temps et sa Flèche, Les Éditions Frontières (1994) p. 155-211. Repris en poche par Flammarion,
Collection Champs (1995).
(en) Olivier Darrigol ; The origins of the entropy concept (http://parthe.lpthe.jussieu.fr/poincare/texte
s/decembre2003.html) : texte (en anglais) d'une conférence introductive donnée par l'auteur
(REHSEIS-CNRS) au séminaire Poincaré du 6 décembre 2003 consacré à l'entropie. Publié dans :
J. Dalibard, B. Duplantier et V. Rivasseau (eds.) ; Poincaré seminar 2003: Bose--Einstein
condensation - Entropy, Progress in Mathematical Physics 38, Birkhäuser (2004)
(ISBN 3-764-37106-4).
Roger Balian ; Entropy, a Protean Concept (http://www-spht.cea.fr/articles/t03/193/) : texte (en
anglais) d'une conférence donnée au séminaire Poincaré du 6 décembre 2003 consacré à
l'entropie. Publié dans : J. Dalibard, B. Duplantier et V. Rivasseau (eds.) ; Poincaré seminar 2003:
Bose--Einstein condensation - Entropy, Progress in Mathematical Physics 38, Birkhäuser (2004)
(ISBN 3-764-37106-4).
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 22/23
02/11/2020 Entropie (thermodynamique) — Wikipédia
Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes conditions ;
d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails, ainsi que les crédits
graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner la licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par le paragraphe
501(c)(3) du code fiscal des États-Unis.
https://fr.wikipedia.org/wiki/Entropie_(thermodynamique) 23/23