Académique Documents
Professionnel Documents
Culture Documents
CONCLUSION
REFERENCES BIBLIOGRAPHIQUES
INTRODUCTION
1- Le concept d’entropie
L’entropie est la dernière et la plus mystérieuse des cinq grandeurs physiques (température,
pression, volume, énergie interne, entropie) définissant l’état d’un système thermodynamique,
c'est-à-dire d’un ensemble matériel délimité capable d’échanger de la chaleur et du travail
avec le milieu extérieur.
Le terme entropie désigne, dans la thermodynamique classique, une fonction d'état extensive.
En d'autres termes, une fonction d'état proportionnelle à la quantité de matière en présence.
2- Thermodynamique
Depuis le milieu du XXe siècle, le concept d'entropie a trouvé une application dans le
domaine de la théorie de l'information, décrivant une perte analogue de données dans les
systèmes de transmission de l'information.
2- Dans la thermodynamique
Considéré comme l'un des pères de la thermodynamique, Clausius fournit des bases
importantes pour le développement des propositions fondamentales. Clausius qui assurait les
fondements de la thermodynamique avec des définitions claires et des limites définies.
L'attention de Clausius s'est concentrée sur la nature des phénomènes moléculaires. De l'étude
de ces phénomènes se trouvaient les propositions qu'il formulait lui-même sur les lois de la
thermodynamique. C'est Clausius qui a introduit le terme "Entropia" en thermodynamique et a
utilisé ce concept pour étudier des processus à la fois réversibles et irréversibles dans ce
domaine de la connaissance. Clausius a permis de relier le concept d'entropie au concept de
dissipation d'énergie en tant que concepts "siamois" en raison de leur relation étroite. Cela
marquait une différence substantielle avec des concepts similaires qui essayaient de décrire
les mêmes phénomènes.
La base de cette théorie considérait la chaleur comme une forme de mouvement. Cela a
permis de comprendre que la quantité de chaleur nécessaire pour chauffer et augmenter le
volume d'un gaz dépend de la manière dont ladite température et ledit volume changent au
cours du processus.
Les dernières contributions majeures de Clausius à la science datent de 1857 et 1858 et sont
relatives à la théorie cinétique des gaz. Bien qu'il ne soit pas le premier à avoir conçu cette
dernière, déjà proposée et discutée par Joule et Krönig notamment, il prend rang avec
Maxwell parmi ses fondateurs.
Il introduisit le concept du libre parcours moyen et établit l'importante distinction entre
l'énergie de translation et l'énergie interne d'une particule de gaz. De plus, on lui reconnaît
généralement le mérite d'avoir, par ses travaux théoriques, jeté un pont entre la théorie
atomique et la thermodynamique.
Dans toutes ses recherches relatives à cette dernière discipline, Clausius s'inspira longuement
des idées de ses prédécesseurs : Carnot pour l'énoncé du deuxième principe ; Rankine et W.
Thomson pour la formulation du concept de l'entropie, ce qui n'enlève rien à l'ampleur de sa
propre contribution à la science. Il mit sous forme mathématique et sut exposer avec clarté des
concepts que d'autres n'avaient fait qu'entrevoir.
Par ailleurs, les travaux de Clausius sur les molécules individuelles des gaz ont été décisifs
pour le développement de la théorie cinétique des gaz.
Cette théorie a été développée par James Maxwell en 1859 sur la base des travaux de
Clausius. Clausius le critiqua en principe et sur la base de ces critiques, Maxwell fit une mise
à jour de la principale contribution de Clausius dans ce domaine a été la mise au point d'un
critère permettant de distinguer les atomes et les molécules, montrant que les molécules de
gaz étaient des corps complexes avec des parties constitutives qui bougent en 1867.
III- Importance de l’entropie dans la cybernétique
L'entropie permet aussi de quantifier le nombre minimum de bits sur lesquels on peut coder
un fichier, mesurant ainsi les limites que peuvent espérer atteindre les algorithmes de
compression sans perte comme le codage de Hoffman, puis ultérieurement l'algorithme LZH.
L'entropie est utilisée pour numériser une source en utilisant le minimum possible de bits sans
perte d'information. Si le canal de transmission de l'information a une capacité de C bits par
seconde et si les symboles qu'envoie la source ont une entropie H, alors la vitesse maximale
de transmission des symboles est de C/H symboles par seconde, cette vitesse pouvant être
approchée d'aussi près que l'on veut au moyen d'un système de codage adéquat des symboles.
-L’entropie est une loi statistique, probabiliste d'effacement des différences et d'évolution vers
la moyenne, ce qui suppose qu'il y avait une différenciation improbable au départ. L'entropie
résulte d'une perte de contrainte. Au contraire, par sa conservation et sa reproduction, la vie
est un phénomène fortement différencié, hautement improbable et dont l'entropie est négative
(on dit "néguentropique" que certains écrivent "négentropique")
-l'entropie pose la question de l'irréversibilité du temps mais ce n'est pas ce qui la fonde car le
temps est déjà irréversible dans toute trajectoire, toute dynamique, toute évolution continuant
le chemin parcouru. L'ordre des causes est toujours le même, le temps a donc toujours la
même l'entropie) n'est pas réductible à l'énergie ni à une force car elle exprime une
improbabilité, une différence, un caractère non linéaire (significatif) et n'a aucune
proportionnalité sinon statistique (probabilités)
Les critiques de la terminologie affirment que l'entropie n'est pas une mesure du « désordre »
ou du « chaos », mais plutôt une mesure de la diffusion ou de la dispersion de l'énergie vers
plus de micro-états. L'utilisation par Shannon du terme « entropie » en théorie de
l'information fait référence à la quantité de code la plus compressée ou moins dispersée
nécessaire pour
CONCLUSION
https://jeanzin.fr/ecorevo/sciences/entropie.htm
https://www.culturelibre.ca/2017/12/12/quelques-mots-sur-la-theorie-cybernetique/
https://stringfixer.com/fr/Entropy_(order_and_disorder)