Au XVIIIe siècle, l'énergie thermique est déjà transformée en énergie mécanique dans les machines à vapeur sans que l'on sache à l'époque expliquer cette relation. (©photo)
L'entropie est une mesure de l'incertitude ou du désordre dans un système, quantifiant le nombre de configurations possibles que le système peut adopter. En thermodynamique, elle est souvent associée à la quantité d'énergie inutilisable dans un système, augmentant généralement au fil du temps, conformément au second principe de la thermodynamique.
Définition
L’entropie caractérise l’aptitude de l’énergie contenue dans un système à fournir du travail, et donc également son incapacité à le faire : plus cette grandeur est élevée, plus l’énergie est dispersée, homogénéisée et donc moins utilisable (pour produire des effets mécaniques organisés).
Elle définit l’état d’un système thermodynamique, c'est-à-dire d’un ensemble matériel délimité capable d’échanger de la chaleur et du travail avec le milieu extérieur. Plus généralement, toute transformation d’un système thermodynamique au contact d’un milieu extérieur s’effectue avec une croissance du bilan entropique global. Si une injection d’énergie organisée abaisse l’entropie propre du système, elle est compensée par une augmentation entropique supérieure du milieu extérieur.
Lorsqu’un système thermodynamique est isolé sans échange possible avec l’extérieur, il ne peut qu’évoluer spontanément vers le maximum de son entropie pour tendre vers un état d’équilibre définitif (2e principe) alors que son énergie interne reste conservée (1er principe).
L’entropie est la dernière et la plus mystérieuse des cinq grandeurs physiques, à savoir la température, la pression, le volume, l'énergie interne et l'entropie.
Découverte et notions physiques
La notion d’entropie a été introduite par Rudolf Clausius en 1865. Il avait entrepris d’intégrer dans une nouvelle discipline, la thermodynamique, l’ensemble des progrès faits en physique de la chaleur(1).
Clausius s’attaqua à la traduction mathématique de l’équivalence chaleur-travail de Joule (W=JQ). Grâce à la machine à vapeur, on savait quantifier le travail mécanique d’un gaz poussant un piston dans un cylindre à pression constante (∆ W = p ∆ V) mais cette relation n’avait pas encore été transposée à son équivalent, la chaleur.
Clausius, assimilant la température à une pression, proposa alors par analogie la relation ∆Q=T ∆S, S étant une grandeur d’état additive (extensive) nouvelle qu’il baptisa entropie (« transformation » en grec), son accroissement s’exprimant en Joules par degrés Kelvin (J/K).
A la lumière du second principe imposant à la chaleur d’aller toujours du chaud vers le froid, la variation d’entropie s’est alors révélée être la grandeur traduisant le sens de toute transformation irréversible d’un système thermodynamique par l’inéquation ∆S≥0. Mais à ce stade l’entropie macroscopique restait une abstraction, son sens physique restant une énigme.
Clausius établit que la chaleur est un phénomène mécanique dû au mouvement des particules (molécules) et la température une mesure de leur agitation. Simultanément, Maxwell, appliquant à la physique des particules les nouvelles méthodes de l’analyse statistique, parvint à retrouver la plupart des résultats macroscopiques de la thermodynamique, en particulier la loi des gaz parfaits. Mais à l’échelle microscopique, ils ne purent mettre en évidence d’irréversibilités pouvant expliquer le deuxième principe et où se cachait l’entropie.
Ce fut Boltzmann qui découvrit en 1873 que la fonction de distribution statistique des positions et des vitesses des molécules obéissait à une évolution irréversible : pour un même état macroscopique (volume V, énergie interne U), constitué déjà d’un nombre gigantesque de particules (>1023 dans une seule mole de gaz parfait), il existe un nombre Ω de distributions possibles des positions et des vitesses encore beaucoup plus « immensément grand ».
Or la probabilité des « équirépartis » dans tous les états possibles croît mathématiquement avec leur nombre au détriment des autres. À l’échelle microscopique, ces états Ω équirépartis sont si dominants en nombre et en temps d’occupation qu’ils constituent l’état d’équilibre macroscopique le plus probable vers lequel, par agitation thermique, le système a tendance à évoluer spontanément. Le ressort probabiliste du second principe qui pousse le chaud vers le froid était découvert. Boltzmann a alors lié l’entropie d’un système au nombre Ω par la relation :
S = K.log Ω où K est la constante de Boltzmann (1,38110.10-23)
On retrouve que plus les particules d’un système sont, en positions et en vitesses, dispersées de façon homogène entre leurs Ω états possibles, plus l’entropie de ce système est grande et sa capacité à fournir du travail limitée.
En 1904, le troisième principe (Nernst) stipulait que l’entropie est nulle au zéro absolu puisqu’un ordre parfait y règne, la dotant ainsi d’une échelle de mesure absolue(2).