Il était professeur à l’École supérieure technique de Zurich en 1855 et il eut Roentgen dans son cours sur la théorie de la chaleur, l’élasticité et les vibrations élastiques. Après les travaux de Joule l’idée est répandue que la chaleur n’est pas de la matière…
Clausius développe le principe de Carnot en supposant que la production d’un travail mécanique exige non pas une modification de la répartition de la chaleur (du corps chaud vers le corps froid) mais une dépense de chaleur[1] (point d’appui sur l’équivalent mécanique de la chaleur de Mayer). Depuis 1800 on s’opposait à la perception phlogistique de la chaleur (avec l’idée d’un mouvement de particules).
Mais Clausius exprime avec la notion de différentielle « l’état de fait » des transformations thermodynamiques.
Définition de l’entropie
En associant une réflexion théorique à partir des échanges thermiques et l’interprétation mathématique qui en résulte, Clausius introduit en 1865 la fonction S nommée entropie dont la différentielle – l’évolution infinitésimale sur le chemin d’une transformation – est :
L’évolution de la différentielle se traduit par un cheminement entre deux états thermodynamiques A et B. Si ce passage est réversible (le système peut retrouver l’état initial A après avoir atteint B (en inversant la flèche du temps) :
L’intégrale à la même valeur qu’elle que soit le chemin parcourut, la transformation est donc réversible. Ainsi peut-on écrire que :
Mais lorsqu’un système thermodynamique évolue entre deux états A et B de manière irréversible (le système ne peut pas retrouver exactement l’état initial A, l’intégrale n’est pas égale à la variation d’entropie DS donc :
De plus, une transformation est adiabatique lorsqu’il n’y a pas d’échange de chaleur entre le système et le milieu extérieur. Et en envisageant l’évolution de la transformation dans le temps, pour toutes ses parties infinitésimales :
dQ = 0.
C’est pourquoi, dans une vision systémique et élémentaire, pour un système isolé, la transformation réelle (irréversible) est adiabatique (dQ=0) donc :
S(B) > S(A) car
Conséquences épistémologiques
La déduction est évidente ! Pour deux états qui se succèdent dans le temps – c’est-à-dire de A (état initial) vers B (état final) – au sein d’un système irréversible et thermiquement isolé, l’entropie augmente en fonction du temps.
En prolongeant cette réflexion systémique, et en considérant l’Univers comme un système isolé (l’analogie est basée sur l’impossibilité de trouver un « milieu extérieur » à l’Univers puisqu’il contient tout), au cours d’une transformation réelle c’est-à-dire irréversible, il y a création d’entropie.
Par ce raisonnement, Clausius introduit la notion d’entropie comme un critère quantitatif pour décrire l’évolution des systèmes dans lequel il y a un échange de chaleur. D’où dérive l’analyse thermodynamique moderne… Mais cette question de l’entropie, d’un point de vue macroscopique (à l’échelle globale du système) va rapidement être démontrée au point de vue microscopique par l’analyse statique des gaz. Pour comprendre cela, il faut imaginer…
En 1827, le botaniste Brown découvre le « mouvement brownien » qui reste incompris, mais Clausius et Krönig élaborent la théorie cinétique des gaz. La pression d’un gaz est définie comme une conséquence mécanique du choc des molécules sur une paroi. Il existe donc un rapport entre la pression et l’énergie cinétique moyenne. Ensuite, avec la loi de Boyle-Mariotte-Gay-Lussac (démontrée expérimentalement), la loi d’Avogadro définie ce rapport comme proportionnel. L’énergie interne d’un gaz est donc l’énergie cinétique des molécules. Sans les calculer (il faut attendre la théorie des quanta), Clausius suppose également la présence des énergies de rotations et de vibrations des molécules et il montre que malgré les grandes vitesses moléculaires, la vitesse de diffusion et la conduction calorifique des gaz est petite. Mais c’est à Maxwell que l’on doit le calcul du libre parcourt moyen et la répartition de vitesse des molécules.
[1] D’un point de vue énergétique, cette dépense de chaleur représente une « perte d’information » et donc une augmentation d’entropie (voir la démonstration qui suit).
Vous devez être connecté pour poster un commentaire.