La thermodynamique

Introduisons l'entropie suivant sa conception classique, celle de son comportement pour les observateurs macroscopiques.
Le comportement de l'entropie peut se décrire par comparaison à celui de l'énergie. L'énergie peut être transférée entre les systèmes, mais est toujours globalement conservé. Dans certains types de processus, l'entropie peut être transférée entre les systèmes, mais est préservée, comme l'énergie. Ces processus sont dits réversibles, ce qui signifie qu'ils peuvent se dérouler à l'envers, symétriquement par rapport au temps. D'autres processus créent de l'entropie (sa quantité totale augmente). Mais aucun processus ne peut jamais éliminer d'entropie, de sorte que les processus qui en créent sont irréversibles.

Cette approche par la physique macroscopique (= vue à l'échelle humaine, ou généralement non-microscopique; hélas la seule présentée dans de nombreux cours de thermodynamique) reste insatisfaisante car elle laisse à la nature de l'entropie, son processus de création et son irréversibilité, des allures de mystères.
Dans les lois fondamentales (de la physique quantique sans mesure) qui décrivent les processus élémentaires (microscopiques), l'entropie a une définition claire, mais tous les processus sont réversibles, de sorte que l'entropie ainsi définie se conserve. Ainsi, le processus de création d'entropie est compris comme un processus émergent, qui ne «se produit» que relativement à l'approximation de comment les choses sont résumables en pratique quand elles impliquent de grands groupes assez désordonnés de particules. Cette opération d'approximation affecte la conception des états effectifs du système à des instants successifs, et donc les valeurs successives de l'entropie qui sont calculées à partir de ces états effectifs. Un autre effet de ce processus émergent de création d'entropie sera la décohérence quantique, qui est la circonstance habituellement requise pour qualifier un processus de mesure en physique quantique. Ces explications approfondies de la définition microscopique et de la création d'entropie, seront présentés dans les pages suivantes.

Chaleur et température

Introduisons le concept de la température comme une quantité physique, qui est positive dans la plupart des cas dans son sens physique correct, à savoir par rapport à son vrai zéro physique, duquel les conventions habituelles de désignation de température diffèrent par l'addition d'une constante: le vrai zéro physique de la température, appelé "zéro absolu", correspond aux chiffres conventionnels de -459,67 ° F ou -273,15 ° C. La température en degrés Kelvin (K) se définit comme celle respectant le zéro absolu et de même unité que les degrés Celsius (1/100 de la différence entre les températures de fusion et d'ébullition de l'eau sous la pression atmosphérique terrestre).
Il y a une valeur maximale pour l'entropie d'un système matériel évoluant dans des limites données de volume et d'énergie. Un corps ayant atteint son entropie maximale dans ces limites, est dit être en équilibre thermique, un état souvent déterminée par ces conditions (de contenu matériel, de volume et de l'énergie). A chaque système en équilibre thermique, est également attribué une autre quantité physique importante appelée sa température, définie comme suit.
L'entropie n'est habituellement pas transférée seule mais avec une quantité d'énergie. Un mélange d'une quantité d'énergie et une quantité d'entropie pouvant circuler d'un système à l'autre, est une quantité de chaleur. (L'énergie et l'entropie ne sont pas comme des objets distincts qui se déplacent, mais plutôt comme des fluides à 2 substances qui se "mélangent" par diffusion lors des contacts, et seuls les bilans des variations de montants de chaque côté comptent). La chaleur peut prendre plusieurs formes: contact direct ou rayonnement.

Le ratio énergie / entropie d'une quantité de chaleur, est appelé sa température.
La température d'un système en état d'équilibre thermique, est la température des petites quantités de chaleur qu'il est prêt à transférer de ou vers l'extérieur, évoluant entre des états d'équilibre thermique de températures voisines. Précisément, la température est la dérivée (lors d'échanges de chaleur alors que le système suit un changement graduel réversible entre des états d'équilibre thermique),
T = δQ/dS
De cette façon, les variations dE d'énergie, dS d'entropie et dV de volume, d'un système à température T lors du transfert (réversible) d'une petite quantité de chaleur à la même température, sont liées par

dE = TdSPdV .

TdS est l'énergie reçue par la chaleur et − PdV est l'énergie reçue du travail de pression.
Metaphoriquement, les propriétés de la chaleur et de la température sont comparables à l'idée d'un marché des ordures à prix négatifs: le dictionnaire est
Thermodynamique
Marché des ordures
entropie masse d'ordures
énergie monnaie
−température cours negatif des ordures

Comme le flux de chaleur doit préserver l'énergie, mais peut créer de l'entropie, il ne peut aller que d'objets "chauds" (de température plus élevée, diminuant l'entropie d'une plus petite quantité pour l'énergie transférée) à des objets "froids" (de température plus basse, recevant d'entropie plus élevé pour cette énergie). Cette quantité de chaleur augmente son entropie en atteignant l'objet avec une température plus basse.

Habituellement, tout transfert de l'entropie entre systèmes a un coût: c'est un processus irréversible, qui crée plus d'entropie. Par exemple autour d'une température donnée, les flux de chaleur sont environ proportionnels à la différence de température entre les corps. Pour les rendre plus rapides, la différence de température doit augmenter, de sorte que le transfert crée plus d'entropie. Ou, un dégagement de chaleur rend l'environnement temporairement plus chaud, ce qui rend ce transfert plus coûteux. Ce coût peut être réduit (approchant la réversibilité) en ralentissant le transfert.

La chaleur est dirigée du chaud vers le froid par le fait que les corps chauds envoient leur chaleur plus rapidement que les froids. Ainsi le transfert de chaleur est plus rapide à des températures plus élevées, déjà en termes d'énergie, mais aussi généralement en termes d'entropie (une possibilité de rapidité qu'on peut remplacer par le fait de produire moins d'entropie). En particulier un rayonnement de température plus élevée contient à la fois plus d'énergie et plus d'entropie, comme on détaillera plus bas. A la limite, l'énergie pure (qu'on peut voire comme chaleur de température infinie) peut souvent être transférée réversiblement.

Pour que les processus de la vie (et les machines) créant de l'entropie puissent continuer à fonctionner, ils ont besoin d'évacuer leur entropie. Comme cela ne peut habituellement se faire que porté par l'énergie sous forme de chaleur, ces systèmes ont besoin de recevoir de l'énergie pure (ou d'énergie plus chaude, avec moins d'entropie) en retour. C'est la pureté de l'énergie reçue qui la rend utile, contrairement à l'énergie thermique très abondante dans le milieu. Parfois, l'évacuation de chaleur en débit suffisant est également un problème, de sorte que, par exemple, les centrales doivent être près des rivières pour libérer leur chaleur dans l'eau.

L'entropie dans l'Univers

Par exemple, la vie sur Terre comporte de nombreux processus irréversibles, qui créent de l'entropie en permanence. Comme la quantité d'entropie pouvant être contenue dans des limites données de volume et d'énergie est limitée, le maintien de cette quantité vers des valeurs moyennes bien en-deça de ce maximum (pour permettre à la vie de continuer) est rendu possible par l'évacuation continue de l'entropie créée de la Terre vers l'espace, sous forme de rayonnement infrarouge (qui porte bien plus d'entropie que la lumière du soleil en proportion de sa quantité d'énergie parce qu'il est plus froid).
Ce rayonnement traverse ensuite l'espace interstellaire et finit principalement dans l'espace intergalactique. Ainsi, le développement de la vie n'est pas seulement redevable à l'énergie de la lumière du Soleil (chaleur de température élevée), mais aussi à l'espace intergalactique toujours plus grand et froid, que l'expansion de l'univers nous offre comme une gigantesque poubelle à entropie. Les deux sont complémentaires, comme deux marchés avec des prix différents offrent une occasion de profit par le commerce entre les deux.

Pourtant, toute l'entropie de la lumière visible et infrarouge des étoiles et des planètes, n'est qu'une infime partie de l'entropie de l'univers. Parmi seuls rayonnements électromagnétiques, le fond diffus cosmologique a déjà énergie comparable à la lumière visible et infrarouge (1); et donc beaucoup plus d'entropie (oubliant l'entropie de particules pratiquement indétectables : matière noire, neutrinos, gravitons ...).

Mais la plupart de l'entropie de l'Univers est constitué des trous noirs géants dans les centres galactiques. En effet, la chute de matière dans les trous noirs, contribuant à la croissance de leur taille et donc de leur entropie (proportionnelle à la surface de leur horizon), est parmi les processus les plus radicalement irréversibles de l'Univers (qui sera seulement inversé après une durée très déraisonnable par "évaporation" dans un univers beaucoup plus froid ...)

Quantités de matière

Pour exprimer les comportements de la température et de l'entropie quantitativement, on doit les comparer à d'autres grandeurs physiques. Précisément, les quantités de l'entropie sont essentiellement convertibles en quantités de matière. Expliquons d'abord ce que c'est.

La quantité de matière compte le très grand nombre d'atomes ou de molécules contenus dans des objets macroscopiques. Ainsi, sa signification profonde est celle de nombres naturels, mais trop grands pour que le nombre unité (un atome ou une molécule individuelle) soit d'une quelconque importance.
Ce concept vient de la chimie, les réactions chimiques utilisant des ingrédients dans des proportions précises pour former des molécules contenant les bons nombres d'atomes (ce fut d'abord un fait observé au début du 19e siècle, jusqu'à ce que son explication en termes d'atomes soit clairement établie dans le courant du siècle).

L'unité conventionnelle pour les quantités de matière est la mole: 1 mol signifie
NA molecules, où NA≈ 6.022×1023 est le nombre d'Avogadro. Donc n mol d'une substance pure contient n×NA molecules de cette substance.
Ce nombre vient du choix que 1 mol de Carbone-12 ait une masse de 12 grammes (donc en gros, 1 mol d'atomes d'hydrogène pèse 1 gramme = 0.001 kg, avec une légère différence due à l'énergie de liaison nucléaire, convertie en masse par E=mc2).
On peut le voir comme une quantité NA ≈ 6.022×1023 mol-1.

La loi des gaz parfaits

Comme sera déduit plus tard de la nature de l'entropie, les gaz sont sujets en bonne approximation à la loi des gaz parfaits. Cette approximation vaut quand leur densité est beaucoup plus faible que dans la phase liquide, de sorte que chaque élément de gaz (atome ou molécule) passe en moyenne bien plus de temps à se déplacer librement qu'à interagir significativement avec ses voisins.
La loi des gaz parfaits est PV=nRT
P est la pression, V est le volume, T est la température, et n est la quantité de matière du gaz (à savoir, nNA est le nombre d'entités indépendantes dans le gaz: atomes ou molécules isolés les uns des autres à chaque instant).
La quantité PV est homogène à une énergie (d'unité conventionnelle J = Joule): l'énergie nécessaire pour pousser un volume V de gaz (le volume balayé par la poussée) à sa pression P. C'est aussi 2/3 EE est l'énergie cinétique de la seule vitesse des molécules de gaz (ignorant leur énergie de rotation et d'autres mouvements internes) si cette vitesse est bien plus petite que la vitesse de la lumière. Ici, dans E=3/2 PV, le facteur 3 vient du nombre de dimensions de l'espace et le facteur 1/2 vient de la formule de l'énergie cinétique. (²)

Unités physiques de la température et de l'entropie

Dans la loi des gaz parfaits, la constante des gaz R = 8,314 J mol−1K−1, est la constante de conversion naturelle par laquelle la température T (exprimée en Kelvin), sous forme du produit RT, intervient physiquement comme composite d'autres grandeurs physiques. Cette constante des gaz n'est jamais loin du moindre phénomène impliquant température, même pour des solides au lieu de gaz, de sorte que la température (et donc l'entropie) n'a sa propre unité que par convention, tandis que sa vraie nature physique est celle d'un composite d'autres grandeurs physiques.

A savoir, la loi des gaz parfaits présente l'expression physiquement signifiante RT de la température, comme une énergie par quantité de matière (ce qui explique les unités présentes dans la valeur de R). Elle rend également l'entropie (d'abord exprimée en J/K) comparable à une quantité de matière.
Microscopiquement, les moles sont remplacées par des nombres de molécules, de sorte que le facteur de conversion est la constante de Boltzmann k= R/NA: une température T apparaît au microscope comme une quantité typique d'énergie E = kT, tandis qu'une quantité d'entropie S devient un nombre réel S/k.

Ceci suggère que les variations de température d'un objet donné seraient proportionnelles aux montants transférés d'énergie thermique.

Capacité thermique

La capacité thermique d'un objet est CQ/dT (rapport d'une petite quantité d'énergie reçue par la chaleur δQ, à la variation de température dT, mais il reste à préciser si on le considère à volume constant). Il peut être considéré comme représentant une sorte de "quantité de matière" thermiquement pertinente dans un objet.

En effet pour certains types de matière ordinaire et certaines gammes de température, il est plutôt stable (indépendant de la température), proche d'une valeur qui est le produit de sa quantité de matière par certains nombres précis (généralement demi-entiers) représentant les degrés de liberté impliqués dans l'agitation thermique. Par exemple, la capacité thermique de l'eau à 25 °C, est 8,965 fois sa quantité de matière (de molécules d'eau). Ce nombre est proche de 9 = 3*3, soit 3 atomes par molécule, fois 3 dimensions de l'espace (chaque atome pouvant se mouvoir dans 3 dimensions).

Tant que la capacité thermique C d'un objet est stable, les variations de l'entropie, intégrale sur T de dS = C.dT/T, sont celles de C.ln T.
De tels cas se produisent principalement seulement autour des gammes de températures habituelles, en des intervalles successifs de température, chacun avec une valeur différente de la capacité thermique.
D'autres situations peuvent se produire: la capacité thermique peut changer brusquement pendant la transition de phase (entre solide, liquide et gaz), et progressivement dans d'autres cas.
Plus un objet est chaud, plus la matière est divisée en plus petits composants capables de se déplacer indépendamment les uns des autres (des molécules aux atomes à des particules individuelles dans les plasmas), donc une capacité thermique plus élevée. Aux températures plus élevées, augmenter la température par une valeur additive donnée nécessite plus d'énergie; donc, une augmenter la température par un facteur multiplicatif donné entraine une plus grande augmentation d'entropie.

Entropy zéro (troisième principe de la thermodynamique)

Près du zéro absolu de température, une fonction logarithmique (comme l'entropie lorsque la capacité est constante) diminuerait à l'infini. Mais l'entropie ne peut pas décroitre à l'infini: le troisième principe de la thermodynamique énonce que pour tout système il existe un zéro absolu de l'entropie, donc une définition absolue de l'entropie de l'état d'un système en forme de quantité toujours positive. Ce zéro de l'entropie est souvent atteint au zéro absolu de température par des cristaux parfaits et d'autres systèmes maintenus dans des volumes limités (mais pas toujours: en plus des gaz détendus dans des volumes illimités, quelques autres substances gardent une entropie positive au zéro absolu de temperature, ce qu'on appelle l'entropie résiduelle).

Ainsi, la capacité thermique d'un objet doit aussi converger vers zéro à très basse température (c'est ainsi en pratique bien que ce ne soit pas une conséquence strictement logique), donc devenir bien moindre que son nombre de molécules: les atomes et les molécules simples ne bougent plus individuellement, mais plutôt seulement collectivement ou rarement. Ce sera expliqué par la nature de l'entropie et son fondement sur la physique quantique. Introduisons une première approche, avec le cas du rayonnement thermique.

Rayonnement du corps noir

Une région de l'espace remplie d'un rayonnement thermique uniforme (de corps noir) d'une température donnée, peut être décrite en disant que son champ électromagnétique est dans un état d'équilibre thermique à cette température. Son contenu n'est pas exactement une pure chaleur: le rapport de ses montants totaux d'énergie et d'entropie, ne coïncide pas avec sa température. Au lieu de cela, comme pour tout autre corps physique, sa température est le rapport de ses variations d'énergie et d'entropie lors de l'échange de chaleur.
L'ordre de grandeur des densités d'énergie et d'entropie peut être déduite de la manière suivante.
La température T définit une énergie typique E = kT (l'énergie par photon est d'environ πE), de laquelle la constante de Planck ℏ donne un intervalle de temps t = ℏ/E= ℏ/kT (les périodes des photons sont d'environ 2t). En cette durée, la lumière parcourt une distance x=ct=cℏ/kT, proportionnelle à la distance moyenne inter-photon. Ceci donne un ordre de grandeur de la densité du nombre de photons, et donc de la densité de l'entropie, S/kV ~ x-3 = (k/cℏ)3T3.

Dans le cas d'un objet parfaitement noir (absorbant la lumière de toutes les longueurs d'onde), le rayonnement pour chaque température T combine un flux d'énergie proportionnel à T4 avec un flux d'entropie proportionnel à T3. Dans un volume V, l'énergie E et l'entropie S du rayonnement sont liés par E = (3/4) ST où le coefficient 3/4 <1 vient de T=dE/dS = E/ST d(T4)/d(T3). Les valeurs exactes sont

E/V = (π2/15)(kT)4/(cℏ)3 where π2/15 =0.65797
S/V = (4π2/45)k4T3/(cℏ)3 where (4π2/45)=0.8773.

En particulier, la lumière solaire contient plus d'entropie qu'elle n'en a pris du Soleil: le montant supplémentaire est créé par le processus de l'émission de lumière à la surface du Soleil, irréversible à cause du contraste entre la lumière émise et l'obscurité environnante.
La capacité thermique du rayonnement à l'intérieur de la matière commence à dominer sur la capacité thermique de la matière lorsque la densité du nombre de photons devient comparable à celle des autres particules. Dans le centre du Soleil, T = 15 millions K = cℏ/kx donne x = 1,5Å. Ce rayonnement a une capacité thermique par volume similaire à un milieu d'une densité et donc distance inter-particules ainsi «habituelle»; sa pression est également similaire à celle d'un plasma de cette densité de particules et cette température. Cependant, un plasma à cette température n'a aucune raison de garder une telle densité; la densité au centre du soleil est de 162,2 g/cm3, de sorte que la capacité thermique et la pression des électrons et des nucléons y domine toujours. Seulement dans les plus grandes étoiles avec une température plus élevée dans le noyau, ce rayonnement peut atteindre une importance comparable aux particules ordinaires, et donc jouer un rôle crucial dans la stabilité stellaire.
A des températures encore plus élevées, lorsque l'énergie kT dépasse l'énergie mc2 d'énergie massique d'un champs de masse m, l'espace commence à être rempli de paires particule/antiparticule spontanément créés. Alors, à la fois les particules et antiparticules ayant des vitesses proches de c, commencent à se comporter comme le rayonnement du corps noir dans la façon dont leur densité et leur capacité thermique augmente avec la température.

En particulier, la température au-dessus duquel l'espace est rempli avec des électrons et des positrons est (de la calculatrice Google "electron mass/2*c^2/k=") 3 milliards K. Ces températures correspondent aux temps jusqu'à quelques secondes après le Big Bang (3), sont atteintes en tant que facteurs de réduction de la pression dans des étoiles exceptionnelles et supernova, et sont seulement dépassées après cela, mais trop tard pour compter encore («les noyaux d'étoiles à neutrons nouvellement formés ont une température initiale d'environ 100 milliards de K").

Les basses températures

Une situation possible pour les cristaux à basses températures, est que leur capacité thermique résiduelle correspond à des ondes sonores de longueur d'onde plus grande que la distance inter-atome du cristal. Cela peut être décrit en termes de phonons ("particules de son") dans un modèle (modèle de Debye) très similaire au rayonnement du corps noir, mais beaucoup plus dense pour chaque température parce que la formule doit remplacer la vitesse de la lumière par la vitesse du son dans ce cristal.
Cependant, d'autres choses peuvent également contribuer à la capacité thermique près du zéro absolu:

L'énergie libre de Helmholtz

Les variations d'énergie et d'entropie d'un système à volume constant pendant le transfert d'une petite quantité de chaleur sont liées par dE = TdS. Le mettant dans un environnement de température fixe T'T et introduisant l'énergie libre de Helmholtz, F=ET'S, on obtient la formule de ses variations
dF= (TT')dSSdT' ≈ 0.
Pour définir l'énergie libre de Helmoltz, il y a deux problèmes avec les choix conventionnels à ce que j'ai pu voir dans la littérature. L'un consiste à savoir si elle doit se noter A ou T. L'autre est de savoir si, dans sa définition ETS, la température T doit être définie comme celle de l'objet considéré, ou celle de l'environnement. Mais les deux fonctions sont intéressantes. Donc, introduisons les toutes deux: en désignant T la température (variable) de l'objet et T0 la température (constante) de l'environnement, soit

F = ET0 S
A = ETS

Their variations are given by

dF = (TT0)dSPdV
dA = −SdTPdV

Une autre fonction remarquable est A/T = E/TS car ses variations sont

d(A/T) = d(E/TS) = E d(1/T) + (dETdS)/T = E d(1/T) − PdV/T

L'intérêt de cette quantité apparaîtra en expliquant la nature de l'entropie.


(1) Précisément, la densité d'énergie du rayonnement de fond cosmique est d'environ 10-4 fois celle de la matière atomique. Depuis lors, environ autant d'énergie a été consommée par réactions nucléaires: en proportion massique de la matière atomique, environ 1% de la matière dans notre galaxie a subi une fusion de l'hydrogène en l'hélium, baissant la proportion d'hydrogène de 75% à 74% et libérant 7MeV par nucléon, et 2% a fusionné en d'autres éléments, abaissant la proportion d'hélium de 25% à 24%, libérant environ 1 MeV par nucléon; la masse du proton étant de 938 MeV. Mais l'énergie lumineuse effectivement restante doit être inférieure, pour plusieurs raisons: ce ne sont que les réactions dans notre galaxie (le reste de la matière dans l'univers pouvant avoir eu moins de réactions); une partie a été libérée comme neutrinos, et les galaxies les plus brillantes ont été brillantes seulement il y a longtemps, leur lumière a été décalée vers le rouge depuis.
(2) Le calcul de la comparaison de l'énergie cinétique à la pression contribuant dans un espace de dimension 1 par une particule à une vitesse quelconque entre 0 et la vitesse de la lumière, se fait ainsi:
Ec=E-m
v=p/E
Pression P=pv
E2-p2=m2
m2=E2+Ec2-2EEc
p2+Ec2=2EEc
P=p2/E
E=p2/P
p2+Ec2=2.Ec.p2/P
Ec/P=(p2+Ec2)/2p2=(1+(Ec/p)2)/2

(3) un temps que l'on peut déduire de la densité d'énergie du rayonnement de cette température et de la constante de gravitation : google calculator
sqr((hbar)^3/((electron mass/2)^4*(2.5*8*pi*G/3)*c^3))/2= 13.45 secondes
où /2 vient de t=1/2H dans un univers où l'énergie est principalement radiative (particules de vitesses proches de c), la masse de l'électron se divise par 2 en supposant que l'annihilation électron/positron se produit principalement lorsque 2kT=mc2, et 2,5 au lieu de 0,658 est un nombre inséré au pif pour refléter de combien la densité d'énergie totale de l'univers a pu dépasser celle du rayonnement électromagnétique, principalement du fait des électrons, positrons et neutrinos.

En anglais : Thermodynamics : classical entropy
Partie suivante : Entropie de l'information
Retour : Théorie des ensembles et fondement des mathématiques