Introduisons l'entropie suivant sa conception classique, celle de
son comportement pour les observateurs macroscopiques.
Le comportement de l'entropie peut se décrire par comparaison à
celui de l'énergie. L'énergie peut être transférée entre les
systèmes, mais est toujours globalement conservé. Dans certains
types de processus, l'entropie peut être transférée entre les
systèmes, mais est préservée, comme l'énergie. Ces processus sont
dits réversibles, ce qui signifie qu'ils peuvent se
dérouler à l'envers, symétriquement par rapport au temps. D'autres
processus créent de l'entropie (sa quantité totale augmente). Mais
aucun processus ne peut jamais éliminer d'entropie, de sorte que
les processus qui en créent sont irréversibles.
Cette approche par la physique macroscopique (= vue à l'échelle
humaine, ou généralement non-microscopique; hélas la seule
présentée dans de nombreux cours de thermodynamique) reste
insatisfaisante car elle laisse à la nature de l'entropie, son
processus de création et son irréversibilité, des allures de
mystères.
Dans les lois fondamentales (de la physique quantique sans mesure)
qui décrivent les processus élémentaires (microscopiques),
l'entropie a une définition claire, mais tous les processus sont
réversibles, de sorte que l'entropie ainsi définie se conserve.
Ainsi, le processus de création d'entropie est compris comme un
processus émergent, qui ne «se produit» que relativement à
l'approximation de comment les choses sont résumables en pratique
quand elles impliquent de grands groupes assez désordonnés de
particules. Cette opération d'approximation affecte la conception
des états effectifs du système à des instants successifs, et donc
les valeurs successives de l'entropie qui sont calculées à partir
de ces états effectifs. Un autre effet de ce processus émergent de
création d'entropie sera la décohérence quantique, qui est la
circonstance habituellement requise pour qualifier un processus de
mesure en physique quantique. Ces explications approfondies de la
définition microscopique et de la création d'entropie, seront
présentés dans les pages suivantes.
Introduisons le concept de la température comme une quantité
physique, qui est positive dans la plupart des cas dans son sens
physique correct, à savoir par rapport à son vrai zéro physique,
duquel les conventions habituelles de désignation de température
diffèrent par l'addition d'une constante: le vrai zéro physique de
la température, appelé "zéro absolu", correspond aux chiffres
conventionnels de -459,67 ° F ou -273,15 ° C. La température en
degrés Kelvin (K) se définit comme celle respectant le zéro absolu
et de même unité que les degrés Celsius (1/100 de la différence
entre les températures de fusion et d'ébullition de l'eau sous la
pression atmosphérique terrestre).
Il y a une valeur maximale pour l'entropie d'un système matériel
évoluant dans des limites données de volume et d'énergie. Un corps
ayant atteint son entropie maximale dans ces limites, est dit être
en équilibre thermique, un état souvent déterminée par ces
conditions (de contenu matériel, de volume et de l'énergie). A
chaque système en équilibre thermique, est également attribué une
autre quantité physique importante appelée sa température, définie
comme suit.
L'entropie n'est habituellement pas transférée seule mais avec une
quantité d'énergie. Un mélange d'une quantité d'énergie et une
quantité d'entropie pouvant circuler d'un système à l'autre, est
une quantité de chaleur. (L'énergie et l'entropie ne sont
pas comme des objets distincts qui se déplacent, mais plutôt comme
des fluides à 2 substances qui se "mélangent" par diffusion lors
des contacts, et seuls les bilans des variations de montants de
chaque côté comptent). La chaleur peut prendre plusieurs formes:
contact direct ou rayonnement.
dE = TdS − PdV .
où TdS est l'énergie reçue par la chaleur et − PdV est l'énergie reçue du travail de pression.Thermodynamique |
Marché des ordures |
entropie | masse d'ordures |
énergie | monnaie |
−température | cours negatif des ordures |
Comme le flux de chaleur doit préserver l'énergie, mais peut créer de l'entropie, il ne peut aller que d'objets "chauds" (de température plus élevée, diminuant l'entropie d'une plus petite quantité pour l'énergie transférée) à des objets "froids" (de température plus basse, recevant d'entropie plus élevé pour cette énergie). Cette quantité de chaleur augmente son entropie en atteignant l'objet avec une température plus basse.
Habituellement, tout transfert de l'entropie entre systèmes a un coût: c'est un processus irréversible, qui crée plus d'entropie. Par exemple autour d'une température donnée, les flux de chaleur sont environ proportionnels à la différence de température entre les corps. Pour les rendre plus rapides, la différence de température doit augmenter, de sorte que le transfert crée plus d'entropie. Ou, un dégagement de chaleur rend l'environnement temporairement plus chaud, ce qui rend ce transfert plus coûteux. Ce coût peut être réduit (approchant la réversibilité) en ralentissant le transfert.La chaleur est dirigée du chaud vers le froid par le fait que les
corps chauds envoient leur chaleur plus rapidement que les froids.
Ainsi le transfert de chaleur est plus rapide à des températures
plus élevées, déjà en termes d'énergie, mais aussi généralement en
termes d'entropie (une possibilité de rapidité qu'on peut
remplacer par le fait de produire moins d'entropie). En
particulier un rayonnement de température plus élevée contient à
la fois plus d'énergie et plus d'entropie, comme on détaillera
plus bas. A la limite, l'énergie pure (qu'on peut voire comme
chaleur de température infinie) peut souvent être transférée
réversiblement.
A savoir, la loi des gaz parfaits présente l'expression
physiquement signifiante RT de la température, comme une
énergie par quantité de matière (ce qui explique les unités
présentes dans la valeur de R). Elle rend également
l'entropie (d'abord exprimée en J/K) comparable à une quantité de
matière.
Microscopiquement, les moles sont remplacées par des nombres de
molécules, de sorte que le facteur de conversion est la constante
de Boltzmann k= R/NA: une
température T apparaît au microscope comme une quantité
typique d'énergie E = kT, tandis qu'une quantité
d'entropie S devient un nombre réel S/k.
Tant que la capacité thermique C d'un objet est stable,
les variations de l'entropie, intégrale sur T de dS
= C.dT/T, sont celles de C.ln T.
De tels cas se produisent principalement seulement autour des
gammes de températures habituelles, en des intervalles successifs
de température, chacun avec une valeur différente de la capacité
thermique.
D'autres situations peuvent se produire: la capacité thermique
peut changer brusquement pendant la transition de phase (entre
solide, liquide et gaz), et progressivement dans d'autres cas.
Plus un objet est chaud, plus la matière est divisée en plus
petits composants capables de se déplacer indépendamment les uns
des autres (des molécules aux atomes à des particules
individuelles dans les plasmas), donc une capacité thermique plus
élevée. Aux températures plus élevées, augmenter la température
par une valeur additive donnée nécessite plus d'énergie; donc, une
augmenter la température par un facteur multiplicatif donné
entraine une plus grande augmentation d'entropie.
Près du zéro absolu de température, une fonction logarithmique
(comme l'entropie lorsque la capacité est constante) diminuerait à
l'infini. Mais l'entropie ne peut pas décroitre à l'infini: le
troisième principe de la thermodynamique énonce que pour tout
système il existe un zéro absolu de l'entropie, donc une
définition absolue de l'entropie de l'état d'un système en forme
de quantité toujours positive. Ce zéro de l'entropie est souvent
atteint au zéro absolu de température par des cristaux parfaits et
d'autres systèmes maintenus dans des volumes limités (mais pas
toujours: en plus des gaz détendus dans des volumes illimités,
quelques autres substances gardent une entropie positive au zéro
absolu de temperature, ce qu'on appelle l'entropie résiduelle).
Ainsi, la capacité thermique d'un objet doit aussi converger vers zéro à très basse température (c'est ainsi en pratique bien que ce ne soit pas une conséquence strictement logique), donc devenir bien moindre que son nombre de molécules: les atomes et les molécules simples ne bougent plus individuellement, mais plutôt seulement collectivement ou rarement. Ce sera expliqué par la nature de l'entropie et son fondement sur la physique quantique. Introduisons une première approche, avec le cas du rayonnement thermique.
Une région de l'espace remplie d'un rayonnement thermique
uniforme (de corps noir) d'une température donnée, peut être
décrite en disant que son champ électromagnétique est dans un état
d'équilibre thermique à cette température. Son contenu n'est pas
exactement une pure chaleur: le rapport de ses montants totaux
d'énergie et d'entropie, ne coïncide pas avec sa température. Au
lieu de cela, comme pour tout autre corps physique, sa température
est le rapport de ses variations d'énergie et d'entropie lors de
l'échange de chaleur.
L'ordre de grandeur des densités d'énergie et d'entropie peut être
déduite de la manière suivante.
La température T définit une énergie typique E = kT
(l'énergie par photon est d'environ πE), de laquelle la
constante de Planck ℏ donne un intervalle de temps t = ℏ/E=
ℏ/kT (les périodes des photons sont d'environ 2t).
En cette durée, la lumière parcourt une distance
x=ct=cℏ/kT,
proportionnelle à la distance moyenne inter-photon. Ceci donne un
ordre de grandeur de la densité du nombre de photons, et donc de
la densité de l'entropie, S/kV ~ x-3
= (k/cℏ)3T3.
Dans le cas d'un objet parfaitement noir (absorbant la lumière de
toutes les longueurs d'onde), le rayonnement pour chaque
température T combine un flux d'énergie proportionnel à T4
avec un flux d'entropie proportionnel à T3.
Dans un volume V, l'énergie E et l'entropie S
du rayonnement sont liés par E = (3/4) ST où le
coefficient 3/4 <1 vient de T=dE/dS = E/ST
d(T4)/d(T3). Les valeurs
exactes sont
E/V =
(π2/15)(kT)4/(cℏ)3
where π2/15 =0.65797
S/V =
(4π2/45)k4T3/(cℏ)3
where (4π2/45)=0.8773.
En particulier, la lumière solaire contient plus d'entropie
qu'elle n'en a pris du Soleil: le montant supplémentaire est créé
par le processus de l'émission de lumière à la surface du Soleil,
irréversible à cause du contraste entre la lumière émise et
l'obscurité environnante.
La capacité thermique du rayonnement à l'intérieur de la matière
commence à dominer sur la capacité thermique de la matière lorsque
la densité du nombre de photons devient comparable à celle des
autres particules. Dans le centre du Soleil, T = 15 millions K = cℏ/kx
donne x = 1,5Å. Ce rayonnement a une capacité thermique
par volume similaire à un milieu d'une densité et donc distance
inter-particules ainsi «habituelle»; sa pression est également
similaire à celle d'un plasma de cette densité de particules et
cette température. Cependant, un plasma à cette température n'a
aucune raison de garder une telle densité; la densité au centre du
soleil est de 162,2 g/cm3, de sorte que la capacité
thermique et la pression des électrons et des nucléons y domine
toujours. Seulement dans les plus grandes étoiles avec une
température plus élevée dans le noyau, ce rayonnement peut
atteindre une importance comparable aux particules ordinaires, et
donc jouer un rôle crucial dans la stabilité stellaire.
A des températures encore plus élevées, lorsque l'énergie kT
dépasse l'énergie mc2 d'énergie massique d'un
champs de masse m, l'espace commence à être rempli de
paires particule/antiparticule spontanément créés. Alors, à la
fois les particules et antiparticules ayant des vitesses proches
de c, commencent à se comporter comme le rayonnement du corps noir
dans la façon dont leur densité et leur capacité thermique
augmente avec la température.
En particulier, la température au-dessus duquel l'espace est
rempli avec des électrons et des positrons est (de la calculatrice
Google "electron mass/2*c^2/k=") 3 milliards K. Ces températures
correspondent aux temps jusqu'à
quelques secondes après le Big Bang (3), sont
atteintes en tant que facteurs
de réduction de la pression dans des étoiles exceptionnelles et
supernova, et sont seulement dépassées après cela, mais trop
tard pour compter encore («les noyaux d'étoiles à neutrons
nouvellement formés ont une température initiale d'environ 100
milliards de K").
Une situation possible pour les cristaux à basses températures,
est que leur capacité thermique résiduelle correspond à des ondes
sonores de longueur d'onde plus grande que la distance inter-atome
du cristal. Cela peut être décrit en termes de phonons
("particules de son") dans un modèle (modèle
de Debye) très similaire au rayonnement du corps noir, mais
beaucoup plus dense pour chaque température parce que la formule
doit remplacer la vitesse de la lumière par la vitesse du son dans
ce cristal.
Cependant, d'autres choses peuvent également contribuer à la
capacité thermique près du zéro absolu:
Les variations d'énergie et d'entropie d'un système à volume
constant pendant le transfert d'une petite quantité de chaleur
sont liées par dE = TdS. Le mettant dans un
environnement de température fixe T' ≈ T et
introduisant l'énergie libre de Helmholtz, F=E−T'S,
on obtient la formule de ses variations
dF= (T−T')dS−SdT' ≈ 0.
Pour définir l'énergie libre de Helmoltz, il y a deux problèmes avec les choix conventionnels
à ce que j'ai pu voir dans la littérature. L'un consiste à savoir si elle doit se noter A ou T.
L'autre est de savoir si, dans sa définition E − TS, la température T doit
être définie comme celle de l'objet considéré, ou celle de l'environnement. Mais les deux fonctions
sont intéressantes. Donc, introduisons les toutes deux: en désignant T la température (variable)
de l'objet et T0 la température (constante) de l'environnement, soit
F = E −
T0
S
A = E − TS
dF = (T−T0)dS
− PdV
dA = −SdT
− PdV
d(A/T) = d(E/T − S) = E d(1/T) + (dE − TdS)/T = E d(1/T) − PdV/T
L'intérêt de cette quantité apparaîtra en expliquant la nature de l'entropie.