L'entropie expliquée à ton papi.

Comme la richesse mesure la capacité de quelqu'un à acheter des choses, comme la contagiosité mesure le potentiel de transmission d'une maladie, comme la température mesure l'agitation désordonnée des molécules, l'entropie est une grandeur, qui se mesure, mais qui n'est pas facile à intuiter. L'entropie mesure la banalité, la non-particularité, l'uniformité.

À quoi ça sert ?

Après l'énergie, l'entropie est la notion la plus importante pour décrire n'importe quel système physique.

On ne peut rien faire d'un système des plus banals, c'est-à-dire d'entropie maximale. On ne peut rien faire d'un tas de cendre. On ne peut rien faire d'un document tappé par un singe. Un système d'entropie maximale n'évoluera pas.

Au contraire, dans un système hautement particulier, extraordinaire, hétérogène, inégal, il y a un fort potentiel pour que quelque chose se passe. Une bûche peut brûler, pas un tas de cendre. Un document riche en informations a un grand potentiel. De façon générale, un système de faible entropie, de grande negentropie, a un grand potentiel pour évoluer.

Une société où les minorités sont diluées, où les inégalités sont lissées, sera calme. Dans une société inégalitaire et ségréguée, les tensions sont fortes et la guerre peut se développer.

L'entropie est un outil indispensable au physicien pour connaitre les potentialités et les sens d'évolution.

Constat :

L'entropie d'un système isolé ne peut qu'augmenter.

Isolé, un système particulier ira vers la banalité. La bûche brûle vers la cendre, la cendre ne débrûle pas pour former une bûche. L'information d'un document déchiquetté est perdue à tout jamais. Une société détruite par la guerre ne se reformera pas (sans aide, isolée). Un glaçon sur une plaque chaude fond et refroidit la plaque, et jamais on ne verra la plaque se réchauffer et l'eau former un glaçon.

Pourquoi ?

Par nature, un texte est banal parce qu'il y a de nombreux autres textes qui lui ressemblent. On ne voit pas la différence entre deux textes écris par des singes, et il y a une quasi-infinité de tels textes. Au contraire, un chef d'œuvre littéraire est unique, particulier, et il y en a bien moins de possibles.

Maintenant, tirons 100000 lettres au hasard. Parmi tous les textes possibles, a-t-on plus de chance de tomber sur un roman ou sur du charabia dépourvu de sens ? Le charabia, évidemment. On a plus de chance de tomber sur une entropie élevée qu'une entropie basse.

Ce qui ressort de l'étude des systèmes dynamiques avec un grand nombre d'objets, de molécules, d'agents, d'individus, de câbles dans ton sac, ou même de galaxies, c'est que le chaos règne : le hasard agit. Et là est le point crucial : le hasard agissant, les câbles dans ton sac ou les lettres de notre texte ne font qu'aller vers du bordel[1], précisemment et simplement parce que les configurations bordéliques sont plus nombreuses, parce que les configurations de haute entropie sont plus nombreuses.

Quand on touille un thé avec une goutte de lait, même de façon parfaitement circulaire et symétrique, on mélange. Et mélanger, c'est introduire de l'aléatoire. Et l'aléatoire choisit la banalité. Un thé au lait uniforme est bien plus banal qu'un thé avec une goutte de lait bien séparée. Ainsi, l'uniformité gagne.

L'entopie augmente, c'est inévitable, et c'est universel. Elle ne peut pas diminuer : le thé au lait ne va jamais se dé-mélanger, ou plutôt la chance qu'un se dé-mélange est tellement ridiculement petite que même ton grand-père n'a jamais vu ça de sa vie. L'irréversibilité émerge, toute seule comme une grande, sans que quiconque l'impose a priori !

Si on laisse les choses se faire, les inhomogénéités se lissent, les câbles font des nœuds, le fruit pourrit, la batterie se décharge, et mon thé refroidit.




[1] On associe souvent l'entropie à "l'ordre" (ou au bordel), au sens où le cerveau humain conçoit l'ordre (c'est une notion très subjective, mais qui peut se formaliser en théorie de l'information, de plusieurs façons non équivalentes), et ce pour de bonnes raisons pratiques, car c'est souvent le cas.
Mais il est dangereux de généraliser cette analogie.

Il existe de nombreux systèmes dans la nature qui, même isolés, s'auto-organisent :

→ L'entropie d'un système (et donc son évolution thermodynamique) est clairement pas évidente à déterminer de façon intuitive, c'est du cas-par-cas, et ça ne se résume pas à une question d'ordre au sens intutif du terme !