Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La science du chaos

L'entropie de l'Univers (II)

Les astrophysiciens ont tenté d'utiliser cette théorie pour expliquer les propriétés de l'Univers, lui-même étant composé de "gaz" soumis à des contraintes thermodynamiques variées. Prenons l'exemple du Soleil. Nous savons que le Soleil est chaud et que l'espace est froid. Nous savons aussi que le rayonnement diffuse des corps chauds vers les corps froids. Le rayonnement du Soleil est transmis dans la lumière et sa chaleur est irradiée dans l'espace. Son rayonnement participe donc au désordre général de l'Univers. Pour comprendre son évolution, nous pouvons déterminer quel est le "degré de désordre" de l'Univers, plus exactement son entropie dans le sens de sa dernière acceptation.

Comme le disait Hermann von Helmholtz dans son premier principe de thermodynamique (1847), dans toute réaction physique ou chimique, "rien ne se perd rien ne se crée". C'est la loi de conservation de l'énergie de Joule. Le second principe de thermodynamique nous rappelle qu'au cours de l'évolution d'un système, son entropie ne peut pas décroître (Clausius). En d'autres termes, avec le temps tout système doit se dérégler, les choses ordonnées se "désorganisant" globalement. L'entropie est proportionnelle au logarithme de la probabilité.

A l'origine, ces deux lois décrivaient des systèmes isolés, n'échangeant pas d'énergie avec le monde extérieur. La thermodynamique dut modifier cette notion pour étudier les phénomènes de dissipation, loin de l'équilibre, dont la situation était éloignée de l’état final attendu.

Ce système en déséquilibre s'applique à l'Univers. Son évolution est irréversible car la flèche du temps est imprégnée en lui, il produit donc de l'entropie. Ou plus exactement, depuis sa formation l'Univers semble se complexifier, s'en allant vers de hauts sommets dans l'organisation[5]. C’est l’énergie de liaison qui permet aux objets de tenir ensemble. Elle est ajoutée à la masse des constituants pour que la masse du corps soit égale à la somme des parties.

A chaque stade de l'évolution, depuis la combinaison des quarks en atomes jusqu'à la formation d'un couple de galaxies, chaque association de matière en un système doit consentir une légère perte d'énergie pour assurer sa stabilité, énergie qui est libérée dans l'espace sous forme de rayonnement qui finit par se dégrader.

Compositage d'une image du Soleil prise par SOHO avec une photographie de la Terre et de la Lune prise depuis la capsule de Gemini 7.

 Selon la loi d'équivalence d'Einstein E = mc2, à toute liaison entre deux corps correspond une perte de masse proportionnelle à la liaison électromagnétique qui les maintient : une perte de un pourcent de masse est consentie au niveau nucléaire, à un billionième (1/1012) pour les atomes.

Ainsi le Soleil est plus léger que ses atomes. Pour solidariser les atomes individuels dans son enceinte, le Soleil doit concéder une perte d'environ 16000 tonnes en énergie de liaison tandis qu’il perd environ 1% de sa masse (2x1024 kg), soit le poids de la Terre sous forme de chaleur (2 ergs/g/s), celle-ci même qui amorça le rayonnement de l'étoile dans l'espace. Il en est de même pour les atomes radioactifs : c'est le phénomène de désintégration qui entretient la chaleur interne de la Terre.

Cette association est en fait une "filiation" par nature. Protons et électrons se lient pour former des systèmes, l'homme s'unit à la femme pour former un couple. La nature aime l'ordre. Il donne un sens au monde, il stabilise les structures et assure la pérennité de son édifice. Le jeu fait aussi partie des lois de la nature. Le jeu du hasard est indispensable sinon le monde resterait figé, il n'y aurait pas de changements. Mais nous verrons un peu plus loin que le désordre n'est pas le hasard, même s'il peut émerger du chaos. Le hasard a une connotation négative qui n'a cessé d'opposer René Thom et Henri Atlan autour d'une querelle sur le déterminisme.

Cette organisation naturelle trahit également sa fin. Depuis que l'Univers a libéré son énergie aux premiers millénaires de sa vie, l'espace est (très probablement) transparent, le rayonnement le parcourt jusqu'à l'infini sans être réabsorbé par la moindre particule. En quelque 13.8 milliards d'années, l'entropie de l'Univers a augmenté de 0.1%. Le bilan énergétique net est constant puisque rien ne se crée, mais son entropie nette a augmenté. Chaque système devenant stable ou augmentant de complexité (d'information) se paye à l'Univers par une augmentation de l'entropie.

Cette organisation paradoxale se retrouve partout dans la nature, à tous les niveaux de la pyramide. Tout en haut il y a peut-être l'Homme. En lisant cette page vous consommez quelques centaines de calories, soit 1024 informations élémentaires (bit). Ces quelques lignes contiennent environ 13750 informations (125 lignes x 110 caractères) que vous avez plus ou moins emmagasinées. Le bilan global est sévère, la perte reste égale à 1020 bits en faveur de l'Univers !

Et c'est partout la même chose. A l'échelle de la matière l'apport d'énergie est compensé par une forte dissipation. Une parfaite structure cristalline permet aux molécules d'imposer à la nature une ordonnance des éléments en fonction des propriétés géométriques qu'elles supportent. Celles-ci conduisent à certaines fonctions chimiques des corps.

Ainsi nous aurons beau bombarder une flaque d'huile avec de l'eau, au bout d'un certain temps les deux éléments seront séparés. Le diamant ne remplacera jamais ses atomes pour ceux du cristal. Cette sélectivité qu'acquiert la matière n'est possible que si l'énergie qu'elle dissipe en se formant n'est pas réabsorbée; le corps qui l'absorberait serait dans un état instable et se dissocierait peut-être. Globalement il y aurait autant de matière que de composants détruits. A l'équilibre, l'entropie serait nulle. Dans ces conditions, aucune structure organisée ne pourrait survivre aux premiers instants de l'Univers. Il fallut donc que l'Univers s'étende et devienne transparent pour permettre au rayonnement de se dissiper.

La Grande Tache Rouge de Jupiter photographie par Voyager 1 le 6 juin 1979.

Un système structuré et stable n'est pas pour autant en état d'équilibre. Son état peut-être stationnaire : pour se maintenir à une certaine température par exemple, un système doit dissiper un peu d'énergie. A l'équilibre, toute dépense d'énergie sera superflue et l'entropie cessera. Il en est de même pour les phénomènes turbulents : un mélange hors équilibre peut-être stable. Si sa forme est persistante et le flux continu, la réaction devient autocatalytique et le système s'engage dans un cycle autoreproductif (la Grande Tache Rouge de Jupiter par exemple).

Ces principes sont les fondements de la thermodynamique. Pour qu'un système conserve sa structure (premier principe de la thermodynamique), il doit dégrader le monde extérieur (second principe de la thermodynamique). L'évolution conduit le monde d'un état homogène et ordonné vers un état déterminé, "désordonné", où toute la matière se décomposera et où seul le rayonnement subsistera, souvenir poignant des systèmes organisés du passé.

L'Univers ne va pas au hasard sans direction générale définie, il tend au contraire vers une "mort thermique" quasi assurée[6]. Dans ce contexte, il semble que le déterminisme de Laplace retrouve sa voix de citer. Mais nous pouvons une nouvelle fois éloigner son idée. Les théories de la physique quantique nous rappellent que tout n'est qu'indéterminations et probabilités autour d'évènements fortuits.

L’entropie imposée par la gravitation

On peut encore approfondir le concept d’entropie si l’on prend pour référence la théorie de la relativité et en particulier le célèbre tenseur de courbure de Riemann[7]. En effet, dans le vide nous savons que les particules subissent des déformations provoquées par la courbure de l’espace-temps qui sont définies par le tenseur de Weyl. Ces changements se font à volume constant d’où il découle que le tenseur de Ricci vaut 0 dans le vide.

Dans une singularité tel un trou noir, le tenseur de Weyl est dominant, il tend même vers l’infini et est caractéristique d’un système thermodynamique totalement désordonné. Bien que cela ne soit pas encore totalement démontré sur le plan de la relativité, on peut en conclure que dans ce cas l’entropie est maximale.

Inversement, le Big Bang est entièrement régit par un espace-temps symétrique obéissant aux équations FRW. Il n’y a aucun changement de forme à volume constant car il n’y a que des effets dynamiques, des accélérations. Le phénomène est uniquement dû au tenseur de Ricci qui tend vers l’infini, lié à une très faible entropie.

Entropie et gravitation

Entité

 Entropie/baryon

Photon de 2.7 K

108

Trou noir de 1 M¤

1020

Trou noir de 10 M¤

1079

Singularité finale

10123

A l’époque du Big Bang, l’Univers contenait environ 1080 photons par baryon (par comparaison, aujourd'hui il reste 1084 photons dans tout l'univers visible, cf. Science, 2018). A mesure que l’effet de la gravitation a condensé la matière en entités de plus en plus denses, l’entropie par baryon n’a cessé de croître. On peut facilement évaluer le volume de l’espace des phases à ces différentes époques en considérant ces nombres comme les exposants d’une puissance de 10 (l’entropie étant définie comme le logarithme du volume). Pour un trou noir, l’entropie se définit comme le rapport de l’aire de l’horizon des évènements et l’aire de Planck-Wheeler (Gh/c3).

On explique la faible entropie du Big Bang et la forte entropie dans les galaxies compactes et les trous noirs par l’effet de la gravitation qui a toujours un caractère attractif. Graduellement, au fil du temps, ce caractère négatif fini par former des amas d’étoiles de plus en plus denses dont quelques-unes deviendront des trous noirs.

Du chaos des atomes aux gaz

Si le mouvement du pendule peut-être connu pour n'importe quel instant dans le temps, un système chaotique ne peut reparcourir sa trajectoire en sens inverse, malgré le caractère déterministe des équations. Pour le professeur Giulio Casati "ce paradoxe est l'une des conséquences étranges de l'écartement exponentiel des trajectoires". Les arrondis des résultats informatiques participent également à poser certaines limites. De nombreux physiciens se sont alors demandés si l'irréversibilité constatée dans les systèmes chaotiques se retrouvait en mécanique quantique ?

Casati, Chirikov, Shepelyansky et quelques autres ont testé les propriétés des atomes graduellement ionisés par un champ électrique[8]. Pour déterminer le mouvement des particules, ils ont appliqué en parallèle les lois classiques du mouvement chaotique et les lois quantiques. Chose frappante, l'évolution classique ne revenait pas à son point de départ alors que l'évolution quantique permit de la retracer. Ce résultat confirme que les effets du chaos sont gommés par les effets quantiques. Nous avons donc une nouvelle preuve du caractère statistique de la mécanique quantique qui n'est d'aucune manière un processus chaotique.

Mouvements convectifs : les cellules de Bénard

Simulation d'une turbulence forte accompagnée de la formation de cellules de Bénard pour des nombres de Rayleigh de respectivement 104 et 105. Cliquer sur les images pour lancer les animations (fichiers GIF de 1.5 et 3.6 MB). Documents M.Spiegelman/U.Columbia.

Peut-on en dire autant des gaz, où se succèdent semble-t-il ordre, chaos et tumulte ? H.Bénard découvrit en 1900 qu'un fluide chauffé par le bas se mettait en mouvement et s'organisait pour former des "cellules de Bénard". Ces structures hydrodynamiques expliquent bon nombre de phénomènes convectifs, comme les nuages cumuliformes, les champignons atomiques ou la granulation solaire.

En 1916, Lord Rayleigh inventa le "nombre de Rayleigh, Ra pour mesurer la contrainte subie par un fluide. Il s'agit d'un facteur proportionnel à la différence de température imposée, qui est également fonction de la dilatation, de la viscosité et de la conductivité thermique du mélange. Dans l'expérience courante, les cellules de Bénard s'organisent lorsque le nombre de Rayleigh dépasse 2000 environ. Au-delà d'un facteur 104, la vitesse du fluide commence à osciller et on parle de "turbulence faible". Pour des valeurs supérieures à 108 environ, lorsque la chaleur est très importante, le mouvement de la cellule de Bénard devient désordonné et la turbulence devient "dure". Les températures du système entrent dans un régime chaotique. Ainsi, dans des liquides chauffés par le bas, la température ne varie pas au milieu du fluide, mais essentiellement dans deux zones minces situées l'une au fond de la cuve, l'autre près de la surface. Ces trois régions ont des mouvements quasi indépendants, erratiques[9].

Pour comprendre ces turbulences, on a cherché quelles relations pouvaient-elles avoir avec les conditions de l'expérience. Le rapport entre le courant de chaleur qui passe dans le fluide et le courant en l'absence de chaleur est dénommé le "nombre de Nusselt, Nu, du nom du physicien allemand Ernst Nusselt qui l'introduisit en 1915. Grâce à l'expérience de Bénard, on découvrit que Nu variait en fonction proportionnelle de la puissance 1/3 de Ra en présence de turbulence faible et 2/7 de Ra en turbulence sévère, c'est la "loi de puissance", faisant partie des théories d'échelles. Son équation n'est donc pas linéaire, contrairement à la réponse du courant électrique en fonction de la tension.

Autre surprise, dans la couche limite froide située près de la surface la turbulence convective forme des "plumes thermiques" tout à fait stables, dénommées des "dimensions caractéristiques". Il s'agit de nodosités et de boucles fluides qui se maintiennent alors que les mouvements sont désordonnés autour d'elles. Elles sont produites par un phénomène conjugué de viscosité et de mouvements différentiels des différentes couches du fluide.

Plusieurs relations à courtes et longues distances furent tirées de ces expériences et confirment que la démarche analytique s'avère fructueuse. Pour généraliser ces théories d'échelles, le physicien soviétique A.Kolmogoroff introduisit dès 1941 une théorie qui permettait de forcer davantage les nombre de Rayleigh (Ra > 1015 , faisant apparaître des turbulences plus dures encore, des dimensions caractéristiques très variées, sans tenir compte des "conditions aux limites". Le physicien B.Castaing l'a repris en 1989 pour expliquer les variations des courants hydrodynamiques[10].

Document http://bill.srnr.arizona.edu/

Ces résultats prouvent donc que dans des situations simples, des lois générales peuvent mettre en évidence des phénomènes très complexes. Une fois de plus, dans la nature, le complexe est entremêlé avec le simple. Ces structures dissipatives obéissent aux lois thermodynamiques, en particulier à la loi d'augmentation de l'entropie. De tels systèmes non linéaires expliquent le fait que les êtres vivants peuvent s'organiser.

Dans ce contexte, une question nous intéresse tout particulièrement. Est-il possible de réduire l'algorithme de la nature sans en limiter les possibilités, sans que le contenu de son message soit "ou cristal ou fumée" comme l'écrivit Henri Atlan ? G.Nicolis et S.Subba Rao[11] ont développé en 1987 un modèle de réactions chimiques caractérisé par un attracteur chaotique, le modèle de Rössler dont un exemple d'attracteur est présenté ci-contre.

La séquence de polymères engendrée par cet attracteur offre toutes les caractéristiques des contraintes probabilistes : non-répétitivité, brisure de la symétrie spatiale, corrélations à longue portée, etc. En bref, la "chaîne de Markov" ainsi créée prouve qu'il existe un "sens de lecture", sens imposé par la dynamique chaotique. Parmi plus de 2000 chaînes de polymères pouvant être créées seules 1% de celles-ci sont effectivement produites.

Ces séquences ne se reproduisent pas de façon aléatoire, ni de façon récurrente, mais elles suivent un enchaînement statistique qui obéit aux lois du "chaos déterministe". Tous ces processus obéissent à des régimes physico-chimiques précis qui se développent loin de l'équilibre.

Ce résultat éclaire d'un nouveau jourle mécanisme de formation des premières molécules prébiotiques. Là où nos 21 acides aminés protéinogènes sont en mesure de produire le million de milliards de combinaisons protéiniques, il semble que certaines séquences soient plus probables que d'autres. L'avènement de la vie ne serait plus un évènement unique, non reproductible.

Prochain chapitre

Temps et devenir

Page 1 - 2 - 3 - 4 -


[5] A propos de la complexité et de l'irréversibilité lire, H.Simon, Proceeding of the American Philosophical Society, 106, 1962, p467 - I.Prigogine, Nature, 246, 1973, p67.

[6] Jusqu'à ce jour aucune expérience n'a pu prouver le contraire, même si philosophiquement cette idée est difficile à admettre pour les adeptes du principe anthropique.

[7] Les tenseurs sont des matrices de nombres représentants des vecteurs pouvant se transformer de manière propre. Les tenseurs de la masse, de l’énergie et autre pression construisent l’espace-temps et définissent les propriétés de l’Univers.

[8] G.Casati et al., Physical Review Letters, 53, 1984, p2525; 56, 1986, p2437 - D.Delande et J.Gay, Physical Review Letters, 57, 1986, p2006 - J.Bayfield et al., Physical Review Letters, Icarus, 63, 1989, p364.

[9] R.Behringer, Review of Modern Physics, 57, 1985, p657.

[10] G.Taylor, Proceedings of the Royal Society of London, A, 201, 1950, p159 - W.Markus, Proceedings of the Royal Society of London, A, 225, 1954, p196 - B.Castaing, Journal de Physique, 50, 1989, p147.

[11] G.Nicolis et S.Subba Rao, "Coherence and chaos in dynamical systems", Manchester University Press, 1987.


Back to:

HOME

Copyright & FAQ