Les frottements solides, la viscosité des liquides et des gaz font que l’énergie mécanique se dissipe toujours en chaleur. En l’absence d’apport extérieur d’énergie, les mouvements mécaniques finissent par s’arrêter, tandis que les différences de températures s’estompent et s’annulent. C’est ainsi que les systèmes isolés tendent vers l’équilibre thermodynamique. Leur énergie interne reste constante, tandis que leur entropie augmente pour atteindre sa valeur maximale à l’équilibre.
Supposons maintenant qu’on maintienne les mouvements mécaniques en compensant l’effet des frottements par à un apport permanent d’énergie, et que la chaleur dégagée soit évacuée de façon à ce que la température du système reste constante. On a maintenant un système ouvert maintenu en mouvement permanent grâce au flux d’énergie qui le traverse. Restant constamment semblable à lui-même, le système thermodynamique est qualifié de stationnaire.
Les exemples de tels systèmes abondent dans la nature: un cyclone ou un ensemble de cyclones/anticyclones tels que l’atmosphère terrestre, un être vivant ou un ensemble d’êtres vivants comme une espèce animale ou végétale, ou un écosystème, un être humain ou un ensemble d’êtres humains tel qu’une société humaine. Il y a environ un demi-siècle Prigogine leur donnait le nom de structure dissipative.
Par définition, une structure dissipative dissipe de l’énergie donc produit de l’entropie qu’elle évacue au fur et à mesure qu’elle la produit. Entropie et information étant de signe opposé (billet précédent), évacuer de l’entropie signifie importer de l’information. Une structure dissipative importe sans cesse de l’information de son environnement. Lorsqu’elle s’auto-organise une structure dissipative diminue son entropie interne, donc augmente son contenu en information en la mémorisant. C’est une mémoire temporaire.
En régime stationnaire, une structure dissipative perd autant d’information qu’elle en mémorise. Elle renouvelle sans cesse l’information qu’elle mémorise. Perdre de l’information est synonyme de produire de l’entropie, donc de dissiper de l’énergie. C’est en effaçant continuellement de l’information qu’elle a mémorisée qu’une structure dissipative dissipe de l’énergie.
S’il est naturel de parler de diminution d’entropie lorsqu’une machine thermique comme un cyclone s’auto-organise, parler d’information mémorisée est plus inhabituel. La mémoire d’un cyclone est inertielle. Si vous coupez la source d’énergie, le cyclone va continuer à tourner mais de moins en vite. La mémoire de ce mouvement va s’effacer progressivement au fur et à mesure que l’énergie se dissipe.
On sait aujourd’hui que les organismes vivants mémorisent de l’information dans leurs gènes. Les organismes les plus évolués ont aussi un cerveau. Un jeune enfant mémorise énormément d’information au cours de son éducation. Devenu adulte, il oublie autant de faits qu’il en mémorise de nouveaux. Devenu vieux, sa mémoire décline peu à peu, comme sa faculté de dissiper l’énergie. Les sociétés humaines ont longtemps mémorisé de l’information dans des livres. Aujourd’hui, leur faculté de mémoriser de l’information a considérablement augmenté, comme celle de dissiper de l’énergie.
J’ai déjà parlé dans ce blog du modèle de cerveau de Stassinopoulos et Bak (billet 62). Il est décrit dans mon livre sur la thermodynamique de l’évolution (sections 9.3 et 9.4). Ce modèle s’applique à un réseau neuronal quelconque. Il peut, par exemple, être utilisé pour comprendre le comportement d’une société humaine (billet 63). On parle alors de « cerveau global ». Il peut aussi être utilisé pour décrire un réseau d’échanges économiques (voir mon exposé au CNAM). Il pourrait même s’appliquer à un gaz, considéré comme un ensemble de particules qui échangent de l’information (billet 26).
Un cas particulierement intéressant est celui d’un écosystème. Après avoir reçu une formation d’ingénieur chimiste, Robert Ulanowicz s’est intéressé aux écosystèmes comme étant des réseaux d’agents échangeant de la matière, de l’énergie et de l’information. Il a ainsi modélisé les échanges entre les organismes vivants de la baie de Chesapeake. Pour Ulanowicz, les écosystèmes mémorisent de l’information tout comme le fait un cerveau humain. Il définit le degré d’ordre d’un écosystème par un paramètre α compris entre 0 et 1.
On peut interpréter ce paramètre d’ordre α comme étant la fraction de mémoire utilisée par ce réseau neuronal. Ses résultats s’appliquent à toute structure dissipative considérée comme un réseau neuronal. Nous avons vu plus haut qu’une structure dissipative s’auto-organise en mémorisant de l’information sur son environnement. Plus la quantité d’information mémorisée est grande, mieux la structure s’adapte à son environnement, mais plus elle doit modifier d’information pour rester adaptée, donc plus elle dissipe d’énergie. Il arrive un moment ou la fraction 1-α de mémoire disponible devient insuffisante, de sorte que les capacités d’adaptation de la structure n’augmentent plus et même diminuent. Il existe une valeur de α pour laquelle la capacité d’adaptation est optimale.
Robert Ulanowicz définit la robustesse R d’un écosystème comme étant sa capacité à s’adapter aux changements. Il montre que R doit être de la forme R = -α.log(α). La robustesse est nulle pour α = 0 et pour α = 1. Elle est maximale et égale à 1 pour α = 1/e où e est la base des logarithmes népériens (e = 2,718). Ses mesures sur les écosystèmes de la baie de Chesapeake montrent que les valeurs observées de α se concentrent effectivement autour de la valeur 1/e. Pour plus de détails voir l’article original (1). Dans un prochain billet, nous en tirerons les conséquences.
(1) R.E. Ulanowicz, Int. J. of Design & Nature and Ecodynamics. Vol. 4, No. 2 (2009) 83–96.