26 – L’univers est un ordinateur.

Bien qu’abstraite, la notion d’énergie nous est devenue familière grâce à sa production industrielle sous des formes variées: énergie thermique, hydroélectricité, énergie nucléaire, etc… Encore plus abstraite, la notion d’information nous devient elle aussi peu à peu familière grâce aux progrès des ordinateurs et à leur utilisation dans la vie courante. Ceux-ci deviennent chaque jour plus compacts et plus puissants de sorte qu’on peut se demander jusqu’où le progrès technique peut aller.

Un des problèmes rencontrés par les ingénieurs est le dégagement de chaleur. Je revois encore la machine IBM 650 de l’observatoire de Meudon que j’ai utilisée pour mon travail de thèse au début des années 60. Comparable en plus lent à ce qu’on appelle de nos jours une calculette programmable, cette énorme machine à lampe dégageait une telle chaleur qu’une demi douzaine de climatiseurs étaient nécessaires pour refroidir la grande salle qui la contenait. Bien que beaucoup plus faible, la chaleur dégagée par les circuits intégrés modernes reste suffisante pour empêcher la fabrication de circuits compacts à trois dimensions. La question s’est donc posée de savoir s’il existe une limite inférieure fondamentale à la dissipation d’énergie d’un ordinateur.

Les opérations effectuées par les ordinateurs peuvent toutes se décomposer en opérations logiques élémentaires faisant partie de ce que les mathématiciens appellent l’algèbre de Boole, du nom du logicien britannique George Boole. Elles s’appliquent à des variables dites booléennes pouvant prendre seulement deux valeurs 0 ou 1. Certaines de ces opérations sont réversibles. Par exemple la négation est une opération réversible notée NON (ou NOT). Elle remplace la valeur 0 par 1 et la valeur 1 par 0. D’autres opérations booléennes sont irréversibles, par exemple l’opération ET (ou AND). Appliquée à deux variables booléennes, cette opération donne pour résultat 1 si et seulement si les deux variables sont égales à 1. Le résultat 0 pouvant être obtenu de plusieurs façons différentes, cette opération est clairement irréversible.

Dans un ordinateur les opérations booléennes sont effectuées par des systèmes physiques. Si l’opération est réversible, elle pourra être effectuée par un système subissant une transformation réversible. On a vu (article 7) qu’une telle transformation idéale se fait sans dégagement de chaleur. Par contre une opération irréversible sera en général effectuée par un système physique dissipatif, c’est-à-dire dégageant de la chaleur.

Des chercheurs comme Edward Fredkin ont montré qu’il est possible de développer une logique dite “conservative” dans laquelle toutes les opérations logiques sont réversibles, sauf l’effacement du contenu d’une mémoire qui reste évidemment irréversible. L’inconvénient de la logique conservative est de produire des résultats supplémentaires non désirés appelés “déchets numériques”. Ces résultats encombrent la mémoire de l’ordinateur et ne peuvent être effacés sans dissipation d’énergie. Une solution à ce problème est de sauver les résultats désirés et d’inverser le calcul puisque celui-ci est réversible. Les déchets numériques sont alors “recyclés”. L’ordinateur se retrouve dans l’état initial prêt à effectuer de nouveaux calculs. C’est l’équivalent informatique du cycle de Carnot, le cycle réversible du moteur thermique idéal.

Inversement, un ensemble de particules en interaction, comme celles d’un gaz dans un moteur thermique, peut être considéré comme un ordinateur effectuant des opérations logiques. Pour le montrer, Fredkin a développé un modèle théorique dit de “boules de billard”. Dans ce modèle idéal, les boules de billard se déplacent sans frottement et les chocs sont purement élastiques. Les trajectoires sont alors parfaitement réversibles. La figure ci-dessous montre que le choc de deux boules de billard est effectivement l’équivalent d’une opération logique réversible. On observe les boules A et B sur les trajectoires en trait plein si et seulement si elles sont toutes deux présentes. On ne les observe sur les trajectoires en pointillé que si l’une d’entre elle est présente. On remarque l’abondance de résultats non-nécessairement désirés (déchets numériques).

chocs

Choc entre deux particules
considéré comme une opération logique

Mais l’univers n’est-il pas un ensemble de particules en interaction? Dans ce cas l’univers est, comme le pense Fredkin, un immense ordinateur. Mais que calcule-t-il? Le lecteur assidu de ce blog aura sans doute deviné la réponse. L’univers suit un algorithme d’optimisation. Il cherche constamment à maximiser la dissipation d’énergie (ou taux de production d’entropie).

Dans le cas d’un système isolé, la solution est triviale. L’algorithme répartit également l’énergie entre toutes les particules ou, plus généralement, entre tous les degrés de liberté du système. Les variations de température, de pression ou de toute autre variable macroscopique s’estompent. Intégralement convertie en chaleur, l’énergie libre disparait. Le système tend vers ce qu’on appelle l’équilibre thermodynamique.

Si, par contre, le système est soumis à des différences de température, de pression ou de concentration chimique, et que ces différences ou gradients sont maintenus par un apport constant d’énergie, alors la solution est loin d’être triviale. Apparaît ce que nous avons appelé des structures dissipatives auto-organisées. Le système cherche toujours à atteindre l’équilibre thermodynamique mais sa trajectoire dans l’espace des phases (article 24) est limitée par la contrainte ainsi imposée. Elle reste confinée dans un volume restreint.

Dans le cas d’un gaz soumis à un certain gradient de pression ou de température, on voit apparaître des mouvements cycliques (articles 10 et 11). Lorsqu’on augmente le gradient, des mouvements de fréquence plus élevée apparaissent. C’est l’évolution vers le chaos décrite à l’article 20. Dans l’espace des phases, la trajectoire du système est d’abord périodique comme un son simple devenant de plus en plus riche en harmoniques. Au stade du chaos, la trajectoire n’est plus périodique. Elle remplit peu à peu l’espace restreint disponible sans jamais passer deux fois par le même point. Prédit en 1971 par un physicien mathématicien David Ruelle, ce phénomène baptisé “attracteur étrange” avait été découvert empiriquement dès 1963 par un météorologue, Edward Lorenz à partir de simulations numériques. David Ruelle ignorait cette découverte publiée dans une revue de météorologie. En 1976, un astronome français Michel Hénon en publiait un autre exemple l’attracteur de Hénon.

Les interactions entres molécules ne se limitent pas aux chocs. Des réactions chimiques peuvent se produire. En présence d’un fort gradient de concentration, des cycles chimiques peuvent apparaitre et s’auto-entretenir. Nous avons vu que la vie est apparue ainsi. Il n’est donc pas étonnant de retrouver des phénomènes similaires dans la reproduction des êtres vivants (suite logistique de l’article 20). Quelques années plus tard un autre physicien théoricien Mitchell Feigenbaum montrait effectivement l’universalité de cette évolution vers le chaos. Nous serions ainsi nous-mêmes des attracteurs étranges. Confinés dans l’espace, nous restons semblables à nous mêmes mais jamais parfaitement identiques. Notre cheminement est imprévisible.

Liens internet:
http://www.columbia.edu/acis/history/650.html
http://fr.wikipedia.org/wiki/Algèbre_de_Boole_(logique)
http://fr.wikipedia.org/wiki/George_Boole
http://en.wikipedia.org/wiki/Edward_Fredkin
http://fr.wikipedia.org/wiki/Cycle_de_Carnot
http://fr.wikipedia.org/wiki/David_Ruelle
http://fr.wikipedia.org/wiki/Attracteur_Étrange
http://fr.wikipedia.org/wiki/Edward_Lorenz
http://fr.wikipedia.org/wiki/Attracteur_de_Hénon
http://fr.wikipedia.org/wiki/Mitchell_Feigenbaum

La logique conservative est décrite dans un article en anglais de Fredkin et Toffoli disponible sur l’internet: http://www.cs.princeton.edu/courses/archive/fall05/frs119/papers/fredkin_toffoli82.pdf


25 – La libération de l’énergie.

Revenons aux notions de thermodynamique élémentaire que nous avons introduites à l’article 6. L’énergie mécanique peut être intégralement convertie en chaleur, une forme d’énergie associée au mouvement microscopique désordonné des molécules. Mais la chaleur ne peut être que partiellement convertie en travail mécanique. Elle ne peut l’être qu’en présence de différences de températures, c’est-à-dire de variations d’un paramètre macroscopique observable et contrôlable, la température.

Cela a amené l’américain J. Willard Gibbs à distinguer deux sortes d’énergie, l’énergie libre et l’énergie liée. L’énergie libre, entièrement convertible en travail mécanique, est celle associée aux paramètres macroscopiques de l’espace des phases décrit dans notre précédent article. Par opposition, l’énergie liée est celle associée aux paramètres microscopiques inobservables. Lorsqu’on mélange de l’eau chaude et de l’eau froide, les différences de température initiales s’estompent. Il y a bien conservation de l’énergie, mais l’énergie libre associée à des différences macroscopiques de température se transforme irréversiblement en énergie liée, associée au mouvement microscopique inobservable et incontrôlable des molécules. Les thermodynamiciens expriment ce fait en disant que l’entropie du mélange a augmenté.

On comprend ainsi la relation découverte par Claude Shannon entre l’entropie et l’information (article 8). Le transfert d’énergie de paramètres observables à des paramètres inobservables se traduit en effet par une perte d’information. Comme il y a augmentation d’entropie, cela veut dire qu’un gain d’entropie est l’équivalent d’une perte d’information. Cette équivalence entre information et entropie (ou plutôt son opposé appelé négentropie) paraît maintenant claire. Elle pose cependant un problème car l’information telle que Shannon l’a définie (voir article 8) est liée à la notion de probabilité.

Pour un physicien toute grandeur physique est nécessairement une quantité objective, c’est-à-dire indépendante de l’observateur. Le problème est alors de savoir si une probabilité peut être considérée comme une quantité objective. C’est malheureusement difficilement le cas. Lorsqu’un météorologue estime la probabilité de beau temps, il fonde ses prévisions sur un ensemble d’observations ayant une précision limitée. Cela entraîne qu’un observateur différent fera des prévisions peut-être similaires à court terme mais qui pourront devenir très différentes à long terme. La probabilité dépend donc de l’observateur.

Le problème vient du fait qu’on est en présence d’information incomplète. Le physicien américain E. T. Jaynes a montré que cela n’empêchait pas de raisonner objectivement. Pour cela on part d’une probabilité à priori qui est effectivement “subjective” dans la mesure où deux observateurs différents disposent d’observations différentes et on l’affine au fur et à mesure que de nouvelles observations deviennent disponibles. On obtient ainsi une probabilité à posteriori de plus en plus objective. C’est ainsi que la science progresse. La méthode générale pour y parvenir porte le nom d’estimation bayesienne du nom du mathématicien et pasteur anglais Thomas Bayes.

Le fait que l’entropie dépend de l’information à priori que possède l’observateur apparaît clairement dans ce qu’on appelle le paradoxe de Gibbs. Considérons une enceinte isolée formée de deux compartiments séparés par une cloison amovible. Initialement, ces deux compartiments contiennent de l’oxygène gazeux à la même température et à la même pression. Il y a équilibre thermodynamique. L’expérimentateur retire alors la cloison en la faisant lentement glisser parallèlement à elle-même sans fournir de travail mécanique. Il y a toujours équilibre thermodynamique. L’état macroscopique du gaz n’a pas changé. Son entropie est restée la même.

L’expérimentateur apprend alors que les compartiments contenaient deux isotopes différents (1). L’un contenait de l’oxygène 16, l’autre de l’oxygène 18. Lorsqu’il a retiré la cloison ces deux isotopes se sont mélangés. Cette transformation étant irréversible, l’entropie du gaz a augmenté. La variation d’entropie est finie et aisément calculable. Dans le premier cas les molécules d’oxygène étaient considérées par l’observateur comme indiscernables. Dans le second cas, elles sont considérées comme discernables. La variation d’entropie dépend donc de la connaissance à priori qu’a notre observateur sur le gaz et de sa capacité à en discerner les molécules.

Le fait que l’entropie a un aspect subjectif n’avait pas échappé au physicien écossais James Clerk Maxwell. Celui-ci avait en effet entrevu une possibilité de mettre en défaut le second principe de la thermodynamique. Imaginons à nouveau une enceinte isolée formée de deux compartiments séparés par une cloison. Les deux compartiments contiennent le même gaz à la même température et à la même pression. La cloison est percée d’un petit orifice capable de laisser passer une molécule à la fois. Maxwell imagine un “démon” capable de contrôler le passage à travers l’orifice en faisant glisser une cloison, toujours sans travail mécanique (figure ci-dessous).

demon_maxwell

Le démon de Maxwell (2)

Il laisse par exemple passer les molécules rapides vers la droite mais pas vers la gauche et laisse passer les molécules lentes vers la gauche mais pas vers la droite. Il peut ainsi faire naître une différence de température entre les deux compartiments ce qui est bien contraire au second principe. Pour reprendre notre exemple précédent, ce même démon pourrait tout aussi bien séparer ainsi l’oxygène 16 de l’oxygène 18. De façon générale, il est capable de diminuer l’entropie d’un système isolé ce que le second principe ne permet pas.

Il doit cette prouesse à sa capacité d’observer et de contrôler des paramètres à l’échelle microscopique. Comme l’a montré le physicien français Léon Brillouin la diminution d’entropie du gaz correspond très exactement à la quantité d’information collectée par le démon et enregistrée sous la forme d’un changement d’état du gaz. En diminuant l’entropie de ce système, il rend possible la production de travail mécanique. Par exemple, il peut permettre à un moteur thermique de fonctionner à partir des différences de températures qu’il aura ainsi créée.

C’est un fait général que toute collecte d’information entraîne une diminution d’entropie donc une “libération” d’énergie susceptible de se dissiper. Ce fait a des conséquences considérables. La suite de ce blog sera consacrée à leur examen.

(1) Un même élément chimique peut avoir des atomes de masses différentes parce contenant un nombre de neutrons différent. Ainsi l’atome d’oxygène 18 contient deux neutrons de plus que l’atome d’oxygène 16.
(2) Dessin tiré de Darling & Hulburt, American Journal of Physics, 23-7, 1955.

Liens internet:
http://en.wikipedia.org/wiki/Josiah_Willard_Gibbs
http://fr.wikipedia.org/wiki/Énergie_libre
http://fr.wikipedia.org/wiki/Claude_Shannon
http://en.wikipedia.org/wiki/Edwin_Thompson_Jaynes
http://fr.wikipedia.org/wiki/Thomas_Bayes
http://fr.wikipedia.org/wiki/Paradoxe_de_Gibbs
http://fr.wikipedia.org/wiki/James_Clerk_Maxwell
http://fr.wikipedia.org/wiki/Démon_de_Maxwell
http://fr.wikipedia.org/wiki/Léon_Brillouin


24 – La caverne de Platon.

Dans cet article nous ferons un pas de plus vers l’abstraction. Que le lecteur peu porté vers les notions abstraites me pardonne. Ce sera mon dernier pas dans ce sens. Je reviendrai ensuite peu à peu à des notions plus concrètes, en décrivant ce qui me paraît être les conséquences matérielles de tout ceci.

J’ai comparé (article 19) les flux d’énergie au flux d’une rivière. C’est plus qu’une simple métaphore. L’énergie s’écoule effectivement comme un fluide, mais dans un espace abstrait ayant un très grand nombre de dimensions appelé l’espace des phases. Tel que nous le percevons, l’espace dans lequel nous vivons a trois dimensions. Cela veut dire que pour préciser la position d’un point dans cet espace il faut donner trois nombres ou coordonnées, par exemple sa latitude, sa longitude et son altitude. Pour préciser l’état d’un système mécanique, il faut en général beaucoup plus que trois nombres. La mécanique newtonienne nous apprend que l’évolution d’une masse ponctuelle est entièrement déterminée par sa position et sa vitesse. Aux trois nombres donnant sa position, il faut donc ajouter trois autres nombres donnant sa vitesse en grandeur et en direction. Ainsi pour préciser l’état d’un système mécanique limité à une seule masse ponctuelle il faut 6 nombres, ce qui veut dire que cet état peut être représenté par un point dans un espace à 6 dimensions. C’est l’espace des phases qui décrit l’évolution d’une masse ponctuelle.

Si l’on considère les atomes d’un gaz comme des masses ponctuelles, et si ce gaz contient N atomes, son état sera représenté par un point dans un espace des phases à 6N dimensions. Il est bien entendu impossible de connaître les 6N coordonnées de ce point. On peut tout au plus mesurer une distribution grossière des vitesses et des températures à l’intérieur du gaz. C’est ce qu’on appelle son état macroscopique. De façon générale, à un état macroscopique donné correspond toujours un grand nombre d’états dits microscopiques dont chacun est représenté par un point de l’espace des phases.

L’ensemble de ces points évolue au cours du temps suivant les lois de la mécanique, en particulier la loi de conservation de l’énergie. Cette loi implique que les trajectoires de ces points sont comparables à celles des gouttes d’eau dans une rivière. Un théorème dû au mathématicien français Joseph Liouville nous dit en effet que ces points se déplacent comme les particules d’un fluide incompressible. Tandis qu’une rivière suit la ligne de plus grande pente, notre fluide incompressible n’a pas de direction privilégiée vers laquelle se diriger. Que va-t-il faire? Comme une rivière dans une plaine, il va s’étaler. La rivière y fait des méandres. Notre fluide en fait de même.

Reprenons l’exemple de notre gaz représenté par un point dans un espace à 6N dimensions. L’ensemble des points représentatifs de ce gaz correspondant à une même énergie U se trouvent sur une “hypersurface” de dimension 6N -1. A cause des interactions entre les atomes du gaz, cette hypersurface évolue au cours du temps. On peut montrer qu’elle évolue comme la pâte d’un boulanger qui pétrit son pain, c’est-à-dire par repliement et étirage successifs. Deux points de la pâte initialement proches se retrouvent ainsi rapidement éloignés. C’est pourquoi des conditions initiales suffisamment voisines pour être indiscernables à l’observation, conduisent rapidement à des évolutions très différentes, d’où par exemple la difficulté des prévisions météorologiques.

bifurcation2

Bifurcation

Tirée du livre de Steven Strogatz (1), la figure ci-dessus montre une telle surface dans un espace limité à trois dimensions. Le paramètre x est inobservable. Les paramètres r et h sont les paramètres observés. On peut les modifier, c’est-à-dire se déplacer dans le plan horizontal r, h . Prenons comme exemple le déplacement indiqué par la flèche. Au cours de ce déplacement les paramètres r, h varient de façon continue, tandis que le paramètre x peut varier de façon discontinue (saut en pointillé), indiquant un changement brutal et irréversible de notre système. C’est ce que nous avons appelé une bifurcation.

La figure ci-dessus correspond à un type particulier de bifurcation représenté par la courbe en V tracée dans le plan r, h. On doit au mathématicien français René Thom une classification des bifurcations sous le nom de théorie des catastrophes, les restructurations brutales de notre système y étant assimilées à des catastrophes. En évoluant avec le temps, la surface représentée sur la figure va continuer à se replier sur elle-même formant une stucture fractale ((article 18)). Les plis successifs de cette surface engendrent les cascades de bifurcations que nous venons d’étudier.

Ainsi le monde observé ressemble étrangement aux ombres projetées par le feu sur la paroi de la caverne de Platon. Pour comprendre le monde, il faut être capable de reconstituer ce qui se passe dans cet immense espace des phases que nous venons de décrire. La mécanique statistique nous aide à le faire grâce aux lois des grands nombres.

(1) Steven H. Strogatz, Non-linear dynamics and chaos, Westview Press, Perseus, 1994.

Liens internet:

http://fr.wikipedia.org/wiki/Espace_des_phases
http://fr.wikipedia.org/wiki/Joseph_Liouville
http://en.wikipedia.org/wiki/Steven_Strogatz
http://fr.wikipedia.org/wiki/René_Thom
http://pst.chez-alice.fr/TCIvarEk.htm
http://virtualistes.org/platon.htm


23 – Applications en biologie, économie et sociologie

L’article précédent a pu donner au lecteur l’impression qu’une cascade de bifurcations (ou suite d’états critiques auto-organisés) est un processus essentiellement destructeur. Cela dépend du point de vue auquel on se place. Si une épidémie bactérienne est destructive pour l’homme, elle est constructive pour les bactéries qui voient leur population se multiplier. Il faut considérer une cascade de bifurcations comme une suite de changements de structures destinée à accroître le taux de dissipation d’énergie dans l’univers. C’est par une telle suite de restructurations que l’univers s’auto-organise. Par exemple, en biologie, la mort est une cascade d’évenements destructeurs, mais le développement d’un embryon est un processus constructeur. Or, il présente lui aussi toutes les caractéristiques d’une suite d’états critiques auto-organisés. On y observe les ruptures de symétrie caractéristiques des bifurcations.

Pour les biologistes, ce point de vue est nouveau. Ils sont cependant de plus en plus nombreux à reconnaître l’existence de bifurcations dans les phénomènes d’auto-organisation qui se produisent lorsque les individus d’une même population coordonnent leurs activités (1). Ces phénomènes s’observent chez les bactéries, les amibes et les insectes comme chez les animaux plus évolués. Ils préfigurent les phénomènes bien plus complexes d’auto-organisation des sociétés humaines. Une caractéristique commune à ces phénomènes est l’échange d’information entre individus. Contentons-nous ici de dire que si un individu est imité par ses voisins, ces derniers ont de bonnes chances d’être aussi imités par leurs propres voisins, d’où une cascade de comportements similaires très semblable à la propagation des feux de forêt décrite dans l’article précédent.

Un exemple particulièrement intéressant en biologie est celui d’un organisme appelé “dictyostelium discoideum”. En période d’abondance celui-ci vit sous la forme d’éléments unicellulaires (amibes) tous indépendants et libres de leurs mouvements. Ceux-ci se nourissent de bactéries. Lorsque les ressources en bactéries viennent à manquer, ces amibes émettent un signal de détresse sous la forme d’un produit chimique appelé adénosine monophosphate cyclique ou AMPc. Elles sont aussitôt imitées par les amibes du voisinage de sorte que l’appel s’étend à toute la colonie. À ce signal, les amibes se rassemblent en tas pour former un organisme multicellulaire prenant progressivement la forme d’un ver. Solidaires les unes des autres, les dix à cent mille cellules de ce ver coordonnent alors leurs efforts, et le ver se met à ramper à la recherche de lieux plus propices. À la limite de l’épuisement, le ver s’arrête et se redresse. Ses cellules se différencient formant une longue tige au bout de laquelle se gonfle un sac de spores. Alors que le ver meurt, le sac éclate et les spores se dispersent donnant naissance à de nouvelles amibes dans un environnement que le ver espère meilleur (voir figure).

dicyostelium

Évolution du dictyostelium dicoideum

Le processus d’auto-organisation des sociétés humaines est fondamentalement le même qu’en biologie: un ensemble d’êtres humains coordonnent leurs activités en échangeant de l’information, de façon à mieux subvenir à leurs besoins. Plus une société s’organise plus elle dissipe efficacement l’énergie. C’est ce que nous appellons le développement économique. Rares sont cependant les économistes qui ont pris conscience qu’il s’agit d’un processus de mécanique statistique. En 1966 Benoit Mandelbrot montre que le prix du coton fluctue suivant une loi fractale en 1/f, mais son travail n’entre pas dans le cadre des théories économiques admises. L’économiste Nicholas Georgescu-Roegen (2) semble être le premier à s’intéresser au rôle joué par l’entropie dans les processus économiques. Il publie un livre sur ce sujet en 1971.

L’idée fait cependant son chemin. En 1984, Robert U. Ayres and Indira Nair (3) publient un article intitulé “Thermodynamique et Économie” dans Physics Today. En 1996 l’économiste Paul Krugman (4) montre que le mécanisme d’auto-organisation de Per Bak s’applique à de nombreux processus économiques, mais il ne développe que quelques exemples. Plus récemment Eric Schneider et Dorion Sagan (5) consacrent un chapitre entier à l’économie dans leur livre sur la thermodynamique et la vie publié en 2005 et intitulé “Into the Cool”. Malheureusement ils ne mentionnent pas les résutats de Roderick Dewar qui sont poutant antérieurs.

Je me contenterai ici de reprendre ici brièvement l’histoire de l’humanité, dont j’ai évoqué les grandes lignes dans mes premiers articles, et de montrer qu’on peut la considérer comme une cascade de bifurcations destinées à accroître la dissipation d’énergie. Cette histoire apparait alors sous un jour nouveau.

Dès son apparition, l’espèce homo sapiens s’est développée avec une extrême rapidité. Le phénomène en soi a déjà toutes les caractéristiques d’une avalanche. De 5 000 ans au paléolithique, le temps de doublement de la population est passé successivement à 2 000 ans au néolithique, puis 1 000 ans au début de l’ère chrétienne, 400 ans à la renaissance, 100 ans au début du 20ème siècle pour atteindre de nos jours moins de 50 ans. Nous avons vu qu’une avalanche ne dure pas éternellement. Tôt ou tard elle s’arrête avec une loi de probabilité en 1/f, les avalanches les plus longues étant les plus rares. De fait, le développement de l’humanité n’a pas été continu. Il a failli plusieurs fois s’arrêter par suite de l’épuisement des ressources. Il s’est poursuivi grâce à une suite de bouleversements tout à fait caractéristique d’une cascade de bifurcations.

Il aurait pu s’arrêter dès son berceau en Afrique où les ressources s’épuisaient rapidement. La solution a été l’émigration, première bifurcation majeure avec rupture de symétrie marquée par la direction de cette émigration. Capable de s’adapter à d’autres climats, l’homme s’est alors répandu sur toute la planète. Il y a environ 10 000 ans les ressources naturelles, dont les grands mammifères, étaient à nouveau épuisées. L’homme a eu alors recours à l’agriculture. C’est la révolution néolithique (article 3). Elle a entraîné une restructuration majeure des sociétés qui de nomades sont devenues sédentaires. On a bien là une deuxième bifurcation majeure. Un phénomène semblable s’est produit avec la révolution industrielle (article 4). C’est la troisième bifurcation majeure qui a transformé les sociétés rurales en sociétés urbaines. De nos jours les ressources pétrolières diminuent, la planète se réchauffe. L’humanité doit à nouveau se réorganiser. L’homme s’apprête à utiliser de plus en plus l’énergie nucléaire, ce qui modifiera à nouveau l’environnement (déchets nucléaires) et entraînera encore d’autres bifurcations ou réorganisations.

Ainsi, plus l’homme dissipe de l’énergie, plus son environnement évolue. Les ressources naturelles s’épuisent, la pollution augmente obligeant nos sociétés à se restructurer sans cesse. André Lebeau (6) appelle cela l’engrenage de la technique. C’est en fait la forme que prend chez l’homme le mécanisme universel de l’évolution, forme décrite par Howard Bloom sous le nom de principe de Lucifer (7). On a là une explication de la condition humaine: “l’homme est pris entre un passé familier qu’il est contraint d’abandonner et un avenir toujours menaçant “ (article 4). Sera-t-il un jour capable de prendre son destin en main?

On peut comparer le développement de l’humanité à celui d’un embryon. L’enfant non encore éduqué y joue le rôle de cellule souche. Chez l’homme l’éducation, c’est-à-dire la transmission culturelle, a en effet pris le pas sur la transmission génétique. Les bifurcations que nous venons de décrire conduisent au développement de sociétés culturellement différentes et jouent le rôle de la différentiation cellulaire. Apparaissent des sociétés agricoles puis des sociétés industrielles. Avec la division du travail les différentiations s’accentuent. Les différents composants de la société s’organisent entre eux grâce aux échanges commerciaux. Un superorganisme se développe et prend peu à peu forme à l’échelle mondiale. C’est l’hyper-empire de Jacques Attali (8). Avec le développement des moyens de communication une intelligence collective apparaît. C’est le cerveau global de Howard Bloom (9). Que va-t-il advenir de ce superorganisme?

Si l’on poursuit la comparaison, sa croissance va ralentir pour se stabiliser à l’âge adulte. Elle semble avoir déjà ralenti. L’humanité va alors atteindre l’âge de raison et prendre son destin en main. C’est l’hypothèse la plus optimiste. Elle est peu probable. Le développement d’un embryon est programmé par son ADN, résultat mis en mémoire de multiples expériences précédentes qui ont peu à peu affiné son évolution pour aboutir à l’espèce actuelle. Il n’en est pas de même de l’humanité qui ne garde aucune mémoire du développement d’une humanité antérieure. On ne connait pas, par exemple, les raisons de l’extinction de l’homme de Néanderthal. Le sort de l’humanité sera-t-il celui du vers de dictyostelium? Va-t-elle simplement s’éteindre après avoir expédié quelques-uns de ses individus dans un vaisseau spatial à la recherche d’un monde meilleur? C’est l’hypothèse la plus pessimiste. Elle est aussi peu probable. La réalité sera probablement intermédiaire. Plus une structure est complexe, plus elle est fragile. En se développant, tout super-organisme devient instable. Les conflits vont donc se multiplier. C’est l’hyper-conflit d’Attali (8) ou nouveau seisme majeur. L’hyper-empire va se décomposer en un nouvel ensemble de cultures ou couches sociales plus adaptées aux conditions nouvelles. Ayant gardé la mémoire des erreurs passées, ces nouvelles sociétés vont s’organiser plus efficacement entre elles. Afin d’augmenter la stabilité de cette nouvelle super-structure, les boucles de contrôle vont se multiplier. Dans le cas des sociétés, il s’agit de contrôles démocratiques. L’humanité évoluera donc vers ce que Jacques Attali appelle une hyperdémocratie (8).

Dans son livre intitulé “une brève histoire de l’avenir” (8), Attali arrive aux mêmes conclusions que nous à partir de considérations économiques et sociologiques. Les lois qu’il invoque sont en fait des conséquences de la mécanique statistique.

Références:
(1) Scott Camazine et al., Self-organization in Biological Systems (Princeton Univ. Press, 2001).
(2) Georgescu-Roegen, The Entropy Law and the Economic Process (Harvard Univ. Press, 1971, réimpression: iUniverse, 1999)
(3) Robert U. Ayres and Indira Nair, Thermodynamics and Economics (Physics Today, Nov. 1984, p. 62-71).
(4) Paul Krugman, The Self-Organizing Economy (Blackwell, 1996).
(5) Eric D. Schneider and Dorion Sagan, Into the Cool: Energy flow, Thermodynamics and Life (Univ. Chicago Press, 2005).
(6) André Lebeau, L’engrenage de la technique (Gallimard, 2005).
(7) Howard Bloom, Le principe de Lucifer (Le Jardin des Livres, 1997).
(8) Jacques Attali, Une brève histoire de l’avenir (Fayard, 2006).
(9) Howard Bloom, Le cerveau global (Le Jardin des Livres, 2003).

Liens internets:
Sur le dictyostelium discoideum:
http://lpmcn.univ-lyon1.fr/~rieu/dicty.htm
http://dictybase.org/Multimedia/LarryBlanton/index.html
http://www.zi.biologie.uni-muenchen.de/zoologie/dicty/dicty.html
http://bandit-sciron.blogspot.com/2007/01/les-aventures-de-dictyostelium.html
Sur l’AMPc:
http://fr.wikipedia.org/wiki/Adénosine_monophosphate_cyclique
Sur les cellules souches:
http://fr.wikipedia.org/wiki/Cellule_souche
Biographies:
http://fr.wikipedia.org/wiki/Benoît_Mandelbrot
http://fr.wikipedia.org/wiki/Nicholas_Georgescu-Roegen
http://en.wikipedia.org/wiki/Paul_Krugman
http://www.intothecool.com/into_the_cool_authors.php
http://www.international.inra.fr/join_us/working_for_inra/portraits/roderick_dewar
http://www.rr0.org/LebeauAndre.html
http://en.wikipedia.org/wiki/Howard_Bloom
http://fr.wikipedia.org/wiki/Jacques_Attali


22 – Avalanches, seismes et autres cataclysmes

Au cours des articles précédents, nous avons vu que l’Univers évolue en dissipant de plus en plus d’énergie. La dissipation se fait par l’intermédiaire de structures dissipatives (article 17). Celles-ci évoluent et sont peu à peu remplacées par de nouvelles structures toujours plus efficaces que les précédentes. C’est ainsi que sont apparues des structures dissipatives particulièrement efficaces: les êtres vivants. Plus efficace que les autres, l’homme a envahi la planète, formant des sociétés capables de dissiper plus d’énergie par unité de masse que toute autre structure de l’Univers (article 18).

Nous verrons que plus une structure dissipative dissipe de l’énergie, plus vite elle évolue et plus tôt elle doit se restructurer. Nous avons appelé ces restructurations des bifurcations (article 20). Dans l’article précédent (article 21), nous avons vu qu’une bifurcation peut en entraîner beaucoup d’autres. On observe alors des cascades de bifurcations. Ces cascades sont d’autant plus rares qu’elles sont plus importantes. Des bifurcations isolées ou de petites cascades sont très fréquentes. Plus rarement, on assiste à de véritables avalanches ou cataclysmes. La fréquence des cascades dépend de leur amplitude suivant une loi de puissance caractéristique des processus invariants par changement d’échelle (article 18). La loi est en général proche d’une loi en 1/ f (article 21). En voici quelques exemples (Voir: Turcotte et al. 2002).

C’est le cas bien sûr des avalanches naturelles, analogues à celles des tas de sable. Lorsque la pente est suffisante, une pierre qui roule peut en entraîner plusieurs. Chacune de ces dernières va à son tour en entraîner d’autres. Le processus est semblable à celui des cascades décrites dans l’article précédent. Au lieu d’une avalanche d’eau, on a une avalanche de pierres. A partir de photographies aériennes, on peut compter les avalanches produites par un tremblement de terre et mesurer leur importance c’est-à-dire leur surface. En général, leur nombre est bien inversement proportionnel à leur surface (loi en 1/ f). C’est le cas aussi des avalanches déclenchées par la pluie ou la neige.

Un second exemple est donné par les tremblements de terre. Une quantité importante d’énergie, dite géothermique, est emprisonnée à l’intérieur du globe terrestre et cherche à se dissiper. Elle le fait par l’intermédiaire de mouvements convectifs dans le manteau supérieur. Ceux-ci poussent les unes contre les autres les plaques solides de la croûte terrestre. C’est la dérive des continents appelée aussi tectonique des plaques. Les plaques résistent à cette compression en se déformant lentement (régime linéaire élastique). La tension augmente (comme celle d’un ressort qu’on comprime) jusqu’au moment critique où la limite d’élasticité est dépassée. Cela produit une rupture locale de la roche.

Cette rupture peut en déclencher d’autres. On observe alors toute une série plus ou moins longue de ruptures en cascade. C’est le tremblement de terre ou séisme. Les séismes sont enregistrés par les sismographes. Les sismographes enregistrent des séismes tous les jours mais la plupart ne sont pas ressentis par les humains. L’importance (ou magnitude) d’un séisme se mesure sur l’échelle de Richter. Seuls les plus importants d’entre eux sont ressentis par les humains. Certains, extrêmement puissants mais heureusement rares, provoquent les catastrophes naturelles très destructrices que l’on connait.

La fréquence des séismes est d’autant plus faible que leur importance est plus grande. Si l’on porte sur une échelle logarithmique le nombre de séismes de magnitude supérieure à une certaine valeur en fonction de cette valeur, les points sont en général remarquablement alignés. C’est la loi de Gutenberg-Richter. La figure ci-dessous montre un exemple tiré d’une statistique des séismes sur la côte ouest du Canada. Elle montre que la fréquence des seismes suit une loi en 1/ f. (Voir le site Ressources naturelles Canada).

seismes
Loi en 1/f de fréquence des séismes

Un troisième exemple est donné par les feux de forêt. Il arrive que, lors d’un orage, un arbre prenne feu. Si la forêt est suffisamment dense, le feu peut s’étendre aux arbres voisins. En brûlant, ceux-ci peuvent à leur tour communiquer l’incendie à leurs voisins. On a, là aussi, un phénomène de cascades allumant des brasiers de plus en plus nombreux. Lorsqu’on compte le nombre de feux de forêt d’extension donnée en fonction de cette extension, on trouve encore une loi en 1/ f.

On passe aisément des feux de forêt aux épidémies. Un individu infecté risque de contaminer ses voisins qui risquent eux-mêmes de contaminer d’autres personnes. Des statistiques ont été faites sur la fréquence des cas de rougeole, coqueluche et oreillons dans des sociétés insulaires (voir: Rhodes et al., 1997). Là encore, la loi en 1/ f est vérifiée. A l’échelle du globe, on observe en général plusieurs pandémies (plus de 10 millions de morts) par siècle. Quoique plus rares, des pandémies encore plus graves sont donc loin d’être exclues.

Ceci nous amène au problème de l’extinction des espèces. Jusqu’à récemment, on pensait que l’évolution des espèces était progressive, les caractéristiques des individus se modifiant peu à peu au cours des millénaires. Or, la paléontologie montre une absence de variations notables des fossiles pendant de longues périodes, précédées ou suivies immédiatement par des périodes de fossiles très différents.

Pendant longtemps ce phénomène a été interprété comme dû à des lacunes dans les échantillons paléontologiques, liées à des irrégularités de nature purement statistique. En 1972, les paléontologistes Stephen Jay Gould et Niles Eldredge ont émis l’hypothèse, dite des équilibres ponctués, selon laquelle ce phénomène était bien réel et significatif. Critiquée par des zoologistes comme Richard Dawkins, cette hypothèse a fait l’objet de débats télévisés connus pour avoir donné aux créationistes américains l’occasion de mettre en doute la théorie de Darwin.

En 1993, Bak et Sneppen ont montré que les équilibres ponctués étaient vraisemblablement un processus d’auto-organisation d’états critiques. On sait que l’évolution des espèces est due à des mutations. Jusqu’ici, on pensait qu’elle était due à toute une suite de mutations successives produisant chacunes de petites variations. D’après Bak et Snappen, on néglige ainsi les interactions entre espèces.

Une petite variation d’une espèce doit être considérée comme un changement d’environnement pour une autre espèce. Elle peut donc modifier l’aptitude à survivre des individus de cette autre espèce et par suite influencer leur évolution. En évoluant, ceux-ci vont à leur tour modifier l’évolution d’espèces encore différentes. On retouve ainsi le phénomène de cascades dont nous avons donné de nombreux exemples.

Les simulations numériques montrent bien des effets semblables à ceux observés par les paléontologistes. On aurait de temps à autre des avalanches plus ou moins importantes d’extinctions brutales. Ainsi l’évolution des espèces serait en fait une cascade de bifurcations et l’arbre des espèces, une arborescence de bifurcations. Le développement que l’on croyait progressif chez l’homme du geste et de la parole (voir: Leroi-Gourhan) apparait depuis peu lié à une floraison d’espèces “homo” toutes différentes, c’est-à-dire à tout un enchaînement de bifurcations.

Le processus d’auto-organisation d‘états critiques est maintenant pris très sérieusement en considération en biologie. Un certain nombre de chercheurs pensent qu’il s’applique aussi en sociologie (voir Hanson, 2007) et qu’il explique des phénomènes comme l’effondrement des sociétés décrit par Jared Diamond. Nous reviendrons largement sur ce sujet.

Références et liens internet:

Donald L. Turcotte et al., Self-organisation, the cascade model, and natural hasards, PNAS, vol. 99 Suppl. 1, 2530-2537, feb. 2002, accesible à:http://www.pnas.org/cgi/content/full/99/suppl_1/2530

Tectonique des plaques http://fr.wikipedia.org/wiki/Tectonique_des_plaques

Echelle de Richter http://fr.wikipedia.org/wiki/Magnitude_d’un_séisme

Allumez vous-mêmes vos feux de forêt:
http://argento.bu.edu/java/java/blaze/blazeapplet.html

C. J. Rhodes, H. J. Hensen and R. M. Anderson, On the critical behaviour of simple epidemics, Proc. R. Soc. Lond. 264, 1639-1646, 1997, accessible à: http://www.journals.royalsoc.ac.uk/content/c1pyphnvew7q8mcg/fulltext.pdf

Faites évoluer votre propre écosystème:
http://perso.univ-rennes1.fr/denis.phan/complexe/pap/baksnep.html

Robin Hanson, Catastrophe, Social Collapse, and Human Extinction, January 2007) accessible à: http://hanson.gmu.edu/collapse.pdf


21 – Une bifurcation peut en cacher une autre.

En dessous d’une certaine température et d’une certaine pression dites “critiques”, un fluide homogène peut devenir spontanément inhomogène. Il se décompose alors en deux “phases”, une phase liquide et une phase vapeur. Bien que le fluide soit en équilibre thermodynamique, ce processus est formellement équivalent à celui d’une bifurcation d’une structure dissipative (les équations sont analogues). Le point où la pression et la température atteignent la valeur critique s’appelle le point critique. En ce point les fluctuations de densité du fluide deviennent théoriquement infinies. On dit alors que le fluide est dans un état critique.

Spécialiste des états critiques, le physicien danois Per Bak s’est intéressé aux bifurcations des structures dissipatives pour lesquels les points de bifurcation jouent le rôle de point critique. En 1987, Per Bak a montré que certaines structures dissipatives évoluent de façon à toujours se rapprocher d’un point de bifurcation. En ce point on dit que la structure dissipative est dans un état critique. En 2002, Roderick Dewar a montré que cette propriété est une conséquence du principe de production maximale d’entropie lorsqu’une structure dissipative est soumise à un apport d’énergie dont le flux est limité, ce qui est très souvent le cas.

Jusqu’ici nous avons décrit les propriétés d’une structure dissipative en observant le flux d’énergie pour une tension donnée. Mais comment évolue la tension? Pour le voir, nous allons reprendre l’exemple de la suite logistique décrit dans l’article précédent (article 20). Le flux d’énergie y est proportionnel au nombre d’individus, c’est-à-dire à la valeur de la population. La figure de l’article précédant montre cette valeur en fonction du taux de croissance. Le principe de production maximale d’entropie nous indique que le flux d’énergie va tendre a être maximal. Cela veut dire que la population va tendre à augmenter jusqu’à atteindre une valeur maximale compatible avec les contraintes imposées, ici des ressources énergétiques limitées. On voit que ce maximum est effectivement atteint au voisinage du premier point de bifurcation, après lequel la valeur de la population devient instable et oscille. Pourquoi cela? Est-ce là une loi générale?

Pour comprendre ce phénomène, nous allons reprendre notre analogie du flux d’énergie avec le flux d’une rivière (article 19). Nous avons vu que l’énergie est constamment piégée dans des puits de potentiel. L’analogie sera pour nous des réservoirs d’eau souterraine (puits d’eau). Pour extraire de l’énergie d’un puit de potentiel, il faut un apport minimum d’énergie appelé énergie d’activation (article 12). A l’échelle moléculaire cette énergie peut être fournie par une collision (entre molécules) ou par un catalyseur (molécule jouant le rôle de batterie rechargeable). A notre échelle, ce sera par exemple l’énergie apportée par une alumette capable d’allumer un incendie. Dans le cas d’une entreprise, nous parlerons plus tard d’investissement. Dans tous les cas, l’énergie extraite du puits est bien supérieure à l’énergie d’activation.

Pour notre puits d’eau souterraine, l’analogue sera un siphon. L’énergie d’activation est celle nécessaire pour amorcer le siphon. Dans une telle structure, le niveau d’eau (qui joue ici le rôle de tension ou stress) augmente jusqu’à ce que le siphon s’amorce. C’est l’instabilité qui entraîne une restructuration (bifurcation): celle-ci permet à l’eau de s’écouler. Le réservoir se vide d’un seul coup, le siphon se désamorce et le cycle recommence. Il y a effectivement oscillation. Ce type d’oscillation non linéaire porte le nom d’oscillation de relaxation. On voit qu’une telle structure est effectivement attirée vers une bifurcation. Lorsque la bifurcation est franchie, l’énergie (ici l’eau) est libérée et tout recommence comme au début.

Nous avons vu que l’énergie de l’Univers est constamment redistribuée dans des puits de potentiel (ou niveaux d’énergie) de plus en plus nombreux, d’où l’augmentation constante de l’entropie (article 19). Imaginons une cascade de puits comme celle de la figure ci-dessous. Une telle structure présente toute une arborescence de bifurcations. Dans cet exemple, le nombre de puits double à chaque niveau.

Cascade
Analogie hydraulique d’une cascade de puits de potentiel

Le premier puits est alimenté par un flux d’eau constant et se remplit lentement. Supposons qu’il faille une minute pour remplir le premier puits. Au bout d’une minute, il se déverse dans les deux puits suivants, les remplissant à moitié. Au bout d’une deuxième minute, le premier puits est à nouveau plein. En se déversant, il achève de remplir les deux puits suivants. Ceux-ci se déversent alors dans les quatre puits suivants. Au bout de quatre minutes, ceux-ci sont pleins à leur tour et se déversent dans les huit puits suivants, etc… On observe ainsi des avalanches de plus en plus importantes (un, deux, quatre, huit puits, …) à des intervalles de temps de plus en plus longs (une, deux, quatre, huit minutes, …).

Remarquons que chaque étage se déverse à tour de rôle au moment précis où tous les étages précédents viennent de se déverser. Dans le cas de la figure où tous les puits sont représentés à moitié pleins, tous les étages vont se vider dès que le premier le fera. Il y a donc une réaction en chaîne provoquant une cascade d’avalanches à tous les niveaux. On appelle cela l’effet domino. Un domino posé sur la tranche peut en tombant faire tomber tous ses voisins. De même, en se vidant un puits peut entraîner un certain nombre de puits suivants à se vider eux aussi.

C’est ce que Per Bak appelle une suite d’états critiques auto-organisés (self-organized criticality ou SOC). Une caractéristique de ce genre de phénomène est qu’on observe des bouffées d’énergie (avalanches) d’autant plus fréquentes que leur amplitude est plus faible. On dit que la fréquence des avalanches est inversement proportionnelle à leur amplitude, ou encore que l’amplitude des avalanches est inversement proportionnelle à leur fréquence. C’est ce que les physiciens appellent un “bruit en 1/ f “. Son importance vient du fait qu’on l’observe très souvent, non seulement en électronique, mais aussi en astronomie, en géophysique, en biologie et même en économie.

Dans notre exemple très simple d’un réseau régulier de puits de potentiel tous identiques, les avalanches sont parfaitement prédictibles. En pratique, les structures naturelles sont beaucoup plus irrégulières. Les puits n’ont pas tous la même capacité. Les siphons s’amorçent aléatoirement. La redistribution à chaque étage est elle-même aléatoire. Dans ce cas, les avalanches sont imprédictibles, mais elles suivent bien la loi en 1/ f que nous venons de voir.

Le modèle plus réaliste proposé par Per Bak est celui du tas de sable. Imaginons du sable tombant en pluie fine sur une table. Un tas de sable se forme dont la pente augmente peu à peu pour atteindre une pente critique au delà de laquelle le sable s’écoule puis tombe en dehors de la table. On est alors en régime permanent. Ce régime est caractérisé par des avalanches de sable imprévisibles mais dont la fréquence est bien inversement proportionelle à l’amplitude.

Remarquons que dans les deux exemples que nous avons donné, le phénomène observé est indépendant de la taille de la structure, par exemple la taille du tas de sable. On y retrouve l’invariance par changement d’échelle décrite dans l’article 18, c’est-à-dire des cascades d’énergie obéissant à des lois de puissance. D’une façon générale l’auto-organisation des états critiques se traduit par des restructurations partielles aléatoires d’autant moins fréquentes que la restructuration est plus importante.

Depuis la mise en évidence de ce processus par Per Bak, on en découvre régulièrement de nouveaux exemples. Nous en décrirons certains dans notre prochain article. On se contentera ici de dire que le processus peut s’appliquer à l’évolution d’une population en présence de ressources limitées. Le modèle analytique de la suite logistique est trop simple pour décrire correctement la réalité. Les oscillations régulières qu’il prévoit n’ont jamais été observées. Par contre, on observe effectivement des chutes brutales de la densité de population provoquées par des disettes, des épidémies ou —chez l’homme— des guerres. Ces chutes de densité sont d’autant plus fréquentes que leur amplitude est plus faible. Très rarement, une chute de très grande amplitude peut avoir lieu (effet domino) expliquant des phénomènes comme la fin de l’île de Pâques, ou ceux décrits au début de cette série d’articles (articles (1) et (2)). Nous verrons qu’on a là un modèle extrêmement fécond pour comprendre l’évolution des sociétés humaines.

Liens internet:
Point critique (en français):
http://fr.wikipedia.org/wiki/Point_critique_%28thermodynamique%29
Biographie de Per Bak (en anglais):
http://en.wikipedia.org/wiki/Per_Bak
Bruit en 1/f (en français):
http://gilles.chagnon.free.fr/cours/courlong/4_4_2_3.html
Références sur le bruit en 1/f (en anglais):
http://www.nslij-genetics.org/wli/1fnoise/
Etats critiques auto-organisés (en anglais):
http://en.wikipedia.org/wiki/Self-organized_criticality
Exemple du tas de sable (en français):
http://www-eco.enst-bretagne.fr/~phan/complexe/sable.htm
Livre:
Per Bak, How Nature Works: The Science of Self-Organized Criticality (Springer-Verlag, 1999).


20 – Les bifurcations

Nous avons vu (article 17) qu’une structure dissipative est un système hors équilibre. Le déséquilibre peut être dû à une différence (gradient) de température, de pression, de potentiel, etc… Dans la suite de ce blog on parlera de façon générale de tension ou de stress. Plus la tension est grande, plus le déséquilibre est important.

L’expérience montre que lorsque le déséquilibre est suffisamment faible, le flux d’énergie est proportionnel à la tension. C’est le cas par exemple de la conduction, où le flux de chaleur est proportionnel à la différence de température. C’est le cas des écoulements laminaires où la vitesse du fluide est proportionnelle à la différence de pression. C’est aussi le cas du courant électrique qui est proportionnel à la différence de potentiel (loi d’Ohm). On est alors dans le domaine linéaire des relations d’Onsager.

Lorsque le déséquilibre d’un système augmente, sa structure peut devenir instable. Les instabilités qui apparaîssent provoquent un changement de structure. Le système se réorganise de lui-même. Une nouvelle structure apparaît, plus favorable au flux d’énergie. On appelle cela une bifurcation. C’est le mécanisme d’auto-organisation de l’univers (article 19).

Une bifurcation se produit lorsqu’il y a compétition entre plusieurs structures possibles. La structure adoptée est toujours celle qui favorise le plus le flux d’énergie. Parfois deux structures sont possibles, symétriques l’une de l’autre. Elles sont alors énergétiquement équivalentes. Le système choisit au hasard une des deux solutions. On dit qu’il y a rupture de symétrie. L’auto-organisation de l’univers en est parsemée d’exemples (article 19). Les ruptures de symétrie sont une caractéristique des bifurcations.

Une autre caractéristique des bifurcations est le phénomène d’hystérésis. Lorsque l’équilibre d’un système est modifié et que celui-ci franchit un point de bifurcation où une restructuration devient possible, celle-ci ne se produit pas immédiatement. Il y a retard à la réorganisation dans un sens comme dans l’autre. La transformation est en en partie irréversible. Cela entraîne une certaine stabilité des structures dissipatives et une mémorisation temporaire d’information sur lesquelles nous reviendrons.

En mathématiques, l’étude des bifurcations fait partie de l’analyse des systèmes dynamiques. Les mathématiciens ont mis en évidence de nombreux types de bifurcations et les ont classées suivant les caractéristiques des instabilités mises en jeu. Je me contenterai de décrire ici à titre d’exemple le modèle évolutif dit “logistique” de Pierre-François Verhulst. Les lecteurs non-mathématiciens pourront aisément sauter les équations.

A la suite des publications de Malthus, ce mathématicien belge a proposé de modéliser la croissance d’une population par une équation différentielle donnant l’accroissement dN du nombre N d’individus dans l’intervalle de temps dt. Sous sa forme moderne, cette équation s’écrit:

dN/dt = r.N.(1 – N/K)

r est le taux de croissance de la population et (1 – N/K) est un facteur correctif imposé par des ressources limitées. On retrouve ici les notations r et K correspondant aux deux modes de sélection naturelle (r et K) mentionnés dans l’article 17. La solution de cette équation différentielle est une sigmoïde. Une population initialement faible s’accroît rapidement puis se stabilise à la valeur K.

Si l’on discrétise cette équation différentielle, on obtient la suite logistique liant la valeur de la population à l’instant t+1 à sa valeur à l’instant t. Dans cette expression, X = N/Nmax est le rapport (compris entre 0 et 1) de la population N à sa valeur maximale Nmax.

X(t+1) = μ.X(t).[1-X(t)].

Il est remarquable qu’une équation aussi simple donne lieu à tous les comportements typiques d’un système dynamique non-linéaire, comportements que nous allons brièvement décrire.

Si μ est inférieur à 1, la population va bien sûr s’éteindre. Si μ est compris entre 1 et 3, la population croît et se stabilise à la valeur
(μ-1)/μ. Pour les valeurs de μ très voisines de 1, cette valeur est proportionnelle au taux de croissance μ-1. C’est le domaine linéaire dont nous avons parlé plus haut. Au delà de μ = 3, l’évolution devient instable. C’est la première bifurcation. Pour 3 < μ < 3,449… la population oscille entre deux valeurs différentes correspondant aux deux branches de la figure ci-dessous. Au delà de μ = 3,449… la population oscille alternativement entre 4 valeurs, puis 8 valeurs, 32 valeurs, etc… (voir figure). Au delà de μ = 3,57…, le chaos s’installe. De très légères variations des conditions initiales conduisent à des résultats radicalement différents. L’évolution du système devient imprévisible sauf pour quelques valeurs de μ exceptionnelles pour lesquelles on observe à nouveau des oscillations périodiques. Un système dynamique non-linéaire est ainsi caractérisé par toute une famille de bifurcations conduisant à un chaos dynamique.

Bifurcation0
Valeurs limites de la suite logistique

Nous avons déjà vu deux exemples physiques de bifurcations pris en dynamique des fluides. L’un est le passage de la conduction à la convection (article 10). L’autre est le passage d’un écoulement laminaire à un écoulement turbulent (article 11). Dans ces exemples, un système initialement linéaire (flux proportionnel à la tension) devient non linéaire. Si l’on continue à accroître la tension de nouvelles bifurcations peuvent se produire menant peu à peu vers le chaos. On peut comparer le mouvement périodique du fluide dans une cellule de Bénard aux oscillations de la suite logistique. Dans ces exemples, il y a aussi rupture de symétrie. Dans une cellule convective ou un tourbillon le fluide peut tourner dans un sens ou dans un autre, souvent au hasard.

Il est intéressant de décrire l’apparition de telles instabilités à l’échelle microscopique. Je le ferai ici dans le cas du passage de la conduction à la convection (1). Ce passage se produit lorsque le gradient de température devient suffisamment important. Considérons une molécule du fluide dans l’expérience de Bénard (article 10). Cette molécule est agitée d’un mouvement brownien d’autant plus rapide que la température du fluide est plus élevée.

Supposons qu’à un moment donné, après un choc, la vitesse de cette molécule soit dirigée vers le haut. Entre deux chocs successifs, elle va parcourir une distance de l’ordre de son libre parcours moyen.
Si au bout de ce parcours la température du fluide n’a pas sensiblement changé, un nouveau choc va l’envoyer aussi bien vers le bas que vers le haut. En moyenne, elle va errer (on dit aussi diffuser) lentement. On dit qu’il y a équilibre thermodynamique local.

Si au contraire la température a sensiblement diminué alors, faute d’énergie suffisante, un nouveau choc a peu de chances de l’arrêter dans son mouvement ascendant. Plus elle monte, plus la température diminue et moins son mouvement a de chances d’être arrêté. Il y a instabilité. D’autres molécules de son entourage vont se trouver dans la même situation. Ces molécules vont former une zone de fluide chaud au milieu d’un fluide plus froid. Propulsé par la poussée d’Archimède un courant ascendant se forme. La convection apparaît. Nous retiendrons ici que, de façon générale, il y a instabilité, donc bifurcation, si l’environnement change de façon notable entre deux transferts d’énergie, c’est-à-dire lorsqu’il n’y a plus équilibre thermodynamique local.

Au point de bifurcation, on dit parfois que le système est dans un état critique. Dans notre prochain blog, nous verrons comment les états critiques s’auto-organisent.

(1) Ce phénomène est décrit par un système d’équations non-linéaires appelé système de Lorentz.

Liens internet:
http://fr.wikipedia.org/wiki/Théorie_d’Onsager
http://fr.wikipedia.org/wiki/Hystérésis
http://fr.wikipedia.org/wiki/Système_dynamique
http://fr.wikipedia.org/wiki/Modèle_évolutif_r/K
http://fr.wikipedia.org/wiki/Pierre_François_Verhulst
http://fr.wikipedia.org/wiki/Espèce_à_stratégie_r
http://fr.wikipedia.org/wiki/Espèce_à_stratégie_K
http://fr.wikipedia.org/wiki/Sigmoïde_(mathématiques)
http://fr.wikipedia.org/wiki/Fonction_logistique
http://fr.wikipedia.org/wiki/Théorie_du_chaos
http://fr.wikipedia.org/wiki/Mouvement_brownien
http://fr.wikipedia.org/wiki/Libre_parcours_moyen
http://fr.wikipedia.org/wiki/Équilibre_thermodynamique

Sur les propriétés des bifurcations voir aussi (classés par ordre de difficulté croissante):

• en français:
http://www.bibmath.net/dico/index.php3?action=affiche&quoi=./l/logistique.html
http://pilat.free.fr/tech/bif_gif.htm

• en anglais:
http://www.redfish.com/research/SchneiderKay1995_OrderFromDisorder.htm
http://berglund.univ-tln.fr/hystabt.html
http://www.saltspring.com/brochmann/math/chaos/chaos-3/chaos-3.00.html
http://mathworld.wolfram.com/LogisticMap.html
http://www.egwald.com/nonlineardynamics/

Lectures
James Gleick – La théorie du chaos: vers une nouvelle science (Flammarion, 1999)
M. Mitchell Waldrop – Complexity: the emerging science at the edhe of order and chaos (Simon & Schuster, 1992)
Edward N. Lorentz – The essence of chaos (U. of Washington Press, 1996)


19 – L’auto-organisation de l’univers

Une propriété des êtres vivants est la faculté d’auto-organisation (a). Un objet apparemment très simple comme un œuf de poule évolue de lui-même, pour former la structure extrêmement complexe d’un poulet. Les biologistes appellent cela l’ontogenèse (b). C’est le mode de reproduction des êtres vivants. La reproduction se fait sans plan, ni moule, ni recette et sans intervention extérieure. C’est une auto-organisation.

On a pensé longtemps qu’il s’agissait là d’une caractéristique unique et mystérieuse des êtres vivants. Nous avons vu qu’il n’en est rien. A un niveau beaucoup plus élémentaire, les cyclones (article 11) ou les cellules de Bénard (article 10) s’auto-organisent. Il s’agit donc d’une propriété générale liée à la dissipation d’énergie. En fait, l’Univers tout entier s’auto-organise. L’astrophysicien Erich Jantsch (c) a été un des premiers à le reconnaître et à décrire de façon générale l’auto-organisation de l’Univers (1).

A la suite de Jantsch, je vais tenter de résumer ici l’évolution de l’Univers en mettant en lumière ce processus général sous-jacent d’auto-organisation, dont la vie n’est qu’un aboutissement. Pour aider à la compréhension du processus, le mieux est de procéder par analogie. Bien qu’elle soit imparfaite, j’utiliserai l’analogie d’une rivière qui s’écoule en creusant son lit, parfois souterrain, à travers un terrain accidenté. Le flux de la rivière est l’analogue du flux d’énergie.

Toute rivière a une source. La source d’énergie de l’Univers est le Big Bang. Cette source est à très haute température. Comme une rivière s’écoule des montagnes vers la mer, l’énergie de l’Univers s’écoule des zones à hautes températures vers les zones à basses températures, d’où la production d’entropie. L’équivalent de la mer est le rayonnement à 3°K du fond diffus cosmologique (d).

En terrain accidenté, une rivière hésite sur le chemin à suivre. On parle alors de bifurcation. Une rivière choisit toujours le chemin qui maximise son flux. Nous avons vu qu’il en est de même pour l’énergie. Le chemin qui maximise le flux d’énergie est déterminé par ce que les biologistes appellent la sélection naturelle. Bien que cela ne soit pas l’usage, on peut parler de sélection naturelle chaque fois qu’une branche est choisie lors d’une bifurcation. Je n’ai pas hésité à le faire à propos du passage de la conduction à la convection (article 10).

Une particularité de l’énergie est de rester piégée dans ce que nous avons appelé des puits de potentiel (article 12). Cela arrive parfois à l’eau dans des cavités. Pour l’énergie c’est général. S’il y a assez d’énergie disponible, mue par celle-ci, la matière va s’auto-organiser pour pomper l’énergie hors des puits de potentiel. L’équivalent pour l’eau serait le siphon qui permet de franchir la barrière d’un puits. On sait que des siphons peuvent naturellement s’amorcer dans les eaux souterraines.

Cette auto-organisation de la matière est possible parce qu’elle augmente le flux d’énergie. Toute tentative au hasard d’auto-organisation est alors favorisée par la sélection naturelle. Paradoxalement, toute organisation entraîne une diminution d’entropie. C’est ainsi qu’en accélérant le flux d’énergie, une diminution locale d’entropie accélère la production d’entropie de l’univers. C’est le paradoxe de la vie et de l’auto-organisation de l’univers.

On peut considérer la sélection naturelle comme un algorithme d’optimisation. Il maximise la production d’entropie de l’Univers. Les informaticiens s’en sont inspirés pour développer des algorithmes d’optimisation dits génétiques (e) introduisant des modifications aléatoires des paramètres équivalentes aux mutations. Ces algorithmes peuvent aider à trouver un maximum principal parmi de nombreux maxima secondaires. A cause des puits de potentiel, la production d’entropie est en effet constamment piégée dans des maxima secondaires. Pour en sortir, il faut d’abord diminuer l’entropie pour mieux l’augmenter ensuite d’où le phénomène paradoxal d’auto-organisation.

L’Univers du Big Bang n’est pas homogène, il subit des fluctuations quantiques. En se refroidissant, il se condense sous forme de particules, un peu comme l’air humide se condense en rosée. Il y a deux catégories de particules, les fermions (f) et les bosons (g). L’énergie est piégée dans les fermions mais ceux-ci échangent entre eux de l’énergie sous forme de bosons. Régis par la mécanique quantique, ces échanges, sont à la fois discrets (discontinus) et aléatoires, deux propriétés favorables aux phénomènes de bifurcation. A ce stade, les bifurcations se signalent par ce que les physiciens appellent des ruptures de symétrie. Un bel exemple en est l’annihilation de la matière et de l’antimatière (h) en faveur d’un léger excès de matière.

Nous verrons que ce processus d’échange d’énergie entre entités discrètes conduisant à des bifurcations est très général. C’est le processus même d’auto-organisation de l’univers sur lequel je reviendrai en détail. Ce processus entraîne l’extraction de quantas d’énergie d’un certain nombre de puits de potentiel suivie de leur redistribution dans d’autres puits de potentiels moins profonds mais toujours plus nombreux. C’est ce qu’on appelle la dissipation de l’énergie ou l’augmentation l’entropie de l’univers. Pour aboutir à ce résultat, des structures matérielles au départ assez simples évoluent pour former des structures de plus en plus en plus complexes. Jantsch montre qu’il y a à la fois micro-évolution et macro-évolution.

La micro-évolution part de structures matérielles très petites, les particules élémentaires, pour former des particules plus grosses et plus complexes. Les quarks (i) s’unissent pour former des protons et des neutrons. Les protons et les neutrons s’associent pour former des noyaux d’hélium. Les protons et les noyaux d’hélium s’entourent d’électrons pour former les premiers atomes d’hydrogène et d’hélium. C’est la cascade d’énergie vers des structures de plus en plus en plus grandes, décrite dans l’article précédent.

Engendrée par les forces de gravitation, une macro-évolution de l’Univers prend simultanément naissance. C’est la cascade inverse vers des structures de plus en plus petites. La matière se condense à grande échelle formant des galaxies organisées en amas et super-amas. Une première génération d’étoiles apparaît au cœur desquelles la température remonte. Cette remontée de température est suffisante pour permettre à la micro-évolution de se poursuivre. Les noyaux atomiques fusionnent pour former d’autres atomes plus lourds et plus complexes.

Bien avant les premiers êtres vivants, les étoiles naissent, se développent (ontogenèse) et évoluent en se reproduisant (phylogenèse (j)). En explosant une première génération d’étoile essaime les atomes lourds qui dès la deuxième génération vont former la matière circumstellaire. Celle-ci permet à nouveau la poursuite de la micro-évolution. Les atomes vont s’y unir pour former des molécules de plus en plus complexes.

Plus petite et moins chaude que le Soleil, la Terre est un astre idéal sur lequel la micro-évolution va prendre la voie de la chimie organique. Nous avons vu les cycles catalytiques se former puis s’associer pour former des cycles autocatalytiques, puis des hypercycles (article 13). Ceux-ci produisent en chaîne des polypeptides et des polynucléotides qui s’associent pour former des gènes unis entre eux dans une même molécule d’ADN. Les molécules d’ADN s’unissent pour former des chromosomes. Ceux-ci collaborent dans une même cellule (article 14). Les cellules s’unissent pour former des organismes multicellulaires (article 15). Petit à petit ces organismes s’unissent pour former des sociétés complexes comme les sociétés d’insectes ou les sociétés humaines.

L’homme envahit la planète, formant des sociétés de plus en plus évoluées. Au 20ème siècle, trois événements marquent un tournant dans l’évolution des sociétés humaines. Le premier est une tentative de formation d’une société humaine unique ou “société des nations”. Le deuxième est une tentative d’échapper aux limites physiques de la planète avec la conquête de l’espace interplanétaire. Le troisième est l’explosion de bombes H, prélude à l’utilisation de la fusion nucléaire comme source d’énergie (projet ITER (k)). Avec l’achèvement de la fusion nucléaire par l’homme, la micro-évolution rejoint la macro-évolution.

Jantsch-fig

Auto-organisation de l’univers selon Jantsch (1)

(1) Erich Jantsch, The self-organizing universe (Pergamon, 1980). Nous avons reproduit ci-dessus la figure 24 de ce livre (p. 94).

Liens internets:
(a) http://fr.wikipedia.org/wiki/Auto-organisation
(b) http://fr.wikipedia.org/wiki/Ontogénèse
(c) http://en.wikipedia.org/wiki/Erich_Jantsch
(d) fr.wikipedia.org/wiki/Fond_diffus_cosmologique
(e) http://fr.wikipedia.org/wiki/Algorithme_génétique
(f) http://fr.wikipedia.org/wiki/Fermion
(g) http://fr.wikipedia.org/wiki/Boson
(h) http://fr.wikipedia.org/wiki/Antimatière
(i) http://fr.wikipedia.org/wiki/Quark
(j) http://fr.wikipedia.org/wiki/Phylogénèse
(k) http://fr.wikipedia.org/wiki/International_Thermonuclear_Experimental_Reactor


18 – Les cascades d’énergie

Comme nous l’avons vu, la thermodynamique du 19ème siècle décrit essentiellement les propriétés des systèmes isolés dits fermés. Or ceux-ci n’existent pratiquement pas dans la nature. La notion de système fermé est une idéalisation théorique commode pour le raisonnement, car elle conduit à des propriétés simples et faciles à étudier, mais elle décrit mal les phénomènes réels. Un système fermé atteint rapidement l’équilibre thermodynamique et s’arrête d’évoluer. La notion de système fermé a donc peu d’utilité pour les chercheurs intéressés par une évolution continue telle qu’on l’observe dans la nature.

Seuls les systèmes ouverts hors équilibre évoluent sans cesse. C’est le cas des êtres vivants et plus généralement des structures dites dissipatives. Or, il se trouve que l’univers est fait essentiellement de structures dissipatives. On ne s’en aperçoit pas nécessairement car leur évolution peut être très lente. C’est le cas par exemple des étoiles qui cependant naissent et meurent comme nous. Bien plus, les étoiles sont organisées en galaxies (a) qui elles-mêmes sont organisées en amas de galaxies (b) organisés à leur tour en superamas (c).

On observe ainsi des cascades de structures dissipatives en interaction les unes avec les autres, chaque étage de la cascade redistribuant l’énergie vers d’autres étages. Un système ouvert, formé de structures dissipatives en interaction, étant lui-même une structure dissipative, ce système va automatiquement s’auto-organiser de façon à maximiser la dissipation d’énergie.

Un exemple bien connu d’une telle cascade est la cascade de tourbillons d’un écoulement turbulent. Lorsqu’on augmente la vitesse d’un écoulement turbulent, les tourbillons deviennent instables et se divisent en tourbillons plus petits qui se subdivisent eux-mêmes en tourbillons encore plus petits. L’énergie des gros tourbillons est ainsi transférée à des tourbillons de plus en plus petits jusqu’à sa dissipation finale en chaleur à l’échelle des molécules individuelles.

Une telle cascade de tourbillons porte le nom de cascade de Kolmogorov, du nom du chercheur russe André Kolmogorov (d) qui en a découvert les propriétés. Lorsque le même phénomène physique est responsable du transfert de l’énergie à chaque étage de la cascade, alors les propriétés de la cascade sont les mêmes quelque soit l’étage considéré. On dit que ses propriétés sont invariantes par changement d’échelle. Par exemple l’énergie contenue dans un tourbillon et la taille du tourbillon sont toujours dans la même rapport. Les mathématiciens traduisent cela en disant que la relation entre l’énergie et la taille du tourbillon est une loi de puissance. Cela veut dire que l’énergie d’un tourbillon est proportionnelle à sa taille élevée à une certaine puissance (entière ou fractionnaire). Dans le cas des tourbillons cette puissance vaut 5/3.

Ainsi la turbulence a les propriétés d’un objet fractal (e) au sens de Benoit Mandelbrot (f). Ces objets ont la même apparence quelque soit le grandissement avec lequel on le regarde (autosimilarité). C’est parce que l’énergie se dissipe en cascades que de tels objets sont très répandus dans la nature. Jusque là ils avaient été très peu étudiés à cause de leur complexité. Grâce aux ordinateurs on peut maintenant fabriquer mathématiquement des objets fractals et les représenter graphiquement. Ils sont souvent d’une grande beauté (g) car ils ressemblent à des structures naturelles. Les objets fractals sont caractéristiques du processus d’auto-organisation de l’univers, en particulier du monde vivant.

Un exemple particulièrement complexe de structures dissipatives en interaction est un écosystème (h) Un écosystème est en lui-même une structure dissipative. Il reçoit de l’énergie (principalement d’origine solaire) qu’il redistribue sous d’autres formes. Il absorbe de la matière (eau, oxygène, gaz carbonique, minéraux du sol) qu’il redistribue aussi. Comme dans un tourbillon, certains éléments tournent continuellement en rond dans le système: c’est le cas du cycle de l’azote (i). Un écosystème est formé aussi de cascades d’énergie. Les plantes captent directement l’énergie solaire, puis servent de nourriture aux herbivores, qui eux-mêmes servent de nourriture aux carnivores. On peut observer ainsi jusqu’à cinq cascades successives: l’homme mange des truites, qui mangent des grenouilles, qui mangent des sauterelles, qui mangent de l’herbe. De l’énergie est dissipée à chaque étage. Pour maintenir un homme en vie pendant un an il faudrait au moins 300 truites. Ces truites auront dû manger 90 000 grenouilles, qui auront dû manger 27 millions de sauterelles, ayant elles-mêmes dévoré 1 000 tonnes d’herbe (1). Comme les tourbillons de Kolmogorov, les écosystèmes s’auto-organisent de façon à maximiser la dissipation de l’énergie.

Si une structure trop grosse pour dissiper efficacement l’énergie se subdivise en structures plus petites, il arrive aussi souvent que des structures trop petites pour dissiper efficacement l’énergie collaborent entre elles pour mieux dissiper l’énergie. Nous avons vu l’exemple des gènes dans le génome ou des cellules dans notre organisme. Là encore, il y a auto-régulation de la taille des structures de façon à maximiser la dissipation de l’énergie. Ces mêmes lois s’appliquent aux individus dans une entreprise et aux entreprises dans la société. Nous reviendrons longuement sur ce sujet à la fin de ce blog.

Certains biologistes comme John Whitfield (j) ont cherché à mettre en évidence une relation entre le métabolisme (taux de dissipation d’énergie) des êtres vivants et leur taille. Comme dans le cas des tourbillons de Kolmogorov, ils trouvent une loi de puissance. Ainsi le métabolisme des mammifères apparaît proportionnel à la puissance 3/4 de leur masse. La relation est valable depuis la souris jusqu’à l’éléphant qui est 104 fois plus gros. L’origine de cet exposant (3/4) est toujours discutée. Les mammifères dissipant leur énergie sous forme de chaleur, on s’attendrait à ce que leur métabolisme soit proportionnel à leur surface, qui est elle-même proportionnelle à la puissance 2/3 de leur volume (donc de leur masse). Pourquoi un exposant 3/4 au lieu de 2/3 soit une différence de 1/12?

Je me permets d’offrir ici une suggestion. Eric Chaisson (k) a montré que l’efficacité avec laquelle l’énergie se dissipe dans l’univers n’a cessé d’augmenter. Par exemple les animaux dissipent dix fois plus d’énergie par unité de masse que les plantes apparues apparus 1,5 milliards d’années plus tôt. Il est donc vraisemblable que les gros mammifères, apparus 150 millions d’années plus tard que les petits, dissipent un peu plus efficacement l’énergie que ces derniers. Pour rendre compte de la différence entre les deux exposants, il suffit d’un facteur (104)1/12 ou 101/3 c’est-à-dire de l’ordre de 2, ce qui semble compatible avec la courbe de Chaisson (voir figure).

chaisson
Évolution du taux de dissipation de l’énergie (par unité de masse)
en fonction de l’âge de l’univers (d’après Eric Chaisson)

D’après cette courbe, le cerveau humain dissiperait dix fois plus d’énergie par unité de masse qu’un corps animal et dix mille fois plus qu’une étoile. Comme nous avons vu dans notre précédent article (no. 17), un nouvel ordre de grandeur vient encore d’être franchi avec les sociétés humaines. La courbe de Chaisson montre une accélération continuelle de l’évolution. Le taux de dissipation de l’énergie est multiplié par 10 sur des intervalles de temps de plus en plus courts. Il ne s’agit donc pas d’une simple croissance exponentielle. Plus qu’une explosion, c’est une véritable déflagration dont peu de gens ont pris conscience. Et ceux qui en prennent conscience (2, 3) n’en connaissent généralement pas l’origine thermodynamique.

Pour bien comprendre l’évolution, il est nécessaire de passer en revue le processus d’auto-organisation de l’univers depuis le Big Bang. Je me propose de le faire dans le prochain article.

Références:
(1) Eric Chaisson, Cosmic Evolution: the Rise of Complexity in Nature (Harvard Univ. Press, 2002). Voir aussi le site Web: http://www.tufts.edu/as/wright_center/cosmic_evolution/docs/text/text_chem_7.html
(2) Ray Kurzweil, The Singularity is Near: When Humans Transcend Biology (Penguin, 2006).
(3) André Lebeau, L’engrenage de la technique (Gallimard, 2005)

Liens internets:
(a) http://fr.wikipedia.org/wiki/Galaxie
(b) http://fr.wikipedia.org/wiki/Amas_de_galaxies
(c) http://fr.wikipedia.org/wiki/Superamas
(d) http://en.wikipedia.org/wiki/Andrey_Kolmogorov
(e) http://fr.wikipedia.org/wiki/Fractale
(f) http://fr.wikipedia.org/wiki/Benoît_Mandelbrot
(g) http://www.oyonale.com/fractals/gtf31.htm
(h) http://fr.wikipedia.org/wiki/Écosystème
(i) http://fr.wikipedia.org/wiki/Cycle_de_l’azote
(j) http://biology.plosjournals.org/perlserv/?request=get-document&doi =10.1371%2Fjournal.pbio.0020440
(k) http://www.tufts.edu/as/wright_center/eric/reprints/big_history.pdf


17 – Vie et dissipation d’énergie.

Dans mon précédent article, j’ai montré les limites de la théorie de Darwin et de ses extensions modernes. Le lecteur attentif aura compris que pour aller plus loin il devient nécessaire d’insérer la théorie de la sélection naturelle dans un cadre plus vaste, celui d’une théorie physique générale incluant les phénomènes vivants et non-vivants. De cette théorie plus vaste, j’ai déjà largement parlé. Elle porte le nom de mécanique statistique ou thermodynamique.

Historiquement, la plupart des tentatives de décrire la vie en termes de thermodynamique ont échoué parce qu’elles se référaient aux théories développées au 19ème siècle par de Clausius et Boltzmann (voir articles 6, 7 et 8 ). Malheureusement, ces théories s’appliquent uniquement à des systèmes dits fermés (isolés), c’est-à-dire tels que ni matière ni énergie ne peut y entrer ou en sortir. De tels systèmes évoluent irréversiblement vers l’équilibre thermodynamique. L’énergie ne peut que se disperser à l’intérieur du système. On traduit cela en disant que l’entropie du système ne peut qu’augmenter. Lorsque cette entropie atteint la valeur maximale compatible avec les contraintes imposées, l’évolution cesse. Il y a équilibre thermodynamique.

Historiquement, la vie semblait contraire aux principes de la thermodynamique parce que les êtres vivants tendent au contraire à diminuer sans cesse l’entropie. Nous avons vu (article 9) que ceci n’est pas contraire aux lois de la thermodynamique s’il y a apport d’énergie. C’est bien le cas des êtres vivants qui ne peuvent subsister que par un apport continu d’énergie (les calories contenues dans leur nourriture). C’est le cas aussi de la machine à vapeur qui est capable (au moins partiellement) de transformer de la chaleur en travail mécanique. L’un peut d’ailleurs remplacer l’autre puisque le moteur à combustion interne a remplacé le cheval dans les transports automobiles.

L’incompréhension vient du fait que le moteur d’une automobile a été fabriqué par l’homme tandis que l’homme (ou le cheval) s’est fabriqué tout seul. Le problème que la thermodynamique du 19ème siècle ne parvient pas à expliquer est donc l’auto-organisation des êtres vivants. C’est ce problème que nous allons examiner maintenant plus en détail. Il est la clef non seulement de l’apparition de la vie sur terre, mais aussi du développement des embryons, de l’évolution des sociétés animales notamment celles des insectes, et plus généralement de l’évolution des éco-systèmes. Il est aussi la clef de l’évolution de l’homme et des sociétés humaines, problème qui nous intéresse ici au premier chef et que j’aborderai à la fin de ce blog.

Nous avons vu (articles 10, 11, 12) que l’auto-organisation n’est pas le propre des êtres vivants. J’ai donné comme exemple celui des cellules de Bénard ou des tourbillons de Taylor. Ils nous serviront souvent de modèle. C’est le physicien et chimiste belge Ilya Prigogine (a) qui a le premier reconnu l’importance de ces phénomènes auxquels il a donné le nom de structures dissipatives (1), établissant ainsi les fondements de la thermodynamique des systèmes hors équilibre.

Bien qu’ayant considérablement progressé durant les cinquante dernières années, cette branche de la thermodynamique est rarement enseignée dans les universités. Elle est généralement mal connue des biologistes qui la découvrent peu à peu. C’est pourquoi les résultats que je vais décrire dans la suite de ce blog ne sont pas encore tous universellement reconnus. Mon but est de les faire connaître et d’en faire apprécier l’importance. Leurs implications pour l’humanité sont considérables non seulement en biologie mais aussi en sociologie, en économie et en politique.

Une structure dissipative est un système thermodynamique ouvert, hors équilibre, continuellement traversé par un flux d’énergie (souvent aussi de matière). Ce flux d’énergie lui permet de se maintenir hors équilibre tout en gardant, au moins pendant un certain temps, une structure à peu près semblable à elle-même (homéostasie) (b). Parmi les exemples simples de structures dissipatives on peut citer non seulement un tourbillon ou une cellule convective mais aussi une vague poussée par le vent, un écoulement d’eau, une flamme, etc…

Clairement les êtres vivants font partie de cette catégorie. Ils se maintiennent en vie grâce à un apport continu d’énergie sous forme de nourriture. D’où l’impression de courir pour rester sur place, si bien décrite par Lewis Caroll dans son livre pour enfants “De l’autre coté du miroir” (c). Il faut en effet constamment travailler, c’est-à-dire dépenser de l’énergie, simplement pour se maintenir en vie. La mort marque un retour vers l’équilibre thermodynamique.

Ce n’est que récemment , grâce notamment aux travaux de Roderick Dewar (d) (2, 3), que les résultats de la mécanique statistique ont pu être étendus aux systèmes ouverts, hors équilibre, tels que les structures dissipatives. Tandis que l’état le plus probable d’un système fermé à l’équilibre est celui d’entropie maximale, la structure la plus probable d’un système ouvert hors équilibre est celle qui maximise la production d’entropie c’est-à-dire la dissipation de l’énergie.

Nous avons vu que c’est bien ce qu’on observe expérimentalement. Je renvoie en particulier le lecteur à ma description des écoulements laminaires et turbulents (article 11). Dans le premier cas la dissipation d’énergie (dite visqueuse) est proportionnelle à la vitesse. Dans le second cas (dissipation turbulente) elle est proportionnelle au carré de la vitesse. Il existe donc une vitesse critique telle que si la vitesse d’écoulement lui est inférieure alors la viscosité est le mécanisme de dissipation le plus efficace et l’écoulement est laminaire. Par contre, si la vitesse d’écoulement est supérieure à la vitesse critique alors la turbulence est le mécanisme de dissipation le plus efficace et l’écoulement devient turbulent. Vous pouvez en faire l’expérience tous les jours en ouvrant un robinet d’eau (4). Un robinet entrouvert ne laisse passer qu’un mince filet d’eau parfaitement laminaire. Un robinet grand ouvert laisse échapper un flot d’eau turbulent. Dans les deux cas la structure de l’écoulement est celle qui maximise la dissipation d’énergie.

Nous avons vu qu’un être vivant est aussi une structure dissipative. Cela veut dire qu’un être vivant est naturellement optimisé pour dissiper l’énergie. La vie est apparue sur terre parce qu’elle conduisait à un accroissement de la dissipation d’énergie, en particulier de l’énergie solaire. La vie a évolué de façon à augmenter constamment cette dissipation d’énergie. La thermodynamique nous donne donc la clef de l’évolution. Elle montre en particulier le véritable rôle de la sélection naturelle. Comme l’avait remarqué Lotka (e) dès 1922 (5), la nature choisit toujours la solution qui dissipe le plus d’énergie. Lorsque Spencer parle de la “survie du plus apte”, le sens du mot “apte” devient maintenant clair. Il s’agit du plus apte à dissiper l’énergie, c’est-à-dire à consommer de la nourriture et à se multiplier (6).

Il y a en effet deux façons d’augmenter la dissipation d’énergie, soit en accroissant la consommation de chaque individu, soit en accroissant leur nombre. Les biologistes ont remarqué que la sélection naturelle agit en effet de chacune de ces deux façons, appelées respectivement sélection K et sélection r, mais sans en connaître la raison profonde. La thermodynamique nous explique pourquoi.

La thermodynamique explique aussi ce que la sélection naturelle n’explique pas: la coopération entre les gènes dans le génome, entre les cellules dans un organisme multicellulaire, ou entre les individus dans une société. Il y a coopération si l’énergie dissipée par l’ensemble est supérieure à la somme des énergies dissipées par chacun des éléments pris individuellement. Si un chasseur peut attraper un lapin, trois chasseurs peuvent attraper un mammouth ce qui est beaucoup plus que trois lapins. Là est la clef de l’auto-organisation. La matière, les gènes, les cellules, les individus s’auto-organisent pour dissiper toujours davantage d’énergie.

C’est ainsi que la vie s’est peu à peu développée pour aboutir à l’homme, de loin le plus gros dissipateur d’énergie. L’humanité elle-même s’auto-organise et sa dissipation d’énergie ne cesse de croître. Au cours du seul 20ème siècle la population du globe est passée de 1,65 milliards d’individus à 6 milliards et la puissance moyenne consommée par chaque individu est passée de 400 à 2.000 Watts (voir figure). Et cela ne nous suffit toujours pas. On comprend maintenant pourquoi l’homme ne sera jamais satisfait. La nature nous a littéralement fabriqués pour augmenter sans cesse la dissipation d’énergie de l’univers.

individu
Puissance moyenne dissipée par individu.
La droite horizontale indique la dissipation
nécessaire pour maintenir en vie un individu au repos.

(a) http://www.philo5.com/Les%20vrais%20penseurs/03%20-%20Ilya%20Prigogine.htm
(b) http://fr.wikipedia.org/wiki/Homéostasie
(c) http://fr.wikipedia.org/wiki/De_l’autre_côté_du_miroir
(d) http://www.inra.fr/les_hommes_et_les_femmes/portraits/tous_les_portraits/roderick_dewar
(e) http://en.wikipedia.org/wiki/Alfred_J._Lotka

(1) I. Prigogine, Thermodynamics of irreversible processes (J. Wiley & Sons, 1955).
(2) R. Dewar, Information theory explanation of the fluctuation theorem, maximum entropy production and self-organized criticality in non-equilibrium stationary states (J. Phys. A.: Math. Gen. 36-3, 2003).
(3) R. Dewar, Maximum Entropy Production and the Fluctuation Theorem (J. Phys. A.: Math. Gen. 38, 2005).
(4) De nos jours les robinets sont généralement équipés d’un brise-jet. Pour cette expérience, il est préférable de le retirer.
(5) A. Lotka, Contribution to the energetics of evolution (Proc. Natl. Acad. Sci. USA 8, 151-154, 1922)
(6) F. Roddier, Maximum Entropy Production and Darwinian Evolution .