Tous les articles par francois

28 – Le pain, le levain et les gènes

Le livre qui porte ce titre est maintenant publié aux éditions « Parole ». Vous pouvez le commander soit à votre libraire, soit directement à l’éditeur par téléphone (04 94 80 76 58), par courriel (parole@wanadoo.fr) ou par lettre adressée à:

Parole
rue juterie
83630 Bauduen

pour le prix de 13 €. En voici la couverture:

Couverture-pain

René Merle, agrégé d’histoire et romancier provençal, et Yvonne Donati-Knaebel, docteur en médecine, ont eu la gentillesse d’accepter d’y participer, en écrivant l’un une préface, l’autre une introduction sur l’histoire du pain.

Ce livre contient 4 parties:
1. Le levain de l’amitié: j’y décris comment j’ai découvert que mes gènes toléraient mal toute nourriture à base de céréales.
2. Le pain, le beurre et les gènes: j’y montre comment l’évolution de l’homme, des grands singes à l’homo sapiens, est liée à l’évolution de sa nourriture.
3. Comme des petits pains: j’y montre comment l’évolution de l’univers est liée à la dissipation de l’énergie. Lorsque leurs ressources énergétiques s’épuisent, les étoiles, les espèces animales ou les sociétés humaines s’effondrent et reprennent à partir de nouvelles ressources.
4. La main à la pâte: mes recettes personnelles à base de levain.

Voici maintenant une critique du livre parue dans le mensuel « La Décroissance »:

article decroissance


27 – L’homme, la vie et la dissipation d’énergie

Chers lecteurs,
J’ai arrêté ce blog fin 2007. Plusieurs d’entre vous m’ont fait part de leur déception. Je l’ai fait pour me consacrer à la rédaction de deux livres sur des sujets traités en grande partie dans ce blog.
Le premier livre, écrit en français, est destiné à un très large public. Il devrait paraître cette année aux éditions Paroles. Son titre: “Le pain, le levain et les gènes”. J’y prends comme exemple la nourriture pour expliquer ce qu’est l’évolution. Le second, rédigé en anglais, est un ouvrage pluridisciplinaire s’adressant aux scientifiques: physiciens, biologistes, économistes et historiens. Son titre: “Thermodynamics of evolution”. Sa rédaction me prendra plus de temps. Je signalerai ici leur parution.
En attendant, vous trouverez ci-dessous un court texte, à caractère politique dans lequel je reprends plusieurs thèmes développés dans ce blog.
Bonne lecture.

L’homme, la vie
et la dissipation d’énergie
François Roddier
Janvier 2009

Une nouvelle loi fondamentale de la physique a été récemment découverte. Il s’agit d’un théorème abstrait de mécanique statistique dont la démonstration a été publiée en janvier 2003, dans le plus grand journal européen de physique mathématique (J. of Physics A). Personne n’en a parlé dans les journaux. Peu de gens en ont encore vraiment saisi l’importance.

La démonstration est due à un chercheur d’origine écossaise Roderick Dewar, travaillant à Bordeaux à l’INRA. Pourquoi l’INRA? Parce que ce théorème a des implications fondamentales en biologie. Il s’applique en particulier à l’homme et à l’évolution des sociétés humaines.

Il implique que, depuis sa création, l’univers évolue en formant des structures matérielles de plus en plus complexes capables de dissiper de plus en plus efficacement l’énergie. Les étoiles, les planètes, les plantes, les animaux, et enfin l’homme forment une telle suite de structures.

En physique, la puissance dissipée s’exprime en watts. L’efficacité avec laquelle une structure matérielle dissipe l’énergie peut s’exprimer en watts par kilogramme de matière. L’astronome américain Eric Chaisson a tracé une courbe montrant l’efficacité avec laquelle les structures citées plus haut dissipent l’énergie en fonction de l’âge de l’univers. Cette courbe est reproduite à la fin de ce texte. La progression est foudroyante.

Pour un physicien, la vie est apparue sur Terre pour dissiper l’énergie solaire. Dès 1905, Ludwig Boltzmann, père de la mécanique statistique et grand admirateur de Darwin, écrivait: “la vie est une lutte pour l’énergie libre” (c’est-à-dire l’énergie qui peut être dissipée).

Dès 1922, le chercheur américain Alfred Lotka écrivait: “la sélection naturelle tend à maximiser le flux d’énergie à travers une structure organique”. Un peu plus tard, il ajoute: “le principe de sélection naturelle agit comme si c’était une troisième loi de la thermodynamique” (c’est-à-dire une nouvelle loi de la mécanique statistique).

Cette loi est maintenant démontrée. C’est la loi de Dewar. Comme l’évolution de l’univers, l’évolution des espèces est un processus de maximisation du taux de dissipation de l’énergie. L’évolution de l’humanité n’y échappe pas. La physique et la biologie nous montrent comment ce processus fonctionne.

C’est un chercheur belge, d’origine russe, Ilya Prigogine qui a étudié le premier ce processus en détail. Son travail lui a valu le prix Nobel en 1977. Les étoiles, les planètes, les plantes, les animaux, l’homme, les sociétés humaines sont des structures dissipatives au sens de Prigogine.

En mécanique statistique, la dissipation d’énergie porte le nom de “production d’entropie”. La loi de Dewar s’appelle “MEP” (en anglais: maximum entropy production). Une structure dissipative a la propriété de s’auto-organiser. Ce faisant, elle diminue son entropie interne en l’exportant à l’extérieur. Elle maximise le flux d’entropie vers l’extérieur.

Depuis les travaux du chercheur américain Claude Shannon (1948), on sait qu’entropie et information sont deux aspects opposés d’un même concept. En exportant de l’entropie, une structure dissipative importe de l’information venant de son environnement. Elle mémorise cette information.

Chez les plantes ou les animaux, l’information sur l’environnement est principalement mémorisée dans les gènes. Plantes et animaux sont adaptés à un environnement particulier. Cette adaptation se fait par sélection naturelle. Sont sélectionnés, les plantes où les animaux qui se reproduisent le plus vite, c’est-à-dire ceux qui accroissent le plus rapidement la dissipation d’énergie.

En dissipant l’énergie, un être vivant modifie son environnement. Ses ressources naturelles s’épuisent ou se modifient. Les proies dont il se nourrit évoluent pour échapper à leurs prédateurs. Dès que l’environnement change, les gènes doivent évoluer à leur tour.

Tout être vivant est ainsi pris dans un cycle infernal que le biologiste Leigh van Vallen a baptisé “l’effet de la reine rouge”, en référence au livre de Lewis Carrol “Alice à travers le miroir” dans lequel la reine rouge dit: “ici, il faut courir le plus vite possible pour rester sur place”.

Pour rester en harmonie avec un environnement qu’il fait évoluer, un être vivant doit évoluer toujours plus vite. C’est la raison pour laquelle la dissipation d’énergie croit de plus en plus rapidement. L’information mémorisée dans les gènes ne cesse d’augmenter. Les êtres vivants deviennent de plus en plus complexes.

Beaucoup de biologistes pensaient que l’adaptation à l’environnement se faisait de façon progressive. En 1972, le paléontologue américain Stephen Jay Gould montre que ce n’est pas le cas. Quasi-stationnaires pendant de plus ou moins longues périodes les espèces vivantes tendent à disparaître de façon brutale, laissant la place à de nouvelles espèces. C’est le phénomène des équilibres ponctués.

En 1993, le physicien danois Per Bak et son collègue Kim Sneppen montrent que ce phénomène est une conséquence de la façon dont l’énergie se dissipe dans l’univers, un processus physique baptisé “SOC” (en anglais: self-organized criticallity). Dewar montrera ensuite que le phénomène “SOC” est une conséquence de la loi “MEP”. Le phénomène “SOC” fait que de nouvelles espèces animales apparaissent assez fréquemment, de nouveaux genres plus rarement, de nouvelles familles exceptionnellement.

La famille des hominidés est apparue il y a environ 7 millions d’années à la suite d’un changement climatique en Afrique orientale. La savane ayant remplacé la forêt, la population de primates s’est effondrée. N’ayant plus de fruits à manger, quelques rares individus ont réussi à survivre en mangeant des racines qu’ils pouvaient arracher de leurs mains. Il leur fallu quelques dizaines de milliers d’années pour s’adapter à cette nouvelle nourriture. Ce furent les premiers hominidés, d’un genre baptisé “australopithèque”. Ils se diversifièrent en de nombreuses espèces.

Il y a environ 2,5 millions d’années, un nouveau changement important de l’environnement a donné naissance au genre “homo”. Pour survivre, le premièr représentant de ce genre, l’homo abilis, a dû manger des restes d’animaux tués par d’autres espèces animales. Ses gènes ont mis à nouveau plusieurs dizaines de milliers d’années pour s’adapter à cette nouvelle nourriture.

Il sera bientôt suivi d’une floraison d’espèces homo sachant toutes capturer et tuer leur propre gibier. Quittant l’Afrique le genre homo se répand dans le monde à la poursuite de nourriture et se multiplie. Ayant appris à se couvrir de peaux de bêtes et à domestiquer le feu, l’homo erectus affronte le froid des pays nordiques.

C’est l’époque de la disparition des grands mammifères. Ayant vraisemblablement épuisé leur environnement, les diverses espèces homo s’éteignent les unes après les autres. A la fin du paléolithique, il n’en reste plus qu’une: l’espèce homo sapiens. Un phénomène nouveau, absolument unique dans l’évolution, va alors se produire.

Cela se passe il y a dix mille ans au moyen orient. En quelques siècles seulement, l’espèce homo va changer totalement de nourriture, sans évolution notable de ses gènes. L’homme se met à manger des céréales, une nourriture à laquelle son système digestif est totalement inadapté. Comment a-t-il fait?

Il a découvert la cuisson des aliments. Le même phénomène va bientôt se reproduire de façon indépendante en Chine, puis en Amérique du sud et finalement en Amérique du nord. C’est ce qu’on appelle la révolution néolithique. Apparaissent alors l’agriculture et l’élevage. Ces nouvelles techniques se répandent comme des traînées de poudre.

La sélection naturelle, qui favorisait jusqu’ici les gènes dissipants le plus d’énergie, favorise maintenant les techniques ou cultures (dans tous les sens du terme), permettant une adaptation beaucoup plus rapide à l’environnement. L’information sur l’environnement qui était jusqu’ici mémorisée principalement dans les gènes et maintenant aussi mémorisée dans le cerveau de l’homme.

L’américain Ray Kurzweil estime la capacité du cerveau humain à environ 10 Gigabits comparé à 1 Gigabit pour les gènes. A partir du néolithique, le cerveau va contrôler l’évolution de l’humanité. Le zoologiste anglais Richard Dawkins a proposé d’appeler “mèmes” les éléments d’information enregistrés dans le cerveau par analogie avec les “gènes”. Chez l’homme, les mèmes ont remplacé les gènes. Les conséquences en sont considérables.

Alors que les gènes se reproduisent lentement par transmission génétique, les mèmes se transmettent à toute vitesse grâce au langage. Un nouveau type de structures dissipatives s’auto-organise formé d’individus partageant les mêmes connaissances ou “mèmes”. Ce sont les premières sociétés humaines. Tandis que les gènes n’évoluent plus ou évoluent trop lentement, ce sont maintenant les “mèmes” qui évoluent et se diversifient. La sélection naturelle va désormais favoriser les mèmes les plus dissipatifs d’énergie. La sélection naturelle agit désormais sur les sociétés.

Apparaît une nouvelle forme de mémorisation de l’information propre à ces sociétés: l’écriture. On sait que l’écriture est apparue pour comptabiliser les échanges. Elle est secondée par l’invention de la monnaie, fondement de l’économie. Le développement de l’économie n’est rien d’autre que le développement de la dissipation d’énergie par les structure dissipatives que sont les sociétés humaines. Avec la monnaie, celle-ci fait un grand bon en avant.

Peu d’économistes ont réalisé que l’économie est une branche de la mécanique statistique. Robert Ayres et Nicolas Georgescu-Roegen ont sans doute été les premiers vers 1970. Malheureusement, ils se réfèrent essentiellement à la thermodynamique du 19ème siècle qui ne s’applique qu’au voisinage de l’équilibre. Elle ne s’applique pas à l’économie qui est un processus dissipatif entièrement hors équilibre.

Il ne fait aucun doute que les résultats de Dewar et de Per Bak deviendront un jour les piliers d’une nouvelle science économique, lorsque les économistes voudront bien s’apercevoir de leurs travaux. Les plus avancés d’entre eux découvrent seulement maintenant l’importance primordiale de l’information en économie. L’histoire montre que l’évolution favorise toujours les sociétés qui dissipent le plus d’énergie, c’est-à-dire celles qui ont le développement économique le plus rapide.

Dans une société les individus sont soumis à des contraintes qui limitent leur liberté. Plus une société est organisée, plus ces contraintes sont fortes. Comme a dit Rousseau: “l’homme est né libre, et partout il est dans les fers”. Ces contraintes ne sont pas nécessairement optimisées pour maximiser la dissipation d’énergie. L’évolution va donc tendre à les éliminer pour les remplacer par des contraintes mieux optimisées. C’est l’auto-organisation de la société. Son mécanisme est la sélection naturelle. Chez l’homme, elle agit essentiellement sur les “mèmes” (évolution culturelle) non seulement au niveau des individus, mais aussi au niveau des sociétés (sélection de groupe).

Les “mèmes” ayant remplacé les gènes, une société d’individus partageant les mêmes “mèmes” devient en soi une espèce mémétique. Aucune espèce animale n’attaque sa propre espèce. Une espèce qui le ferait mettrait ses gènes en danger. Elle serait vite éliminée par la sélection naturelle et remplacée par une espèce concurrente. Devenue unique, l’espèce homo sapiens n’a plus aucune concurrence.

Un membre d’une espèce mémétique peut alors domestiquer un membre d’une autre espèce mémétique, comme on domestique un animal. Il en fait un esclave. Il peut aussi tuer un membre d’une autre espèce mémétique sans mettre en danger sa propre espèce. C’est l’extermination des peuples primitifs par les envahisseurs blancs.

Avec la découverte des énergies fossiles, une nouvelle révolution arrive, la révolution industrielle. A la pointe de l’industrialisation, l’Angleterre est le premier pays à limiter les pouvoirs de sa monarchie. La révolution française suit. Parce que la monarchie entravait le développement de l’économie, elle était condamnée à disparaître.

Au vingtième siècle deux idéologies s’affrontent, le capitalisme et le communisme. Ce sont des espèces mémétiques différentes. Le communisme finit par succomber parce qu’il ne permettait pas une dissipation aussi efficace de l’énergie. Le libéralisme envahit le monde comme un feu de forêt. Cela a plusieurs effets.

La concurrence dite libre et non faussée, donne libre cours à la sélection naturelle entraînant une croissance sans bornes des inégalités entre les nations (sélection de groupe) et entre les individus d’une même nation (sélection individuelle). Ces inégalités favorisent à leur tour la dissipation d’énergie.

En augmentant la dissipation d’énergie, le libéralisme accélère l’évolution, ce qui déstabilise les sociétés. Celles-ci doivent en effet sans cesse s’adapter, se réorganiser. C’est l’effet de la reine rouge de van Vallen. Or la vitesse à laquelle une société ou espèce mémétique évolue est limitée par la vitesse à laquelle les mèmes sont transmis d’une génération à une autre. C’est l’effondrement du système scolaire, signe précurseur de l’effondrement d’une société.

Plus une société dissipe d’énergie, plus elle modifie son environnement physique. Une conséquence de la révolution industrielle est le réchauffement climatique. Tout ceci n’est pas nouveau. Les sumériens ont transformé en désert les terres fertiles du moyen orient. La majorité des grandes civilisations du passé se sont effondrées de la même façon. C’est le processus “SOC” du physicien Per Bak. Le même phénomène se produit actuellement à l’échelle de la planète.

On comprend maintenant la fatalité de l’histoire. Le même processus se répète sans cesse, chaque fois sous une forme différente. C’est le processus général de dissipation de l’énergie dans l’univers. La cause de tous nos maux est enfin élucidée. Pour y remédier, il suffirait de limiter notre dissipation d’énergie. Mais est-ce faisable?

Le problème est celui de l’irréversibilité thermodynamique. La sélection naturelle est un processus irréversible. Si, pour le bien commun, un individu décide de limiter sa dissipation d’énergie, alors il sera tôt ou tard éliminé dans la compétition avec les autres. La réversibilité n’est possible que si tous les individus de notre planète décident solidairement de diminuer leur dissipation d’énergie. Il suffit alors qu’un seul individu refuse de coopérer pour qu’il reprenne l’avantage, auquel cas toute la coopération s’effondre.

La situation apparaît sans espoir. Elle l’est moins à l’échelle des nations. Nombre d’entre elles ont signé les accords de Kyoto. Hélas, il suffit que l’une d’entre elles refuse (les États-Unis) pour annihiler le résultat. Les habitants de la planète n’accepteront de limiter leur dissipation d’énergie que s’ils sont tous convaincus d’en tirer avantage et si chacun est confiant que tous les autres en feront autant.

Un aspect du problème est que la relation explicitée ici entre la dissipation de l’énergie et le bonheur individuel est difficile à saisir. Le principe de libéralisation de l’économie paraît à priori séduisant. Le mot libéralisme a la même racine que le mot liberté. Il libère en effet l’individu des contraintes arbitraires. Il a conduit jusqu’ici l’humanité vers plus de démocratie. Mais surtout le libéralisme favorise la croissance qui est synonyme de paix, de progrès et de prospérité.

Pour la majorité des économistes, favoriser la croissance est le postulat de base de toute économie. La déclaration d’indépendance américaine reconnaît à chacun un droit inaliénable à la vie, à la liberté, et à la recherche le bonheur (pursuit of happiness). Le libéralisme semble apporter une bonne réponse à ce besoin. Mais c’est une réponse à court terme.

Un bonheur à long terme n’est possible qu’en harmonie avec l’environnement. Hélas, au lieu de tendre vers l’harmonie en restant au voisinage de l’équilibre thermodynamique, le libéralisme maximise la dissipation d’énergie en maximisant le déséquilibre thermodynamique. Étant le plus efficace à dissiper l’énergie, il est aussi le plus efficace à épuiser les ressources et à polluer l’environnement. Il oblige l’homme à évoluer toujours plus vite.

Pour faire face à l’épuisement des ressources et à la pollution, la société doit sans cesse évoluer. Elle le fait en imposant constamment à l’homme de nouvelles contraintes. Ainsi, au lieu de libérer l’individu, le libéralisme l’asservit davantage. En favorisant la sélection naturelle, il accroît les inégalités. Le résultat est moins de liberté, moins d’égalité, moins de fraternité. Il s’oppose aux valeurs de notre République.

Doit-on pour autant renoncer à la croissance et au progrès? A moins de faire preuve d’ascétisme, cela paraît difficile, mais on peut tenter d’en rendre les contraintes acceptables. Elles le deviennent dans la mesure où nous avons le temps de nous y adapter. Pour cela, l’évolution doit être suffisamment lente. Comme nous l’avons vu, la société ne doit pas changer de façon notable entre deux générations. Il suffirait donc de limiter notre taux de dissipation de l’énergie en conséquence. En termes de mécanique statistique cela veut dire rester dans le domaine linéaire des transformations quasi-réversibles d’Onsager. Certains appellent cela le développement durable.

Le phénomène de production maximale d’entropie n’est qu’une propriété statistique valable pour un nombre suffisant d’éléments. Si notre planète se réduit à une société unique d’individus solidaires, il ne s’applique plus. Dans son ensemble, l’humanité reste maîtresse de sa destinée. Le seul espoir est donc une prise de conscience à l’échelle internationale.

Une telle prise de conscience semble prendre effectivement naissance grâce au fait que pour la première fois la dégradation de l’environnement devient visible dans le temps d’une génération, signe d’un nouveau séisme à l’échelle mondiale. Le coût d’une nouvelle restructuration de la société commence à paraître prohibitif non pas sur le plan humain mais sur le plan économique. D’où un appel effectif pour un développement durable. En essayant de sauver la planète (qui s’en moque), nous sauverons peut-être l’homme.

chaisson

Évolution du taux de dissipation de l’énergie (par unité de masse)
en fonction de l’âge de l’univers (d’après Eric Chaisson)

26 – L’univers est un ordinateur.

Bien qu’abstraite, la notion d’énergie nous est devenue familière grâce à sa production industrielle sous des formes variées: énergie thermique, hydroélectricité, énergie nucléaire, etc… Encore plus abstraite, la notion d’information nous devient elle aussi peu à peu familière grâce aux progrès des ordinateurs et à leur utilisation dans la vie courante. Ceux-ci deviennent chaque jour plus compacts et plus puissants de sorte qu’on peut se demander jusqu’où le progrès technique peut aller.

Un des problèmes rencontrés par les ingénieurs est le dégagement de chaleur. Je revois encore la machine IBM 650 de l’observatoire de Meudon que j’ai utilisée pour mon travail de thèse au début des années 60. Comparable en plus lent à ce qu’on appelle de nos jours une calculette programmable, cette énorme machine à lampe dégageait une telle chaleur qu’une demi douzaine de climatiseurs étaient nécessaires pour refroidir la grande salle qui la contenait. Bien que beaucoup plus faible, la chaleur dégagée par les circuits intégrés modernes reste suffisante pour empêcher la fabrication de circuits compacts à trois dimensions. La question s’est donc posée de savoir s’il existe une limite inférieure fondamentale à la dissipation d’énergie d’un ordinateur.

Les opérations effectuées par les ordinateurs peuvent toutes se décomposer en opérations logiques élémentaires faisant partie de ce que les mathématiciens appellent l’algèbre de Boole, du nom du logicien britannique George Boole. Elles s’appliquent à des variables dites booléennes pouvant prendre seulement deux valeurs 0 ou 1. Certaines de ces opérations sont réversibles. Par exemple la négation est une opération réversible notée NON (ou NOT). Elle remplace la valeur 0 par 1 et la valeur 1 par 0. D’autres opérations booléennes sont irréversibles, par exemple l’opération ET (ou AND). Appliquée à deux variables booléennes, cette opération donne pour résultat 1 si et seulement si les deux variables sont égales à 1. Le résultat 0 pouvant être obtenu de plusieurs façons différentes, cette opération est clairement irréversible.

Dans un ordinateur les opérations booléennes sont effectuées par des systèmes physiques. Si l’opération est réversible, elle pourra être effectuée par un système subissant une transformation réversible. On a vu (article 7) qu’une telle transformation idéale se fait sans dégagement de chaleur. Par contre une opération irréversible sera en général effectuée par un système physique dissipatif, c’est-à-dire dégageant de la chaleur.

Des chercheurs comme Edward Fredkin ont montré qu’il est possible de développer une logique dite “conservative” dans laquelle toutes les opérations logiques sont réversibles, sauf l’effacement du contenu d’une mémoire qui reste évidemment irréversible. L’inconvénient de la logique conservative est de produire des résultats supplémentaires non désirés appelés “déchets numériques”. Ces résultats encombrent la mémoire de l’ordinateur et ne peuvent être effacés sans dissipation d’énergie. Une solution à ce problème est de sauver les résultats désirés et d’inverser le calcul puisque celui-ci est réversible. Les déchets numériques sont alors “recyclés”. L’ordinateur se retrouve dans l’état initial prêt à effectuer de nouveaux calculs. C’est l’équivalent informatique du cycle de Carnot, le cycle réversible du moteur thermique idéal.

Inversement, un ensemble de particules en interaction, comme celles d’un gaz dans un moteur thermique, peut être considéré comme un ordinateur effectuant des opérations logiques. Pour le montrer, Fredkin a développé un modèle théorique dit de “boules de billard”. Dans ce modèle idéal, les boules de billard se déplacent sans frottement et les chocs sont purement élastiques. Les trajectoires sont alors parfaitement réversibles. La figure ci-dessous montre que le choc de deux boules de billard est effectivement l’équivalent d’une opération logique réversible. On observe les boules A et B sur les trajectoires en trait plein si et seulement si elles sont toutes deux présentes. On ne les observe sur les trajectoires en pointillé que si l’une d’entre elle est présente. On remarque l’abondance de résultats non-nécessairement désirés (déchets numériques).

chocs

Choc entre deux particules
considéré comme une opération logique

Mais l’univers n’est-il pas un ensemble de particules en interaction? Dans ce cas l’univers est, comme le pense Fredkin, un immense ordinateur. Mais que calcule-t-il? Le lecteur assidu de ce blog aura sans doute deviné la réponse. L’univers suit un algorithme d’optimisation. Il cherche constamment à maximiser la dissipation d’énergie (ou taux de production d’entropie).

Dans le cas d’un système isolé, la solution est triviale. L’algorithme répartit également l’énergie entre toutes les particules ou, plus généralement, entre tous les degrés de liberté du système. Les variations de température, de pression ou de toute autre variable macroscopique s’estompent. Intégralement convertie en chaleur, l’énergie libre disparait. Le système tend vers ce qu’on appelle l’équilibre thermodynamique.

Si, par contre, le système est soumis à des différences de température, de pression ou de concentration chimique, et que ces différences ou gradients sont maintenus par un apport constant d’énergie, alors la solution est loin d’être triviale. Apparaît ce que nous avons appelé des structures dissipatives auto-organisées. Le système cherche toujours à atteindre l’équilibre thermodynamique mais sa trajectoire dans l’espace des phases (article 24) est limitée par la contrainte ainsi imposée. Elle reste confinée dans un volume restreint.

Dans le cas d’un gaz soumis à un certain gradient de pression ou de température, on voit apparaître des mouvements cycliques (articles 10 et 11). Lorsqu’on augmente le gradient, des mouvements de fréquence plus élevée apparaissent. C’est l’évolution vers le chaos décrite à l’article 20. Dans l’espace des phases, la trajectoire du système est d’abord périodique comme un son simple devenant de plus en plus riche en harmoniques. Au stade du chaos, la trajectoire n’est plus périodique. Elle remplit peu à peu l’espace restreint disponible sans jamais passer deux fois par le même point. Prédit en 1971 par un physicien mathématicien David Ruelle, ce phénomène baptisé “attracteur étrange” avait été découvert empiriquement dès 1963 par un météorologue, Edward Lorenz à partir de simulations numériques. David Ruelle ignorait cette découverte publiée dans une revue de météorologie. En 1976, un astronome français Michel Hénon en publiait un autre exemple l’attracteur de Hénon.

Les interactions entres molécules ne se limitent pas aux chocs. Des réactions chimiques peuvent se produire. En présence d’un fort gradient de concentration, des cycles chimiques peuvent apparaitre et s’auto-entretenir. Nous avons vu que la vie est apparue ainsi. Il n’est donc pas étonnant de retrouver des phénomènes similaires dans la reproduction des êtres vivants (suite logistique de l’article 20). Quelques années plus tard un autre physicien théoricien Mitchell Feigenbaum montrait effectivement l’universalité de cette évolution vers le chaos. Nous serions ainsi nous-mêmes des attracteurs étranges. Confinés dans l’espace, nous restons semblables à nous mêmes mais jamais parfaitement identiques. Notre cheminement est imprévisible.

Liens internet:
http://www.columbia.edu/acis/history/650.html
http://fr.wikipedia.org/wiki/Algèbre_de_Boole_(logique)
http://fr.wikipedia.org/wiki/George_Boole
http://en.wikipedia.org/wiki/Edward_Fredkin
http://fr.wikipedia.org/wiki/Cycle_de_Carnot
http://fr.wikipedia.org/wiki/David_Ruelle
http://fr.wikipedia.org/wiki/Attracteur_Étrange
http://fr.wikipedia.org/wiki/Edward_Lorenz
http://fr.wikipedia.org/wiki/Attracteur_de_Hénon
http://fr.wikipedia.org/wiki/Mitchell_Feigenbaum

La logique conservative est décrite dans un article en anglais de Fredkin et Toffoli disponible sur l’internet: http://www.cs.princeton.edu/courses/archive/fall05/frs119/papers/fredkin_toffoli82.pdf


25 – La libération de l’énergie.

Revenons aux notions de thermodynamique élémentaire que nous avons introduites à l’article 6. L’énergie mécanique peut être intégralement convertie en chaleur, une forme d’énergie associée au mouvement microscopique désordonné des molécules. Mais la chaleur ne peut être que partiellement convertie en travail mécanique. Elle ne peut l’être qu’en présence de différences de températures, c’est-à-dire de variations d’un paramètre macroscopique observable et contrôlable, la température.

Cela a amené l’américain J. Willard Gibbs à distinguer deux sortes d’énergie, l’énergie libre et l’énergie liée. L’énergie libre, entièrement convertible en travail mécanique, est celle associée aux paramètres macroscopiques de l’espace des phases décrit dans notre précédent article. Par opposition, l’énergie liée est celle associée aux paramètres microscopiques inobservables. Lorsqu’on mélange de l’eau chaude et de l’eau froide, les différences de température initiales s’estompent. Il y a bien conservation de l’énergie, mais l’énergie libre associée à des différences macroscopiques de température se transforme irréversiblement en énergie liée, associée au mouvement microscopique inobservable et incontrôlable des molécules. Les thermodynamiciens expriment ce fait en disant que l’entropie du mélange a augmenté.

On comprend ainsi la relation découverte par Claude Shannon entre l’entropie et l’information (article 8). Le transfert d’énergie de paramètres observables à des paramètres inobservables se traduit en effet par une perte d’information. Comme il y a augmentation d’entropie, cela veut dire qu’un gain d’entropie est l’équivalent d’une perte d’information. Cette équivalence entre information et entropie (ou plutôt son opposé appelé négentropie) paraît maintenant claire. Elle pose cependant un problème car l’information telle que Shannon l’a définie (voir article 8) est liée à la notion de probabilité.

Pour un physicien toute grandeur physique est nécessairement une quantité objective, c’est-à-dire indépendante de l’observateur. Le problème est alors de savoir si une probabilité peut être considérée comme une quantité objective. C’est malheureusement difficilement le cas. Lorsqu’un météorologue estime la probabilité de beau temps, il fonde ses prévisions sur un ensemble d’observations ayant une précision limitée. Cela entraîne qu’un observateur différent fera des prévisions peut-être similaires à court terme mais qui pourront devenir très différentes à long terme. La probabilité dépend donc de l’observateur.

Le problème vient du fait qu’on est en présence d’information incomplète. Le physicien américain E. T. Jaynes a montré que cela n’empêchait pas de raisonner objectivement. Pour cela on part d’une probabilité à priori qui est effectivement “subjective” dans la mesure où deux observateurs différents disposent d’observations différentes et on l’affine au fur et à mesure que de nouvelles observations deviennent disponibles. On obtient ainsi une probabilité à posteriori de plus en plus objective. C’est ainsi que la science progresse. La méthode générale pour y parvenir porte le nom d’estimation bayesienne du nom du mathématicien et pasteur anglais Thomas Bayes.

Le fait que l’entropie dépend de l’information à priori que possède l’observateur apparaît clairement dans ce qu’on appelle le paradoxe de Gibbs. Considérons une enceinte isolée formée de deux compartiments séparés par une cloison amovible. Initialement, ces deux compartiments contiennent de l’oxygène gazeux à la même température et à la même pression. Il y a équilibre thermodynamique. L’expérimentateur retire alors la cloison en la faisant lentement glisser parallèlement à elle-même sans fournir de travail mécanique. Il y a toujours équilibre thermodynamique. L’état macroscopique du gaz n’a pas changé. Son entropie est restée la même.

L’expérimentateur apprend alors que les compartiments contenaient deux isotopes différents (1). L’un contenait de l’oxygène 16, l’autre de l’oxygène 18. Lorsqu’il a retiré la cloison ces deux isotopes se sont mélangés. Cette transformation étant irréversible, l’entropie du gaz a augmenté. La variation d’entropie est finie et aisément calculable. Dans le premier cas les molécules d’oxygène étaient considérées par l’observateur comme indiscernables. Dans le second cas, elles sont considérées comme discernables. La variation d’entropie dépend donc de la connaissance à priori qu’a notre observateur sur le gaz et de sa capacité à en discerner les molécules.

Le fait que l’entropie a un aspect subjectif n’avait pas échappé au physicien écossais James Clerk Maxwell. Celui-ci avait en effet entrevu une possibilité de mettre en défaut le second principe de la thermodynamique. Imaginons à nouveau une enceinte isolée formée de deux compartiments séparés par une cloison. Les deux compartiments contiennent le même gaz à la même température et à la même pression. La cloison est percée d’un petit orifice capable de laisser passer une molécule à la fois. Maxwell imagine un “démon” capable de contrôler le passage à travers l’orifice en faisant glisser une cloison, toujours sans travail mécanique (figure ci-dessous).

demon_maxwell

Le démon de Maxwell (2)

Il laisse par exemple passer les molécules rapides vers la droite mais pas vers la gauche et laisse passer les molécules lentes vers la gauche mais pas vers la droite. Il peut ainsi faire naître une différence de température entre les deux compartiments ce qui est bien contraire au second principe. Pour reprendre notre exemple précédent, ce même démon pourrait tout aussi bien séparer ainsi l’oxygène 16 de l’oxygène 18. De façon générale, il est capable de diminuer l’entropie d’un système isolé ce que le second principe ne permet pas.

Il doit cette prouesse à sa capacité d’observer et de contrôler des paramètres à l’échelle microscopique. Comme l’a montré le physicien français Léon Brillouin la diminution d’entropie du gaz correspond très exactement à la quantité d’information collectée par le démon et enregistrée sous la forme d’un changement d’état du gaz. En diminuant l’entropie de ce système, il rend possible la production de travail mécanique. Par exemple, il peut permettre à un moteur thermique de fonctionner à partir des différences de températures qu’il aura ainsi créée.

C’est un fait général que toute collecte d’information entraîne une diminution d’entropie donc une “libération” d’énergie susceptible de se dissiper. Ce fait a des conséquences considérables. La suite de ce blog sera consacrée à leur examen.

(1) Un même élément chimique peut avoir des atomes de masses différentes parce contenant un nombre de neutrons différent. Ainsi l’atome d’oxygène 18 contient deux neutrons de plus que l’atome d’oxygène 16.
(2) Dessin tiré de Darling & Hulburt, American Journal of Physics, 23-7, 1955.

Liens internet:
http://en.wikipedia.org/wiki/Josiah_Willard_Gibbs
http://fr.wikipedia.org/wiki/Énergie_libre
http://fr.wikipedia.org/wiki/Claude_Shannon
http://en.wikipedia.org/wiki/Edwin_Thompson_Jaynes
http://fr.wikipedia.org/wiki/Thomas_Bayes
http://fr.wikipedia.org/wiki/Paradoxe_de_Gibbs
http://fr.wikipedia.org/wiki/James_Clerk_Maxwell
http://fr.wikipedia.org/wiki/Démon_de_Maxwell
http://fr.wikipedia.org/wiki/Léon_Brillouin


24 – La caverne de Platon.

Dans cet article nous ferons un pas de plus vers l’abstraction. Que le lecteur peu porté vers les notions abstraites me pardonne. Ce sera mon dernier pas dans ce sens. Je reviendrai ensuite peu à peu à des notions plus concrètes, en décrivant ce qui me paraît être les conséquences matérielles de tout ceci.

J’ai comparé (article 19) les flux d’énergie au flux d’une rivière. C’est plus qu’une simple métaphore. L’énergie s’écoule effectivement comme un fluide, mais dans un espace abstrait ayant un très grand nombre de dimensions appelé l’espace des phases. Tel que nous le percevons, l’espace dans lequel nous vivons a trois dimensions. Cela veut dire que pour préciser la position d’un point dans cet espace il faut donner trois nombres ou coordonnées, par exemple sa latitude, sa longitude et son altitude. Pour préciser l’état d’un système mécanique, il faut en général beaucoup plus que trois nombres. La mécanique newtonienne nous apprend que l’évolution d’une masse ponctuelle est entièrement déterminée par sa position et sa vitesse. Aux trois nombres donnant sa position, il faut donc ajouter trois autres nombres donnant sa vitesse en grandeur et en direction. Ainsi pour préciser l’état d’un système mécanique limité à une seule masse ponctuelle il faut 6 nombres, ce qui veut dire que cet état peut être représenté par un point dans un espace à 6 dimensions. C’est l’espace des phases qui décrit l’évolution d’une masse ponctuelle.

Si l’on considère les atomes d’un gaz comme des masses ponctuelles, et si ce gaz contient N atomes, son état sera représenté par un point dans un espace des phases à 6N dimensions. Il est bien entendu impossible de connaître les 6N coordonnées de ce point. On peut tout au plus mesurer une distribution grossière des vitesses et des températures à l’intérieur du gaz. C’est ce qu’on appelle son état macroscopique. De façon générale, à un état macroscopique donné correspond toujours un grand nombre d’états dits microscopiques dont chacun est représenté par un point de l’espace des phases.

L’ensemble de ces points évolue au cours du temps suivant les lois de la mécanique, en particulier la loi de conservation de l’énergie. Cette loi implique que les trajectoires de ces points sont comparables à celles des gouttes d’eau dans une rivière. Un théorème dû au mathématicien français Joseph Liouville nous dit en effet que ces points se déplacent comme les particules d’un fluide incompressible. Tandis qu’une rivière suit la ligne de plus grande pente, notre fluide incompressible n’a pas de direction privilégiée vers laquelle se diriger. Que va-t-il faire? Comme une rivière dans une plaine, il va s’étaler. La rivière y fait des méandres. Notre fluide en fait de même.

Reprenons l’exemple de notre gaz représenté par un point dans un espace à 6N dimensions. L’ensemble des points représentatifs de ce gaz correspondant à une même énergie U se trouvent sur une “hypersurface” de dimension 6N -1. A cause des interactions entre les atomes du gaz, cette hypersurface évolue au cours du temps. On peut montrer qu’elle évolue comme la pâte d’un boulanger qui pétrit son pain, c’est-à-dire par repliement et étirage successifs. Deux points de la pâte initialement proches se retrouvent ainsi rapidement éloignés. C’est pourquoi des conditions initiales suffisamment voisines pour être indiscernables à l’observation, conduisent rapidement à des évolutions très différentes, d’où par exemple la difficulté des prévisions météorologiques.

bifurcation2

Bifurcation

Tirée du livre de Steven Strogatz (1), la figure ci-dessus montre une telle surface dans un espace limité à trois dimensions. Le paramètre x est inobservable. Les paramètres r et h sont les paramètres observés. On peut les modifier, c’est-à-dire se déplacer dans le plan horizontal r, h . Prenons comme exemple le déplacement indiqué par la flèche. Au cours de ce déplacement les paramètres r, h varient de façon continue, tandis que le paramètre x peut varier de façon discontinue (saut en pointillé), indiquant un changement brutal et irréversible de notre système. C’est ce que nous avons appelé une bifurcation.

La figure ci-dessus correspond à un type particulier de bifurcation représenté par la courbe en V tracée dans le plan r, h. On doit au mathématicien français René Thom une classification des bifurcations sous le nom de théorie des catastrophes, les restructurations brutales de notre système y étant assimilées à des catastrophes. En évoluant avec le temps, la surface représentée sur la figure va continuer à se replier sur elle-même formant une stucture fractale ((article 18)). Les plis successifs de cette surface engendrent les cascades de bifurcations que nous venons d’étudier.

Ainsi le monde observé ressemble étrangement aux ombres projetées par le feu sur la paroi de la caverne de Platon. Pour comprendre le monde, il faut être capable de reconstituer ce qui se passe dans cet immense espace des phases que nous venons de décrire. La mécanique statistique nous aide à le faire grâce aux lois des grands nombres.

(1) Steven H. Strogatz, Non-linear dynamics and chaos, Westview Press, Perseus, 1994.

Liens internet:

http://fr.wikipedia.org/wiki/Espace_des_phases
http://fr.wikipedia.org/wiki/Joseph_Liouville
http://en.wikipedia.org/wiki/Steven_Strogatz
http://fr.wikipedia.org/wiki/René_Thom
http://pst.chez-alice.fr/TCIvarEk.htm
http://virtualistes.org/platon.htm


23 – Applications en biologie, économie et sociologie

L’article précédent a pu donner au lecteur l’impression qu’une cascade de bifurcations (ou suite d’états critiques auto-organisés) est un processus essentiellement destructeur. Cela dépend du point de vue auquel on se place. Si une épidémie bactérienne est destructive pour l’homme, elle est constructive pour les bactéries qui voient leur population se multiplier. Il faut considérer une cascade de bifurcations comme une suite de changements de structures destinée à accroître le taux de dissipation d’énergie dans l’univers. C’est par une telle suite de restructurations que l’univers s’auto-organise. Par exemple, en biologie, la mort est une cascade d’évenements destructeurs, mais le développement d’un embryon est un processus constructeur. Or, il présente lui aussi toutes les caractéristiques d’une suite d’états critiques auto-organisés. On y observe les ruptures de symétrie caractéristiques des bifurcations.

Pour les biologistes, ce point de vue est nouveau. Ils sont cependant de plus en plus nombreux à reconnaître l’existence de bifurcations dans les phénomènes d’auto-organisation qui se produisent lorsque les individus d’une même population coordonnent leurs activités (1). Ces phénomènes s’observent chez les bactéries, les amibes et les insectes comme chez les animaux plus évolués. Ils préfigurent les phénomènes bien plus complexes d’auto-organisation des sociétés humaines. Une caractéristique commune à ces phénomènes est l’échange d’information entre individus. Contentons-nous ici de dire que si un individu est imité par ses voisins, ces derniers ont de bonnes chances d’être aussi imités par leurs propres voisins, d’où une cascade de comportements similaires très semblable à la propagation des feux de forêt décrite dans l’article précédent.

Un exemple particulièrement intéressant en biologie est celui d’un organisme appelé “dictyostelium discoideum”. En période d’abondance celui-ci vit sous la forme d’éléments unicellulaires (amibes) tous indépendants et libres de leurs mouvements. Ceux-ci se nourissent de bactéries. Lorsque les ressources en bactéries viennent à manquer, ces amibes émettent un signal de détresse sous la forme d’un produit chimique appelé adénosine monophosphate cyclique ou AMPc. Elles sont aussitôt imitées par les amibes du voisinage de sorte que l’appel s’étend à toute la colonie. À ce signal, les amibes se rassemblent en tas pour former un organisme multicellulaire prenant progressivement la forme d’un ver. Solidaires les unes des autres, les dix à cent mille cellules de ce ver coordonnent alors leurs efforts, et le ver se met à ramper à la recherche de lieux plus propices. À la limite de l’épuisement, le ver s’arrête et se redresse. Ses cellules se différencient formant une longue tige au bout de laquelle se gonfle un sac de spores. Alors que le ver meurt, le sac éclate et les spores se dispersent donnant naissance à de nouvelles amibes dans un environnement que le ver espère meilleur (voir figure).

dicyostelium

Évolution du dictyostelium dicoideum

Le processus d’auto-organisation des sociétés humaines est fondamentalement le même qu’en biologie: un ensemble d’êtres humains coordonnent leurs activités en échangeant de l’information, de façon à mieux subvenir à leurs besoins. Plus une société s’organise plus elle dissipe efficacement l’énergie. C’est ce que nous appellons le développement économique. Rares sont cependant les économistes qui ont pris conscience qu’il s’agit d’un processus de mécanique statistique. En 1966 Benoit Mandelbrot montre que le prix du coton fluctue suivant une loi fractale en 1/f, mais son travail n’entre pas dans le cadre des théories économiques admises. L’économiste Nicholas Georgescu-Roegen (2) semble être le premier à s’intéresser au rôle joué par l’entropie dans les processus économiques. Il publie un livre sur ce sujet en 1971.

L’idée fait cependant son chemin. En 1984, Robert U. Ayres and Indira Nair (3) publient un article intitulé “Thermodynamique et Économie” dans Physics Today. En 1996 l’économiste Paul Krugman (4) montre que le mécanisme d’auto-organisation de Per Bak s’applique à de nombreux processus économiques, mais il ne développe que quelques exemples. Plus récemment Eric Schneider et Dorion Sagan (5) consacrent un chapitre entier à l’économie dans leur livre sur la thermodynamique et la vie publié en 2005 et intitulé “Into the Cool”. Malheureusement ils ne mentionnent pas les résutats de Roderick Dewar qui sont poutant antérieurs.

Je me contenterai ici de reprendre ici brièvement l’histoire de l’humanité, dont j’ai évoqué les grandes lignes dans mes premiers articles, et de montrer qu’on peut la considérer comme une cascade de bifurcations destinées à accroître la dissipation d’énergie. Cette histoire apparait alors sous un jour nouveau.

Dès son apparition, l’espèce homo sapiens s’est développée avec une extrême rapidité. Le phénomène en soi a déjà toutes les caractéristiques d’une avalanche. De 5 000 ans au paléolithique, le temps de doublement de la population est passé successivement à 2 000 ans au néolithique, puis 1 000 ans au début de l’ère chrétienne, 400 ans à la renaissance, 100 ans au début du 20ème siècle pour atteindre de nos jours moins de 50 ans. Nous avons vu qu’une avalanche ne dure pas éternellement. Tôt ou tard elle s’arrête avec une loi de probabilité en 1/f, les avalanches les plus longues étant les plus rares. De fait, le développement de l’humanité n’a pas été continu. Il a failli plusieurs fois s’arrêter par suite de l’épuisement des ressources. Il s’est poursuivi grâce à une suite de bouleversements tout à fait caractéristique d’une cascade de bifurcations.

Il aurait pu s’arrêter dès son berceau en Afrique où les ressources s’épuisaient rapidement. La solution a été l’émigration, première bifurcation majeure avec rupture de symétrie marquée par la direction de cette émigration. Capable de s’adapter à d’autres climats, l’homme s’est alors répandu sur toute la planète. Il y a environ 10 000 ans les ressources naturelles, dont les grands mammifères, étaient à nouveau épuisées. L’homme a eu alors recours à l’agriculture. C’est la révolution néolithique (article 3). Elle a entraîné une restructuration majeure des sociétés qui de nomades sont devenues sédentaires. On a bien là une deuxième bifurcation majeure. Un phénomène semblable s’est produit avec la révolution industrielle (article 4). C’est la troisième bifurcation majeure qui a transformé les sociétés rurales en sociétés urbaines. De nos jours les ressources pétrolières diminuent, la planète se réchauffe. L’humanité doit à nouveau se réorganiser. L’homme s’apprête à utiliser de plus en plus l’énergie nucléaire, ce qui modifiera à nouveau l’environnement (déchets nucléaires) et entraînera encore d’autres bifurcations ou réorganisations.

Ainsi, plus l’homme dissipe de l’énergie, plus son environnement évolue. Les ressources naturelles s’épuisent, la pollution augmente obligeant nos sociétés à se restructurer sans cesse. André Lebeau (6) appelle cela l’engrenage de la technique. C’est en fait la forme que prend chez l’homme le mécanisme universel de l’évolution, forme décrite par Howard Bloom sous le nom de principe de Lucifer (7). On a là une explication de la condition humaine: “l’homme est pris entre un passé familier qu’il est contraint d’abandonner et un avenir toujours menaçant “ (article 4). Sera-t-il un jour capable de prendre son destin en main?

On peut comparer le développement de l’humanité à celui d’un embryon. L’enfant non encore éduqué y joue le rôle de cellule souche. Chez l’homme l’éducation, c’est-à-dire la transmission culturelle, a en effet pris le pas sur la transmission génétique. Les bifurcations que nous venons de décrire conduisent au développement de sociétés culturellement différentes et jouent le rôle de la différentiation cellulaire. Apparaissent des sociétés agricoles puis des sociétés industrielles. Avec la division du travail les différentiations s’accentuent. Les différents composants de la société s’organisent entre eux grâce aux échanges commerciaux. Un superorganisme se développe et prend peu à peu forme à l’échelle mondiale. C’est l’hyper-empire de Jacques Attali (8). Avec le développement des moyens de communication une intelligence collective apparaît. C’est le cerveau global de Howard Bloom (9). Que va-t-il advenir de ce superorganisme?

Si l’on poursuit la comparaison, sa croissance va ralentir pour se stabiliser à l’âge adulte. Elle semble avoir déjà ralenti. L’humanité va alors atteindre l’âge de raison et prendre son destin en main. C’est l’hypothèse la plus optimiste. Elle est peu probable. Le développement d’un embryon est programmé par son ADN, résultat mis en mémoire de multiples expériences précédentes qui ont peu à peu affiné son évolution pour aboutir à l’espèce actuelle. Il n’en est pas de même de l’humanité qui ne garde aucune mémoire du développement d’une humanité antérieure. On ne connait pas, par exemple, les raisons de l’extinction de l’homme de Néanderthal. Le sort de l’humanité sera-t-il celui du vers de dictyostelium? Va-t-elle simplement s’éteindre après avoir expédié quelques-uns de ses individus dans un vaisseau spatial à la recherche d’un monde meilleur? C’est l’hypothèse la plus pessimiste. Elle est aussi peu probable. La réalité sera probablement intermédiaire. Plus une structure est complexe, plus elle est fragile. En se développant, tout super-organisme devient instable. Les conflits vont donc se multiplier. C’est l’hyper-conflit d’Attali (8) ou nouveau seisme majeur. L’hyper-empire va se décomposer en un nouvel ensemble de cultures ou couches sociales plus adaptées aux conditions nouvelles. Ayant gardé la mémoire des erreurs passées, ces nouvelles sociétés vont s’organiser plus efficacement entre elles. Afin d’augmenter la stabilité de cette nouvelle super-structure, les boucles de contrôle vont se multiplier. Dans le cas des sociétés, il s’agit de contrôles démocratiques. L’humanité évoluera donc vers ce que Jacques Attali appelle une hyperdémocratie (8).

Dans son livre intitulé “une brève histoire de l’avenir” (8), Attali arrive aux mêmes conclusions que nous à partir de considérations économiques et sociologiques. Les lois qu’il invoque sont en fait des conséquences de la mécanique statistique.

Références:
(1) Scott Camazine et al., Self-organization in Biological Systems (Princeton Univ. Press, 2001).
(2) Georgescu-Roegen, The Entropy Law and the Economic Process (Harvard Univ. Press, 1971, réimpression: iUniverse, 1999)
(3) Robert U. Ayres and Indira Nair, Thermodynamics and Economics (Physics Today, Nov. 1984, p. 62-71).
(4) Paul Krugman, The Self-Organizing Economy (Blackwell, 1996).
(5) Eric D. Schneider and Dorion Sagan, Into the Cool: Energy flow, Thermodynamics and Life (Univ. Chicago Press, 2005).
(6) André Lebeau, L’engrenage de la technique (Gallimard, 2005).
(7) Howard Bloom, Le principe de Lucifer (Le Jardin des Livres, 1997).
(8) Jacques Attali, Une brève histoire de l’avenir (Fayard, 2006).
(9) Howard Bloom, Le cerveau global (Le Jardin des Livres, 2003).

Liens internets:
Sur le dictyostelium discoideum:
http://lpmcn.univ-lyon1.fr/~rieu/dicty.htm
http://dictybase.org/Multimedia/LarryBlanton/index.html
http://www.zi.biologie.uni-muenchen.de/zoologie/dicty/dicty.html
http://bandit-sciron.blogspot.com/2007/01/les-aventures-de-dictyostelium.html
Sur l’AMPc:
http://fr.wikipedia.org/wiki/Adénosine_monophosphate_cyclique
Sur les cellules souches:
http://fr.wikipedia.org/wiki/Cellule_souche
Biographies:
http://fr.wikipedia.org/wiki/Benoît_Mandelbrot
http://fr.wikipedia.org/wiki/Nicholas_Georgescu-Roegen
http://en.wikipedia.org/wiki/Paul_Krugman
http://www.intothecool.com/into_the_cool_authors.php
http://www.international.inra.fr/join_us/working_for_inra/portraits/roderick_dewar
http://www.rr0.org/LebeauAndre.html
http://en.wikipedia.org/wiki/Howard_Bloom
http://fr.wikipedia.org/wiki/Jacques_Attali


22 – Avalanches, seismes et autres cataclysmes

Au cours des articles précédents, nous avons vu que l’Univers évolue en dissipant de plus en plus d’énergie. La dissipation se fait par l’intermédiaire de structures dissipatives (article 17). Celles-ci évoluent et sont peu à peu remplacées par de nouvelles structures toujours plus efficaces que les précédentes. C’est ainsi que sont apparues des structures dissipatives particulièrement efficaces: les êtres vivants. Plus efficace que les autres, l’homme a envahi la planète, formant des sociétés capables de dissiper plus d’énergie par unité de masse que toute autre structure de l’Univers (article 18).

Nous verrons que plus une structure dissipative dissipe de l’énergie, plus vite elle évolue et plus tôt elle doit se restructurer. Nous avons appelé ces restructurations des bifurcations (article 20). Dans l’article précédent (article 21), nous avons vu qu’une bifurcation peut en entraîner beaucoup d’autres. On observe alors des cascades de bifurcations. Ces cascades sont d’autant plus rares qu’elles sont plus importantes. Des bifurcations isolées ou de petites cascades sont très fréquentes. Plus rarement, on assiste à de véritables avalanches ou cataclysmes. La fréquence des cascades dépend de leur amplitude suivant une loi de puissance caractéristique des processus invariants par changement d’échelle (article 18). La loi est en général proche d’une loi en 1/ f (article 21). En voici quelques exemples (Voir: Turcotte et al. 2002).

C’est le cas bien sûr des avalanches naturelles, analogues à celles des tas de sable. Lorsque la pente est suffisante, une pierre qui roule peut en entraîner plusieurs. Chacune de ces dernières va à son tour en entraîner d’autres. Le processus est semblable à celui des cascades décrites dans l’article précédent. Au lieu d’une avalanche d’eau, on a une avalanche de pierres. A partir de photographies aériennes, on peut compter les avalanches produites par un tremblement de terre et mesurer leur importance c’est-à-dire leur surface. En général, leur nombre est bien inversement proportionnel à leur surface (loi en 1/ f). C’est le cas aussi des avalanches déclenchées par la pluie ou la neige.

Un second exemple est donné par les tremblements de terre. Une quantité importante d’énergie, dite géothermique, est emprisonnée à l’intérieur du globe terrestre et cherche à se dissiper. Elle le fait par l’intermédiaire de mouvements convectifs dans le manteau supérieur. Ceux-ci poussent les unes contre les autres les plaques solides de la croûte terrestre. C’est la dérive des continents appelée aussi tectonique des plaques. Les plaques résistent à cette compression en se déformant lentement (régime linéaire élastique). La tension augmente (comme celle d’un ressort qu’on comprime) jusqu’au moment critique où la limite d’élasticité est dépassée. Cela produit une rupture locale de la roche.

Cette rupture peut en déclencher d’autres. On observe alors toute une série plus ou moins longue de ruptures en cascade. C’est le tremblement de terre ou séisme. Les séismes sont enregistrés par les sismographes. Les sismographes enregistrent des séismes tous les jours mais la plupart ne sont pas ressentis par les humains. L’importance (ou magnitude) d’un séisme se mesure sur l’échelle de Richter. Seuls les plus importants d’entre eux sont ressentis par les humains. Certains, extrêmement puissants mais heureusement rares, provoquent les catastrophes naturelles très destructrices que l’on connait.

La fréquence des séismes est d’autant plus faible que leur importance est plus grande. Si l’on porte sur une échelle logarithmique le nombre de séismes de magnitude supérieure à une certaine valeur en fonction de cette valeur, les points sont en général remarquablement alignés. C’est la loi de Gutenberg-Richter. La figure ci-dessous montre un exemple tiré d’une statistique des séismes sur la côte ouest du Canada. Elle montre que la fréquence des seismes suit une loi en 1/ f. (Voir le site Ressources naturelles Canada).

seismes
Loi en 1/f de fréquence des séismes

Un troisième exemple est donné par les feux de forêt. Il arrive que, lors d’un orage, un arbre prenne feu. Si la forêt est suffisamment dense, le feu peut s’étendre aux arbres voisins. En brûlant, ceux-ci peuvent à leur tour communiquer l’incendie à leurs voisins. On a, là aussi, un phénomène de cascades allumant des brasiers de plus en plus nombreux. Lorsqu’on compte le nombre de feux de forêt d’extension donnée en fonction de cette extension, on trouve encore une loi en 1/ f.

On passe aisément des feux de forêt aux épidémies. Un individu infecté risque de contaminer ses voisins qui risquent eux-mêmes de contaminer d’autres personnes. Des statistiques ont été faites sur la fréquence des cas de rougeole, coqueluche et oreillons dans des sociétés insulaires (voir: Rhodes et al., 1997). Là encore, la loi en 1/ f est vérifiée. A l’échelle du globe, on observe en général plusieurs pandémies (plus de 10 millions de morts) par siècle. Quoique plus rares, des pandémies encore plus graves sont donc loin d’être exclues.

Ceci nous amène au problème de l’extinction des espèces. Jusqu’à récemment, on pensait que l’évolution des espèces était progressive, les caractéristiques des individus se modifiant peu à peu au cours des millénaires. Or, la paléontologie montre une absence de variations notables des fossiles pendant de longues périodes, précédées ou suivies immédiatement par des périodes de fossiles très différents.

Pendant longtemps ce phénomène a été interprété comme dû à des lacunes dans les échantillons paléontologiques, liées à des irrégularités de nature purement statistique. En 1972, les paléontologistes Stephen Jay Gould et Niles Eldredge ont émis l’hypothèse, dite des équilibres ponctués, selon laquelle ce phénomène était bien réel et significatif. Critiquée par des zoologistes comme Richard Dawkins, cette hypothèse a fait l’objet de débats télévisés connus pour avoir donné aux créationistes américains l’occasion de mettre en doute la théorie de Darwin.

En 1993, Bak et Sneppen ont montré que les équilibres ponctués étaient vraisemblablement un processus d’auto-organisation d’états critiques. On sait que l’évolution des espèces est due à des mutations. Jusqu’ici, on pensait qu’elle était due à toute une suite de mutations successives produisant chacunes de petites variations. D’après Bak et Snappen, on néglige ainsi les interactions entre espèces.

Une petite variation d’une espèce doit être considérée comme un changement d’environnement pour une autre espèce. Elle peut donc modifier l’aptitude à survivre des individus de cette autre espèce et par suite influencer leur évolution. En évoluant, ceux-ci vont à leur tour modifier l’évolution d’espèces encore différentes. On retouve ainsi le phénomène de cascades dont nous avons donné de nombreux exemples.

Les simulations numériques montrent bien des effets semblables à ceux observés par les paléontologistes. On aurait de temps à autre des avalanches plus ou moins importantes d’extinctions brutales. Ainsi l’évolution des espèces serait en fait une cascade de bifurcations et l’arbre des espèces, une arborescence de bifurcations. Le développement que l’on croyait progressif chez l’homme du geste et de la parole (voir: Leroi-Gourhan) apparait depuis peu lié à une floraison d’espèces “homo” toutes différentes, c’est-à-dire à tout un enchaînement de bifurcations.

Le processus d’auto-organisation d‘états critiques est maintenant pris très sérieusement en considération en biologie. Un certain nombre de chercheurs pensent qu’il s’applique aussi en sociologie (voir Hanson, 2007) et qu’il explique des phénomènes comme l’effondrement des sociétés décrit par Jared Diamond. Nous reviendrons largement sur ce sujet.

Références et liens internet:

Donald L. Turcotte et al., Self-organisation, the cascade model, and natural hasards, PNAS, vol. 99 Suppl. 1, 2530-2537, feb. 2002, accesible à:http://www.pnas.org/cgi/content/full/99/suppl_1/2530

Tectonique des plaques http://fr.wikipedia.org/wiki/Tectonique_des_plaques

Echelle de Richter http://fr.wikipedia.org/wiki/Magnitude_d’un_séisme

Allumez vous-mêmes vos feux de forêt:
http://argento.bu.edu/java/java/blaze/blazeapplet.html

C. J. Rhodes, H. J. Hensen and R. M. Anderson, On the critical behaviour of simple epidemics, Proc. R. Soc. Lond. 264, 1639-1646, 1997, accessible à: http://www.journals.royalsoc.ac.uk/content/c1pyphnvew7q8mcg/fulltext.pdf

Faites évoluer votre propre écosystème:
http://perso.univ-rennes1.fr/denis.phan/complexe/pap/baksnep.html

Robin Hanson, Catastrophe, Social Collapse, and Human Extinction, January 2007) accessible à: http://hanson.gmu.edu/collapse.pdf


21 – Une bifurcation peut en cacher une autre.

En dessous d’une certaine température et d’une certaine pression dites “critiques”, un fluide homogène peut devenir spontanément inhomogène. Il se décompose alors en deux “phases”, une phase liquide et une phase vapeur. Bien que le fluide soit en équilibre thermodynamique, ce processus est formellement équivalent à celui d’une bifurcation d’une structure dissipative (les équations sont analogues). Le point où la pression et la température atteignent la valeur critique s’appelle le point critique. En ce point les fluctuations de densité du fluide deviennent théoriquement infinies. On dit alors que le fluide est dans un état critique.

Spécialiste des états critiques, le physicien danois Per Bak s’est intéressé aux bifurcations des structures dissipatives pour lesquels les points de bifurcation jouent le rôle de point critique. En 1987, Per Bak a montré que certaines structures dissipatives évoluent de façon à toujours se rapprocher d’un point de bifurcation. En ce point on dit que la structure dissipative est dans un état critique. En 2002, Roderick Dewar a montré que cette propriété est une conséquence du principe de production maximale d’entropie lorsqu’une structure dissipative est soumise à un apport d’énergie dont le flux est limité, ce qui est très souvent le cas.

Jusqu’ici nous avons décrit les propriétés d’une structure dissipative en observant le flux d’énergie pour une tension donnée. Mais comment évolue la tension? Pour le voir, nous allons reprendre l’exemple de la suite logistique décrit dans l’article précédent (article 20). Le flux d’énergie y est proportionnel au nombre d’individus, c’est-à-dire à la valeur de la population. La figure de l’article précédant montre cette valeur en fonction du taux de croissance. Le principe de production maximale d’entropie nous indique que le flux d’énergie va tendre a être maximal. Cela veut dire que la population va tendre à augmenter jusqu’à atteindre une valeur maximale compatible avec les contraintes imposées, ici des ressources énergétiques limitées. On voit que ce maximum est effectivement atteint au voisinage du premier point de bifurcation, après lequel la valeur de la population devient instable et oscille. Pourquoi cela? Est-ce là une loi générale?

Pour comprendre ce phénomène, nous allons reprendre notre analogie du flux d’énergie avec le flux d’une rivière (article 19). Nous avons vu que l’énergie est constamment piégée dans des puits de potentiel. L’analogie sera pour nous des réservoirs d’eau souterraine (puits d’eau). Pour extraire de l’énergie d’un puit de potentiel, il faut un apport minimum d’énergie appelé énergie d’activation (article 12). A l’échelle moléculaire cette énergie peut être fournie par une collision (entre molécules) ou par un catalyseur (molécule jouant le rôle de batterie rechargeable). A notre échelle, ce sera par exemple l’énergie apportée par une alumette capable d’allumer un incendie. Dans le cas d’une entreprise, nous parlerons plus tard d’investissement. Dans tous les cas, l’énergie extraite du puits est bien supérieure à l’énergie d’activation.

Pour notre puits d’eau souterraine, l’analogue sera un siphon. L’énergie d’activation est celle nécessaire pour amorcer le siphon. Dans une telle structure, le niveau d’eau (qui joue ici le rôle de tension ou stress) augmente jusqu’à ce que le siphon s’amorce. C’est l’instabilité qui entraîne une restructuration (bifurcation): celle-ci permet à l’eau de s’écouler. Le réservoir se vide d’un seul coup, le siphon se désamorce et le cycle recommence. Il y a effectivement oscillation. Ce type d’oscillation non linéaire porte le nom d’oscillation de relaxation. On voit qu’une telle structure est effectivement attirée vers une bifurcation. Lorsque la bifurcation est franchie, l’énergie (ici l’eau) est libérée et tout recommence comme au début.

Nous avons vu que l’énergie de l’Univers est constamment redistribuée dans des puits de potentiel (ou niveaux d’énergie) de plus en plus nombreux, d’où l’augmentation constante de l’entropie (article 19). Imaginons une cascade de puits comme celle de la figure ci-dessous. Une telle structure présente toute une arborescence de bifurcations. Dans cet exemple, le nombre de puits double à chaque niveau.

Cascade
Analogie hydraulique d’une cascade de puits de potentiel

Le premier puits est alimenté par un flux d’eau constant et se remplit lentement. Supposons qu’il faille une minute pour remplir le premier puits. Au bout d’une minute, il se déverse dans les deux puits suivants, les remplissant à moitié. Au bout d’une deuxième minute, le premier puits est à nouveau plein. En se déversant, il achève de remplir les deux puits suivants. Ceux-ci se déversent alors dans les quatre puits suivants. Au bout de quatre minutes, ceux-ci sont pleins à leur tour et se déversent dans les huit puits suivants, etc… On observe ainsi des avalanches de plus en plus importantes (un, deux, quatre, huit puits, …) à des intervalles de temps de plus en plus longs (une, deux, quatre, huit minutes, …).

Remarquons que chaque étage se déverse à tour de rôle au moment précis où tous les étages précédents viennent de se déverser. Dans le cas de la figure où tous les puits sont représentés à moitié pleins, tous les étages vont se vider dès que le premier le fera. Il y a donc une réaction en chaîne provoquant une cascade d’avalanches à tous les niveaux. On appelle cela l’effet domino. Un domino posé sur la tranche peut en tombant faire tomber tous ses voisins. De même, en se vidant un puits peut entraîner un certain nombre de puits suivants à se vider eux aussi.

C’est ce que Per Bak appelle une suite d’états critiques auto-organisés (self-organized criticality ou SOC). Une caractéristique de ce genre de phénomène est qu’on observe des bouffées d’énergie (avalanches) d’autant plus fréquentes que leur amplitude est plus faible. On dit que la fréquence des avalanches est inversement proportionnelle à leur amplitude, ou encore que l’amplitude des avalanches est inversement proportionnelle à leur fréquence. C’est ce que les physiciens appellent un “bruit en 1/ f “. Son importance vient du fait qu’on l’observe très souvent, non seulement en électronique, mais aussi en astronomie, en géophysique, en biologie et même en économie.

Dans notre exemple très simple d’un réseau régulier de puits de potentiel tous identiques, les avalanches sont parfaitement prédictibles. En pratique, les structures naturelles sont beaucoup plus irrégulières. Les puits n’ont pas tous la même capacité. Les siphons s’amorçent aléatoirement. La redistribution à chaque étage est elle-même aléatoire. Dans ce cas, les avalanches sont imprédictibles, mais elles suivent bien la loi en 1/ f que nous venons de voir.

Le modèle plus réaliste proposé par Per Bak est celui du tas de sable. Imaginons du sable tombant en pluie fine sur une table. Un tas de sable se forme dont la pente augmente peu à peu pour atteindre une pente critique au delà de laquelle le sable s’écoule puis tombe en dehors de la table. On est alors en régime permanent. Ce régime est caractérisé par des avalanches de sable imprévisibles mais dont la fréquence est bien inversement proportionelle à l’amplitude.

Remarquons que dans les deux exemples que nous avons donné, le phénomène observé est indépendant de la taille de la structure, par exemple la taille du tas de sable. On y retrouve l’invariance par changement d’échelle décrite dans l’article 18, c’est-à-dire des cascades d’énergie obéissant à des lois de puissance. D’une façon générale l’auto-organisation des états critiques se traduit par des restructurations partielles aléatoires d’autant moins fréquentes que la restructuration est plus importante.

Depuis la mise en évidence de ce processus par Per Bak, on en découvre régulièrement de nouveaux exemples. Nous en décrirons certains dans notre prochain article. On se contentera ici de dire que le processus peut s’appliquer à l’évolution d’une population en présence de ressources limitées. Le modèle analytique de la suite logistique est trop simple pour décrire correctement la réalité. Les oscillations régulières qu’il prévoit n’ont jamais été observées. Par contre, on observe effectivement des chutes brutales de la densité de population provoquées par des disettes, des épidémies ou —chez l’homme— des guerres. Ces chutes de densité sont d’autant plus fréquentes que leur amplitude est plus faible. Très rarement, une chute de très grande amplitude peut avoir lieu (effet domino) expliquant des phénomènes comme la fin de l’île de Pâques, ou ceux décrits au début de cette série d’articles (articles (1) et (2)). Nous verrons qu’on a là un modèle extrêmement fécond pour comprendre l’évolution des sociétés humaines.

Liens internet:
Point critique (en français):
http://fr.wikipedia.org/wiki/Point_critique_%28thermodynamique%29
Biographie de Per Bak (en anglais):
http://en.wikipedia.org/wiki/Per_Bak
Bruit en 1/f (en français):
http://gilles.chagnon.free.fr/cours/courlong/4_4_2_3.html
Références sur le bruit en 1/f (en anglais):
http://www.nslij-genetics.org/wli/1fnoise/
Etats critiques auto-organisés (en anglais):
http://en.wikipedia.org/wiki/Self-organized_criticality
Exemple du tas de sable (en français):
http://www-eco.enst-bretagne.fr/~phan/complexe/sable.htm
Livre:
Per Bak, How Nature Works: The Science of Self-Organized Criticality (Springer-Verlag, 1999).


20 – Les bifurcations

Nous avons vu (article 17) qu’une structure dissipative est un système hors équilibre. Le déséquilibre peut être dû à une différence (gradient) de température, de pression, de potentiel, etc… Dans la suite de ce blog on parlera de façon générale de tension ou de stress. Plus la tension est grande, plus le déséquilibre est important.

L’expérience montre que lorsque le déséquilibre est suffisamment faible, le flux d’énergie est proportionnel à la tension. C’est le cas par exemple de la conduction, où le flux de chaleur est proportionnel à la différence de température. C’est le cas des écoulements laminaires où la vitesse du fluide est proportionnelle à la différence de pression. C’est aussi le cas du courant électrique qui est proportionnel à la différence de potentiel (loi d’Ohm). On est alors dans le domaine linéaire des relations d’Onsager.

Lorsque le déséquilibre d’un système augmente, sa structure peut devenir instable. Les instabilités qui apparaîssent provoquent un changement de structure. Le système se réorganise de lui-même. Une nouvelle structure apparaît, plus favorable au flux d’énergie. On appelle cela une bifurcation. C’est le mécanisme d’auto-organisation de l’univers (article 19).

Une bifurcation se produit lorsqu’il y a compétition entre plusieurs structures possibles. La structure adoptée est toujours celle qui favorise le plus le flux d’énergie. Parfois deux structures sont possibles, symétriques l’une de l’autre. Elles sont alors énergétiquement équivalentes. Le système choisit au hasard une des deux solutions. On dit qu’il y a rupture de symétrie. L’auto-organisation de l’univers en est parsemée d’exemples (article 19). Les ruptures de symétrie sont une caractéristique des bifurcations.

Une autre caractéristique des bifurcations est le phénomène d’hystérésis. Lorsque l’équilibre d’un système est modifié et que celui-ci franchit un point de bifurcation où une restructuration devient possible, celle-ci ne se produit pas immédiatement. Il y a retard à la réorganisation dans un sens comme dans l’autre. La transformation est en en partie irréversible. Cela entraîne une certaine stabilité des structures dissipatives et une mémorisation temporaire d’information sur lesquelles nous reviendrons.

En mathématiques, l’étude des bifurcations fait partie de l’analyse des systèmes dynamiques. Les mathématiciens ont mis en évidence de nombreux types de bifurcations et les ont classées suivant les caractéristiques des instabilités mises en jeu. Je me contenterai de décrire ici à titre d’exemple le modèle évolutif dit “logistique” de Pierre-François Verhulst. Les lecteurs non-mathématiciens pourront aisément sauter les équations.

A la suite des publications de Malthus, ce mathématicien belge a proposé de modéliser la croissance d’une population par une équation différentielle donnant l’accroissement dN du nombre N d’individus dans l’intervalle de temps dt. Sous sa forme moderne, cette équation s’écrit:

dN/dt = r.N.(1 – N/K)

r est le taux de croissance de la population et (1 – N/K) est un facteur correctif imposé par des ressources limitées. On retrouve ici les notations r et K correspondant aux deux modes de sélection naturelle (r et K) mentionnés dans l’article 17. La solution de cette équation différentielle est une sigmoïde. Une population initialement faible s’accroît rapidement puis se stabilise à la valeur K.

Si l’on discrétise cette équation différentielle, on obtient la suite logistique liant la valeur de la population à l’instant t+1 à sa valeur à l’instant t. Dans cette expression, X = N/Nmax est le rapport (compris entre 0 et 1) de la population N à sa valeur maximale Nmax.

X(t+1) = μ.X(t).[1-X(t)].

Il est remarquable qu’une équation aussi simple donne lieu à tous les comportements typiques d’un système dynamique non-linéaire, comportements que nous allons brièvement décrire.

Si μ est inférieur à 1, la population va bien sûr s’éteindre. Si μ est compris entre 1 et 3, la population croît et se stabilise à la valeur
(μ-1)/μ. Pour les valeurs de μ très voisines de 1, cette valeur est proportionnelle au taux de croissance μ-1. C’est le domaine linéaire dont nous avons parlé plus haut. Au delà de μ = 3, l’évolution devient instable. C’est la première bifurcation. Pour 3 < μ < 3,449… la population oscille entre deux valeurs différentes correspondant aux deux branches de la figure ci-dessous. Au delà de μ = 3,449… la population oscille alternativement entre 4 valeurs, puis 8 valeurs, 32 valeurs, etc… (voir figure). Au delà de μ = 3,57…, le chaos s’installe. De très légères variations des conditions initiales conduisent à des résultats radicalement différents. L’évolution du système devient imprévisible sauf pour quelques valeurs de μ exceptionnelles pour lesquelles on observe à nouveau des oscillations périodiques. Un système dynamique non-linéaire est ainsi caractérisé par toute une famille de bifurcations conduisant à un chaos dynamique.

Bifurcation0
Valeurs limites de la suite logistique

Nous avons déjà vu deux exemples physiques de bifurcations pris en dynamique des fluides. L’un est le passage de la conduction à la convection (article 10). L’autre est le passage d’un écoulement laminaire à un écoulement turbulent (article 11). Dans ces exemples, un système initialement linéaire (flux proportionnel à la tension) devient non linéaire. Si l’on continue à accroître la tension de nouvelles bifurcations peuvent se produire menant peu à peu vers le chaos. On peut comparer le mouvement périodique du fluide dans une cellule de Bénard aux oscillations de la suite logistique. Dans ces exemples, il y a aussi rupture de symétrie. Dans une cellule convective ou un tourbillon le fluide peut tourner dans un sens ou dans un autre, souvent au hasard.

Il est intéressant de décrire l’apparition de telles instabilités à l’échelle microscopique. Je le ferai ici dans le cas du passage de la conduction à la convection (1). Ce passage se produit lorsque le gradient de température devient suffisamment important. Considérons une molécule du fluide dans l’expérience de Bénard (article 10). Cette molécule est agitée d’un mouvement brownien d’autant plus rapide que la température du fluide est plus élevée.

Supposons qu’à un moment donné, après un choc, la vitesse de cette molécule soit dirigée vers le haut. Entre deux chocs successifs, elle va parcourir une distance de l’ordre de son libre parcours moyen.
Si au bout de ce parcours la température du fluide n’a pas sensiblement changé, un nouveau choc va l’envoyer aussi bien vers le bas que vers le haut. En moyenne, elle va errer (on dit aussi diffuser) lentement. On dit qu’il y a équilibre thermodynamique local.

Si au contraire la température a sensiblement diminué alors, faute d’énergie suffisante, un nouveau choc a peu de chances de l’arrêter dans son mouvement ascendant. Plus elle monte, plus la température diminue et moins son mouvement a de chances d’être arrêté. Il y a instabilité. D’autres molécules de son entourage vont se trouver dans la même situation. Ces molécules vont former une zone de fluide chaud au milieu d’un fluide plus froid. Propulsé par la poussée d’Archimède un courant ascendant se forme. La convection apparaît. Nous retiendrons ici que, de façon générale, il y a instabilité, donc bifurcation, si l’environnement change de façon notable entre deux transferts d’énergie, c’est-à-dire lorsqu’il n’y a plus équilibre thermodynamique local.

Au point de bifurcation, on dit parfois que le système est dans un état critique. Dans notre prochain blog, nous verrons comment les états critiques s’auto-organisent.

(1) Ce phénomène est décrit par un système d’équations non-linéaires appelé système de Lorentz.

Liens internet:
http://fr.wikipedia.org/wiki/Théorie_d’Onsager
http://fr.wikipedia.org/wiki/Hystérésis
http://fr.wikipedia.org/wiki/Système_dynamique
http://fr.wikipedia.org/wiki/Modèle_évolutif_r/K
http://fr.wikipedia.org/wiki/Pierre_François_Verhulst
http://fr.wikipedia.org/wiki/Espèce_à_stratégie_r
http://fr.wikipedia.org/wiki/Espèce_à_stratégie_K
http://fr.wikipedia.org/wiki/Sigmoïde_(mathématiques)
http://fr.wikipedia.org/wiki/Fonction_logistique
http://fr.wikipedia.org/wiki/Théorie_du_chaos
http://fr.wikipedia.org/wiki/Mouvement_brownien
http://fr.wikipedia.org/wiki/Libre_parcours_moyen
http://fr.wikipedia.org/wiki/Équilibre_thermodynamique

Sur les propriétés des bifurcations voir aussi (classés par ordre de difficulté croissante):

• en français:
http://www.bibmath.net/dico/index.php3?action=affiche&quoi=./l/logistique.html
http://pilat.free.fr/tech/bif_gif.htm

• en anglais:
http://www.redfish.com/research/SchneiderKay1995_OrderFromDisorder.htm
http://berglund.univ-tln.fr/hystabt.html
http://www.saltspring.com/brochmann/math/chaos/chaos-3/chaos-3.00.html
http://mathworld.wolfram.com/LogisticMap.html
http://www.egwald.com/nonlineardynamics/

Lectures
James Gleick – La théorie du chaos: vers une nouvelle science (Flammarion, 1999)
M. Mitchell Waldrop – Complexity: the emerging science at the edhe of order and chaos (Simon & Schuster, 1992)
Edward N. Lorentz – The essence of chaos (U. of Washington Press, 1996)


19 – L’auto-organisation de l’univers

Une propriété des êtres vivants est la faculté d’auto-organisation (a). Un objet apparemment très simple comme un œuf de poule évolue de lui-même, pour former la structure extrêmement complexe d’un poulet. Les biologistes appellent cela l’ontogenèse (b). C’est le mode de reproduction des êtres vivants. La reproduction se fait sans plan, ni moule, ni recette et sans intervention extérieure. C’est une auto-organisation.

On a pensé longtemps qu’il s’agissait là d’une caractéristique unique et mystérieuse des êtres vivants. Nous avons vu qu’il n’en est rien. A un niveau beaucoup plus élémentaire, les cyclones (article 11) ou les cellules de Bénard (article 10) s’auto-organisent. Il s’agit donc d’une propriété générale liée à la dissipation d’énergie. En fait, l’Univers tout entier s’auto-organise. L’astrophysicien Erich Jantsch (c) a été un des premiers à le reconnaître et à décrire de façon générale l’auto-organisation de l’Univers (1).

A la suite de Jantsch, je vais tenter de résumer ici l’évolution de l’Univers en mettant en lumière ce processus général sous-jacent d’auto-organisation, dont la vie n’est qu’un aboutissement. Pour aider à la compréhension du processus, le mieux est de procéder par analogie. Bien qu’elle soit imparfaite, j’utiliserai l’analogie d’une rivière qui s’écoule en creusant son lit, parfois souterrain, à travers un terrain accidenté. Le flux de la rivière est l’analogue du flux d’énergie.

Toute rivière a une source. La source d’énergie de l’Univers est le Big Bang. Cette source est à très haute température. Comme une rivière s’écoule des montagnes vers la mer, l’énergie de l’Univers s’écoule des zones à hautes températures vers les zones à basses températures, d’où la production d’entropie. L’équivalent de la mer est le rayonnement à 3°K du fond diffus cosmologique (d).

En terrain accidenté, une rivière hésite sur le chemin à suivre. On parle alors de bifurcation. Une rivière choisit toujours le chemin qui maximise son flux. Nous avons vu qu’il en est de même pour l’énergie. Le chemin qui maximise le flux d’énergie est déterminé par ce que les biologistes appellent la sélection naturelle. Bien que cela ne soit pas l’usage, on peut parler de sélection naturelle chaque fois qu’une branche est choisie lors d’une bifurcation. Je n’ai pas hésité à le faire à propos du passage de la conduction à la convection (article 10).

Une particularité de l’énergie est de rester piégée dans ce que nous avons appelé des puits de potentiel (article 12). Cela arrive parfois à l’eau dans des cavités. Pour l’énergie c’est général. S’il y a assez d’énergie disponible, mue par celle-ci, la matière va s’auto-organiser pour pomper l’énergie hors des puits de potentiel. L’équivalent pour l’eau serait le siphon qui permet de franchir la barrière d’un puits. On sait que des siphons peuvent naturellement s’amorcer dans les eaux souterraines.

Cette auto-organisation de la matière est possible parce qu’elle augmente le flux d’énergie. Toute tentative au hasard d’auto-organisation est alors favorisée par la sélection naturelle. Paradoxalement, toute organisation entraîne une diminution d’entropie. C’est ainsi qu’en accélérant le flux d’énergie, une diminution locale d’entropie accélère la production d’entropie de l’univers. C’est le paradoxe de la vie et de l’auto-organisation de l’univers.

On peut considérer la sélection naturelle comme un algorithme d’optimisation. Il maximise la production d’entropie de l’Univers. Les informaticiens s’en sont inspirés pour développer des algorithmes d’optimisation dits génétiques (e) introduisant des modifications aléatoires des paramètres équivalentes aux mutations. Ces algorithmes peuvent aider à trouver un maximum principal parmi de nombreux maxima secondaires. A cause des puits de potentiel, la production d’entropie est en effet constamment piégée dans des maxima secondaires. Pour en sortir, il faut d’abord diminuer l’entropie pour mieux l’augmenter ensuite d’où le phénomène paradoxal d’auto-organisation.

L’Univers du Big Bang n’est pas homogène, il subit des fluctuations quantiques. En se refroidissant, il se condense sous forme de particules, un peu comme l’air humide se condense en rosée. Il y a deux catégories de particules, les fermions (f) et les bosons (g). L’énergie est piégée dans les fermions mais ceux-ci échangent entre eux de l’énergie sous forme de bosons. Régis par la mécanique quantique, ces échanges, sont à la fois discrets (discontinus) et aléatoires, deux propriétés favorables aux phénomènes de bifurcation. A ce stade, les bifurcations se signalent par ce que les physiciens appellent des ruptures de symétrie. Un bel exemple en est l’annihilation de la matière et de l’antimatière (h) en faveur d’un léger excès de matière.

Nous verrons que ce processus d’échange d’énergie entre entités discrètes conduisant à des bifurcations est très général. C’est le processus même d’auto-organisation de l’univers sur lequel je reviendrai en détail. Ce processus entraîne l’extraction de quantas d’énergie d’un certain nombre de puits de potentiel suivie de leur redistribution dans d’autres puits de potentiels moins profonds mais toujours plus nombreux. C’est ce qu’on appelle la dissipation de l’énergie ou l’augmentation l’entropie de l’univers. Pour aboutir à ce résultat, des structures matérielles au départ assez simples évoluent pour former des structures de plus en plus en plus complexes. Jantsch montre qu’il y a à la fois micro-évolution et macro-évolution.

La micro-évolution part de structures matérielles très petites, les particules élémentaires, pour former des particules plus grosses et plus complexes. Les quarks (i) s’unissent pour former des protons et des neutrons. Les protons et les neutrons s’associent pour former des noyaux d’hélium. Les protons et les noyaux d’hélium s’entourent d’électrons pour former les premiers atomes d’hydrogène et d’hélium. C’est la cascade d’énergie vers des structures de plus en plus en plus grandes, décrite dans l’article précédent.

Engendrée par les forces de gravitation, une macro-évolution de l’Univers prend simultanément naissance. C’est la cascade inverse vers des structures de plus en plus petites. La matière se condense à grande échelle formant des galaxies organisées en amas et super-amas. Une première génération d’étoiles apparaît au cœur desquelles la température remonte. Cette remontée de température est suffisante pour permettre à la micro-évolution de se poursuivre. Les noyaux atomiques fusionnent pour former d’autres atomes plus lourds et plus complexes.

Bien avant les premiers êtres vivants, les étoiles naissent, se développent (ontogenèse) et évoluent en se reproduisant (phylogenèse (j)). En explosant une première génération d’étoile essaime les atomes lourds qui dès la deuxième génération vont former la matière circumstellaire. Celle-ci permet à nouveau la poursuite de la micro-évolution. Les atomes vont s’y unir pour former des molécules de plus en plus complexes.

Plus petite et moins chaude que le Soleil, la Terre est un astre idéal sur lequel la micro-évolution va prendre la voie de la chimie organique. Nous avons vu les cycles catalytiques se former puis s’associer pour former des cycles autocatalytiques, puis des hypercycles (article 13). Ceux-ci produisent en chaîne des polypeptides et des polynucléotides qui s’associent pour former des gènes unis entre eux dans une même molécule d’ADN. Les molécules d’ADN s’unissent pour former des chromosomes. Ceux-ci collaborent dans une même cellule (article 14). Les cellules s’unissent pour former des organismes multicellulaires (article 15). Petit à petit ces organismes s’unissent pour former des sociétés complexes comme les sociétés d’insectes ou les sociétés humaines.

L’homme envahit la planète, formant des sociétés de plus en plus évoluées. Au 20ème siècle, trois événements marquent un tournant dans l’évolution des sociétés humaines. Le premier est une tentative de formation d’une société humaine unique ou “société des nations”. Le deuxième est une tentative d’échapper aux limites physiques de la planète avec la conquête de l’espace interplanétaire. Le troisième est l’explosion de bombes H, prélude à l’utilisation de la fusion nucléaire comme source d’énergie (projet ITER (k)). Avec l’achèvement de la fusion nucléaire par l’homme, la micro-évolution rejoint la macro-évolution.

Jantsch-fig

Auto-organisation de l’univers selon Jantsch (1)

(1) Erich Jantsch, The self-organizing universe (Pergamon, 1980). Nous avons reproduit ci-dessus la figure 24 de ce livre (p. 94).

Liens internets:
(a) http://fr.wikipedia.org/wiki/Auto-organisation
(b) http://fr.wikipedia.org/wiki/Ontogénèse
(c) http://en.wikipedia.org/wiki/Erich_Jantsch
(d) fr.wikipedia.org/wiki/Fond_diffus_cosmologique
(e) http://fr.wikipedia.org/wiki/Algorithme_génétique
(f) http://fr.wikipedia.org/wiki/Fermion
(g) http://fr.wikipedia.org/wiki/Boson
(h) http://fr.wikipedia.org/wiki/Antimatière
(i) http://fr.wikipedia.org/wiki/Quark
(j) http://fr.wikipedia.org/wiki/Phylogénèse
(k) http://fr.wikipedia.org/wiki/International_Thermonuclear_Experimental_Reactor