16 – La sélection naturelle.

L’homme est de nature égocentrique. Trônant au sommet de la chaîne alimentaire, il est persuadé que l’univers a été créé pour lui. Ce n’est qu’au 16ème siècle avec Nicolas Copernic (a) qu’il a bien voulu admettre que la Terre n’est pas au centre de l’Univers. De nos jours nous savons qu’elle n’est qu’une modeste planète en orbite autour d’une étoile tout à fait ordinaire située sur le pourtour d’une galaxie comme beaucoup d’autres au sein d’un univers immense.

L’homme est très fier de son savoir faire. ll est le seul animal de la planète à créer des objets d’une grande complexité technique. Étant lui-même un objet encore plus complexe, il est persuadé qu’il n’a pu être créé que par un être encore supérieur qu’il appelle Dieu. Ce n’est qu’au 19ème siècle avec Charles Darwin (b) qu’il prend conscience de sa véritable origine. L’homme et le singe ont un ancêtre commun qui descend lui-même d’animaux antérieurs. L’homme n’est que le fruit tout récent de l’évolution (c) des espèces. Darwin n’est pas allé jusqu’à s’interroger sur l’origine même de la vie qu’il laissait à Dieu, mais il n’en était pas loin.

darwin
Charles Darwin (photo Wikipédia)

De nos jours nous savons que les êtres vivants obéissent aux mêmes lois physico-chimiques que la matière inerte. Au cours de ce blog nous avons vu qu’ils font partie de la catégorie des phénomènes dissipatifs dont font aussi partie des phénomènes infiniment plus simples comme les cellules convectives (article 10) ou les cyclones (article 11), généralement considérés comme non-vivants. Nous avons vu que la vie est apparue peu à peu sur Terre sous la forme d’une cascade de réactions chimiques cycliques imbriquées les unes dans les autres et catalysées indirectement par une molécule particulière appelée ADN.

Cette suite de réactions biochimiques de plus en plus complexes a pris naissance peu après la formation de la Terre. Il aura fallu près de 4,5 milliards d’années pour aboutir à l’homme. Le mérite de Darwin est d’avoir élucidé le mécanisme apparemment très simple de cette extraordinaire évolution, mécanisme dont j’ai essayé de montrer la mise en route progressive. Lorsqu’un être vivant se reproduit, un nouvel être se développe de lui-même presque identique au précédant. L’important est le mot “presque”. On observe toujours de petites variations dues au hasard. Darwin savait que si l’on sélectionne ceux qui présentent une variation intéressante et qu’on les fait se reproduire, cette même variation va se retrouver à la génération suivante. On peut ainsi de générations en générations sélectionner et multiplier le nombre d’individus possédant ce caractère particulier. C’est le principe de la sélection artificielle (d) pratiquée par les éleveurs et les agriculteurs.

L’idée de Darwin est qu’il existe aussi une sélection naturelle (e). Suivant l’environnement, une variation accidentelle peut être favorable ou défavorable. Si elle est favorable le nouvel être vivra plus longtemps et se reproduira davantage. En quelques générations le nombre d’individus possédant cette variation croîtra exponentiellement. Si la variation est défavorable, le nouvel être vivra moins longtemps et se reproduira moins. Par rapport aux autres, le nombre d’individus possédant cette variation sera de plus en plus faible et la variation finira par disparaître. Ainsi chaque espèce va progresser en s’adaptant continuellement à son environnement.

Il peut paraître surprenant qu’un mécanisme apparemment très simple, ne faisant intervenir que des modifications minimes, ait pu conduire peu à peu à l’apparition d’organes aussi complexes que par exemple un œil. On oublie qu’il a fallu pour cela des centaines de millions d’années. Si Darwin connaissait la technique de sélection artificielle, il ignorait les lois de l’hérédité découvertes à la même époque par Grégor Mendel (f). Actuellement, on en connaît non seulement les lois mais aussi le mécanisme qui est celui de la duplication de l’ADN. Ces nouvelles données scientifiques ont amplement confirmé la théorie de Darwin tout en précisant son mécanisme. Rares sont de nos jours les articles en biologie ou en zoologie qui n’y font pas référence ou n’en apportent pas de confirmations nouvelles.

Bien qu’en apparence très simple, le mécanisme proposé par Darwin est en fait très complexe. D’abord les environnements sont très divers ce qui explique la diversité des espèces. Mais aussi les environnements évoluent. Chaque espèce doit continuellement s’adapter à l’évolution de son environnement. Bien plus, cette évolution de l’environnement est en grande partie due à l’influence de l’espèce elle-même (diminution des ressources, pollution, etc…). Cela entraîne la nécessité d’une constante réadaptation. C’est en fait là le moteur même de l’évolution. Enfin, une espèce fait partie de l’environnement d’une autre espèce. L’évolution d’un prédateur est liée à l’évolution de sa proie et vice-versa. C’est pourquoi on parle d’éco-systèmes et de l’évolution globale d’un éco-système.

Vu la complexité du processus, il n’est pas étonnant qu’il ait été souvent mal compris ou mal interprété. Initialement Darwin n’a parlé que de sélection naturelle. C’est le philosophe et sociologue anglais Herbert Spencer (g) qui, enthousiasmé par la théorie de Darwin, a le premier parlé de “survie du plus apte” (en anglais: “survival of the fittest”). Sous l’influence de Spencer, Darwin a repris ensuite cette expression qui, nous allons le voir, prête à confusion.

La difficulté porte sur la signification du mot “apte”. Pour Darwin, la direction de l’évolution est entièrement déterminée par l’environnement. L’individu le plus apte est simplement celui qui est le mieux adapté à son environnement, sans que cela implique une valeur particulière. Spencer voit au contraire l’évolution comme un progrès continu. Puisque la sélection naturelle a produit l’homme, alors elle est intrinsèquement une bonne chose. Il faut donc la favoriser.

Cette interprétation a eu un fort impact dans le monde protestant anglo-saxon qui voit alors la sélection naturelle comme le procédé par lequel Dieu a créé l’homme. Comme il faut accepter la volonté de Dieu, il devient naturel que le “fort” l’emporte sur le “faible”. La découverte de Darwin venait ainsi à l’appui du laissez-faire des théories économiques libérales prônées par Adam Smith (h) et justifiait les inégalités sociales. On sait vers quelles erreurs cette interprétation à conduit, avec le développement au 20ème siècle du racisme et de l’eugénisme.

Quoique plus correcte, l’interprétation que fait Darwin du mot “apte” pose aussi un problème. Si l’individu le plus “apte” est celui qui survit le mieux, alors la “survie du plus apte” devient une tautologie. Il est donc préférable de s’en tenir au rôle propre de la sélection naturelle en mesurant le nombre de descendants. C’est ce que font la plupart des biologistes.

La question se pose alors de savoir sur combien de générations mesurer le nombre de descendants. Cette question est maintenant résolue grâce au développement de la génétique (1). La sélection naturelle n’agirait pas sur les individus mais sur les gènes. Les chromosomes (formés d’ADN) peuvent être décomposés en “sites” occupés par des gènes ayant chacun une fonction particulière. Pour chaque site plusieurs gènes sont possibles parmi un ensemble de gènes appelés allèles (i). La sélection naturelle serait le résultat de la compétition non pas entre les individus mais entre les allèles (i).

Cette interprétation moderne dite “néo-darwinienne” a conduit à la théorie du “gène égoïste” popularisée par Richard Dawkins (2). Le succès de cette théorie est dû au fait qu’elle a permis de comprendre et même de prédire un certain nombre de faits expérimentalement observés dans le monde animal. Selon cette théorie, le véritable reproducteur (ou “réplicateur”) ne serait pas l’individu mais le gène. L’individu ne serait qu’une “machine” construite par nos gènes pour assurer leur reproduction (réplication). Pour paraphraser Dawkins, nous ne sommes que le “véhicule” de nos propres gènes. Pire,“l’intérêt” de ceux-ci ne coïncide pas nécessairement avec le nôtre.

L’interprétation néo-darwinienne a toutefois quelques difficultés à expliquer pourquoi l’évolution a conduit des gènes “égoïstes” à coopérer dans un même chromosome, pourquoi des cellules vivantes se sont mises à coopérer pour former des organismes multicellulaires, et pourquoi ceux-ci coopèrent également entre eux, faisant parfois preuve d’un comportement altruiste. D’une façon générale, la théorie de la sélection naturelle de Darwin a du mal a expliquer le phénomène général d’auto-organisation des systèmes biologiques.

Dans mes prochains articles je montrerai comment ces difficultés peuvent être résolues. Peut-être le lecteur attentif de ce blog aura-t’il déjà deviné la nature de la solution.

(1) D’après ce qui suit, il faut affecter d’un coefficient 1/2 le nombre de nos enfants, d’un coefficient 1/4 le nombre de nos petits enfants, d’un coefficient 1/8 le nombre de nos arrière petits-enfants, et ainsi de suite.

(2) Richard Dawkins, le gène égoïste

(a) http://fr.wikipedia.org/wiki/Nicolas_Copernic
(b) http://fr.wikipedia.org/wiki/Charles_Darwin
(c) http://fr.wikipedia.org/wiki/Théorie_de_l’évolution
(d) http://site.voila.fr/bioafb/evolarti/evolarti.htm
(e) http://fr.wikipedia.org/wiki/Sélection_naturelle
(f) http://fr.wikipedia.org/wiki/Gregor_Mendel
(g) http://fr.wikipedia.org/wiki/Herbert_Spencer
(h) http://fr.wikipedia.org/wiki/Adam_Smith
(i) http://fr.wikipedia.org/wiki/Allèle


15 – Des procaryotes aux eucaryotes

Au cours des articles précédents, nous avons vu les cycles chimiques à l’origine concurrents entrer en collaboration pour former des ensembles autocatalytiques. Comme nos entreprises actuelles, ces ensembles autocatalytiques se font aussi concurrence. La nature introduit alors des barrières douanières sous forme de membranes incitant ces ensembles à coopérer. Les accords de coopération sont bientôt scellés sous la forme d’une molécule d’ADN.

La vie peut alors s’organiser à l’intérieur des premières cellules. Ce sont les procaryotes (1). Ceux-ci se multiplient rapidement et évoluent formant une incroyable variété d’espèces différentes, chacune adaptée à son environnement particulier. Certains vivent à la température de l’eau bouillante près de sources hydrothermales. D’autres s’adaptent à de l’eau très salée. La plupart cependant se développent dans des conditions moins insolites. Ce sont les bactéries (2) ordinaires. On peut les distinguer par leurs habitudes alimentaires. Certaines à l’appétit frugal vivent de l’air du temps, c’est-à-dire de gaz carbonique comme les plantes. D’autres obtiennent leur carbone de la matière organique environnante comme les animaux. D’autres enfin recyclent les déchets des précédents. Ainsi de nouveaux cycles se forment et tout un écosystème (3) s’établit.

Les bactéries sont comme nous des êtres grégaires. Lorsque deux bactéries se rencontrent, elles se serrent volontiers la main (ou pilus) (4), s’étreignent, puis échangent un brin d’information sous la forme d’un morceau d’ADN. Cela s’appelle une conjugaison (5). Elles peuvent ainsi se maintenir au courant des dernières nouveautés de l’évolution (6).

Elles aiment vivre en colonies. Lorsqu’il y a de la nourriture disponible, les bactéries se reproduisent très rapidement. Leur population double en moins d’une heure. Lorsque la nourriture est épuisée, elles partent en file indienne à la recherche de nourriture. La première qui en trouve en avertit aussitôt les autres. Les messages sont échangés sous forme de molécules organiques, un mode de communication qui nous est resté sous la forme de l’odorat.

La scène se passe il y a plus de 3,7 milliards d’années. Le bombardement de la Terre par des météores a beaucoup diminué. Le soleil commence à percer à travers les nuages. A la surface de l’océan, certaines bactéries découvrent l’énergie solaire et adoptent la photosynthèse. Ce sont les cyanobactéries (7) ou algues bleues. Elles vont rapidement proliférer et envahir la planète. On retrouve la trace de leurs colonies dans des stromatolithes (8) datant de 3,5 milliards d’années.

stromatolites
Comme il y a 3,5 milliards d’années, les cyanobactéries fabriquent encore aujourd’hui des stromatolithes (photo Wikipédia)

Pendant 2 milliards d’années les procaryotes règnent en maîtres sur notre planète. Il n’y a aucun autre être vivant. Toutefois, les bactéries vivant de la photosynthèse produisent un déchet chimiquement très actif: l’oxygène. Au début celui-ci est absorbé par le fer que l’on trouve alors en abondance sous forme métallique. Le fer rouille laissant des traces sous forme de bandes rouges (9) dans certains sédiments. Mais bientôt l’oxygène se répand dans l’atmosphère. Celle-ci est de plus en plus “polluée”.

Pour beaucoup de procaryotes la situation devient dramatique car l’oxygène oxyde (brûle lentement) la matière organique. Ils doivent s’en protéger. Certains (les anaérobies) se réfugient dans la vase au fond de l’eau. D’autres (les aérobies) se débarrassent de l’oxygène en brûlant leurs déchets, découvrant ainsi une nouvelle source d’énergie. Celle-ci devient vite populaire. Le taux de dissipation d’énergie fait un nouveau bond en avant à la surface de notre planète.

Il y a environ 1,5 milliards d’année, le pourcentage d’oxygène dans l’air se stabilise vers sa valeur actuelle (20%). Le rayonnement ultraviolet solaire est alors arrêté grâce à la transformation de l’oxygène de la haute atmosphère en ozone. La vie va se développer en dehors de l’eau. Une symbiose s’établit vraisemblablement entre des bactéries aérobies et des anaérobies. Elle donne naissance aux eucaryotes (10).

Leur évolution peut être comparée à celle actuelle de l’urbanisme. Protégés par leur épais mur cellulaire, les premiers procaryotes ressemblent à des châteaux forts du moyen-âge. Ils doivent faire venir leur nourriture de l’extérieur en sécrétant un suc digestif. Peu à peu l’économie se développe. Le château s’entoure d’un village. Les fortifications s’étendent. Chez les procaryotes, l’évolution se manifeste par l’allongement de la molécule d’ADN qu’ils contiennent.

Ce développement économique n’est pas sans provoquer de convoitise. Des hordes barbares s’attaquent aux villages fortifiés. De même, les bactéries sont attaqués par des hordes de molécules errantes, des molécules d’ARN appelées bactériophages (11). Les bactéries apprennent à se défendre.

La paix revenue, certains villages s’étendent en dehors des fortifications et deviennent de gros bourgs. L’économie s’y développe. Il faut restructurer le village. Devenues inutiles, certaines fortifications disparaissent. Il en est de même chez les procaryotes qui évoluent en eucaryotes. Chez les eucaryotes les restes de l’enceinte extérieure devient une structure interne, le cytosquelette (12).

En s’étendant les villes nouvelles englobent souvent des villages voisins. Les eucaryotes n’hésitent pas eux non plus à englober un procaryote qui traîne dans le voisinage. C’est la phagocytose (13). Le procaryote est alors en général digéré. De même, le village englobé est souvent remplacé par une nouvelle zone d’urbanisme. Certains monuments anciens peuvent être cependant conservés. Les eucaryotes eux-aussi ont gardé d’anciennes structures. Leur noyau (14), centre administratif de la cellule contenant l’ADN, est entouré d’une enceinte réminiscente de celle des premiers procaryotes. C’est leur citadelle.

Parmi les anciennes structures on trouve aussi des organites (15) en particulier les mitochondries (16). Ce sont les banques. La molécule d’adénosine triphosphate (17) ou ATP y tient lieu de monnaie. Elle permet de se procurer l’énergie indispensable au fonctionnement de l’ensemble. De même que la banque frappe la monnaie, de même la mitochondrie fabrique l’ATP. La monnaie est enfermée dans des coffres à la banque. L’ATP est enfermée à l’intérieur de la membrane de la mitochondrie.

Comme il se doit pour une banque, les mitochondries ont gardé une certaine indépendance. Elles ont leur propre ADN. Toutefois, celui-ci ne lui permet pas de se reproduire. Elles auraient alors une trop grande liberté. L’ADN contenu dans une mitochondrie ne permet de reproduire que sa membrane. L’ADN qui permet de reproduire l’intérieur de la mitochondrie a été transféré dans le noyau (18). Celle-ci est donc sous contrôle de l’administration centrale. La mitochondrie ne contrôle que sa membrane, c’est-à-dire l’accès aux coffres. Pour y avoir accès, il faut une double clé, sous forme de protéines. L’une est fournie par la mitochondrie, l’autre par le noyau.

En se développant, certaines villes deviennent des cités c’est-à-dire de grandes agglomérations. On voit apparaître également des agglomérations d’eucaryotes. Ce sont les organismes multicellulaires dont nous faisons partie. Leurs cellules se sont différentiées formant des organes. On parle aussi du cœur d’une cité, de ses grandes artères, de son centre nerveux et même de ses poumons (les jardins publics).

J’arrêterai ici ma description de l’évolution. J’espère avoir suffisamment montré à quel point on y retrouve la plupart des problèmes économiques et sociaux qui nous préoccupent. Dans mon prochain article je parlerai des grandes lois qui régissent cette évolution, lois découvertes par Darwin au 19ème siècle mais souvent mal comprises. Je suis personnellement convaincu que nous avons maintenant les éléments nécessaires pour interpréter ces lois correctement.

(1) http://fr.wikipedia.org/wiki/Procaryote
(2) http://fr.wikipedia.org/wiki/Bactérie
(3) http://fr.wikipedia.org/wiki/Écosystème
(4) http://fr.wikipedia.org/wiki/Pilus
(5) http://fr.wikipedia.org/wiki/Conjugaison_(génétique)
(6) C’est ainsi que de nos jours les bactéries deviennent peu à peu insensibles aux antibiotiques.
(7) http://fr.wikipedia.org/wiki/Cyanobacteria
(8) http://fr.wikipedia.org/wiki/Stromatolite. Voir aussi: http://www.ggl.ulaval.ca/personnel/bourque/s4/stromatolites.html
(9) http://en.wikipedia.org/wiki/Banded_iron_formation
(10) http://fr.wikipedia.org/wiki/Eukaryota
(11) http://fr.wikipedia.org/wiki/Bactériophage
(12) http://fr.wikipedia.org/wiki/Cytosquelette
(13) http://fr.wikipedia.org/wiki/Phagocytose
(14) http://fr.wikipedia.org/wiki/Noyau_(biologie)
(15) http://fr.wikipedia.org/wiki/Organite
(16) http://fr.wikipedia.org/wiki/Mitochondrie
(17) http://fr.wikipedia.org/wiki/Adénosine_triphosphate
(18) John Maynard Smith and Eörs Szathmary. The origins of life (Oxford, 1999)


14 – Apparition de l’ADN

Quelques centaines de millions d’années après sa naissance, l’apparition du phénomène d’autocatalyse va révolutionner notre planète. Une grande industrie chimique y prend naissance là où l’énergie est disponible (1). La convection se charge du transport des molécules. Tout un réseau d’échanges s’établit.

Cette révolution n’est pas sans rappeler la révolution industrielle actuelle mais sur une échelle de temps beaucoup plus grande. Des ensembles autocatalytiques se développent en fonction de la demande. D’autres font faillite ou sont “rachetés” (englobés) par des ensembles plus gros. Des chaînes de molécules deviennent disponibles sur le marché. Ce sont les polymères. Les premières chaînes d’acides aminés ou polypeptides sont particulièrement populaires à cause de leur vertus catalysantes. Elles donneront plus tard naissance aux enzymes actuels.

Tout ceci mène à une sorte de “pollution industrielle”. L’environnement change peu à peu. Les hypercycles sont fragiles. Il suffit qu’un élément de la chaîne fasse faillite pour que toute la production s’arrête. Plus ces éléments sont nombreux, plus la probabilité de défaillance est élevée. Au fur et à mesure que l’environnement change, de grands ensembles autocatalytiques, qui s’étaient lentement et “savamment” organisés, s’effondrent. Seuls les petits ensembles arrivent à survivre, formant sans cesse de nouvelles alliances. Cela leur permet de s’adapter aux changements.

Grâce sans doute aux polypeptides, de nouvelles chaînes de molécules apparaissent. Ce sont les polynucléotides. Plus stables que les polypeptides, ils résistent mieux aux variations de l’environnement. Moins actifs chimiquement, ils ont néanmoins eux aussi quelques propriétés catalysantes. Peu à peu, ils évoluent et aident à régénérer les polypeptides. Les deux catégories de polymères s’aident ainsi mutuellement à survivre.

Toutes ces chaînes de molécules ont toutefois de la peine à dépasser quelques dizaines de maillons. Pour produire une longue chaîne il faut assembler de nombreux maillons. Mais ceux-ci ont tendance à se disperser, de sorte que les longues chaînes sont très lentes à assembler. Réagissant chimiquement, elles disparaissent plus vite qu’elles ne sont produites.

Un troisième type de molécule va sauver la situation. Ce sont les acides gras (2). On trouve des acides gras dans le savon. Ils permettent la formation des bulles de savon. Avec les acides gras, de l’écume apparaît dans l’océan. Des grosses molécules se trouvent accidentellement enfermées dans des bulles (3) semblables à des bulles de savon. Elles peuvent cependant continuer à réagir chimiquement car la paroi des bulles n’est pas parfaite: elle laisse passer les petites molécules comme celles de l’eau, du gaz carbonique, ou de l’oxygène. Mais les grosses molécules (peptides, nucléotides) restent prisonnières. Elles ne peuvent plus se disperser. Les longues chaînes vont alors pouvoir se former.

Certaines de ces bulles renferment assez de macromolécules pour former un ensemble autocatalytique. La bulle grossit alors rapidement et éclate. Il arrive cependant que l’ensemble enfermé dans la bulle soit capable de produire ses propres acides gras. Alors, sa paroi s’agrandit. Elle s’agrandit même plus vite que le volume de la bulle n’augmente. Devenue trop grande, la bulle s’allonge et se scinde en deux, un phénomène que l’on peut maintenant reproduire en laboratoire (4) (voir figure). On pense que ce phénomène est à l’origine de la division des cellules vivantes.

bulles
Division de cellules artificielles (4)

Lorsqu’on coupe en deux un ensemble autocatalytique, il n’y a pas nécessairement équipartition des éléments. On n’obtient pas toujours deux ensembles autocatalytiques. Certains catalyseurs peuvent manquer d’un coté ou de l’autre. La nouvelle bulle ne va alors pas grandir. C’est un avorton. Cela se produit d’autant plus que le nombre de catalyseurs est plus élevé. Les ensembles autocatalytiques à faible nombre de catalyseurs sont donc favorisés. Ils se reproduisent mieux.

Une façon de diminuer le nombre de catalyseurs indépendants d’un système autocatalytique est de les attacher les uns au bout des autres de façon à ce qu’ils ne forment plus qu’une seule longue molécule. On est alors sûr qu’ils se retrouveront bien tous ensemble lorsque la bulle qui les contient va se scinder. Dans ce cas, chaque fois qu’une longue chaîne va se former, la reproduction de l’ensemble autocatalytique en sera facilitée.

C’est vraisemblablement ainsi que petit à petit la nature est arrivée à former un ensemble autocatalytique à un seul élément. Cet élément unique, capable de catalyser sa propre formation, est la molécule d’acide ribonucléique ou ARN (5). L’ARN est un polynucléotide capable de se reproduire lui-même. C’est aussi un catalyseur aux multiples usages, capable de catalyser la formation de très longs polypeptides appelés protéines. C’est en fait un ensemble de catalyseurs tous solidaires les uns des autres, au grand bénéfice de la survie de chacun d’entre eux.

Étant capable de se reproduire par elle-même, la molécule d’ARN évolue comme un être en vivant. On peut l’observer évoluer dans un tube à essai (6). Dans ces conditions, sans doute proches des conditions primitives, seules des chaînes d’une centaine de maillons survivent. Au delà, la probabilité d’une erreur dans la reproduction devient trop grande.

Il apparaît vraisemblable que ces erreurs de reproduction, qualifiées aussi de mutations, aient petit à petit conduit à l’apparition d’une nouvelle molécule, voisine de l’ARN, la molécule d’ADN ou acide désoxyribonucléique. Comparée à celle d’ARN, la molécule d’ADN contient les mêmes informations, mais elle est beaucoup plus stable chimiquement. Elle n’a aucun pouvoir catalytique, mais l’information qu’elle contient est directement transférable à la molécule d’ARN. L’ADN est en fait un ensemble d’instructions. Chacune de ces instructions appelées aussi gènes, correspond à la synthèse d’une protéine particulière.
La nature venait d’inventer le contrat d’entreprise. L’ARN n’était plus qu’un exécutant. Cela a permis au couple ARN/ADN d’étendre de façon fiable la longueur de ses molécules à quelques dizaines de milliers d’éléments. Par la suite des mécanismes automatiques de correction d’erreur sont apparus. Ils ont permis d’étendre la longueur des molécules d’ADN à plusieurs milliards d’éléments. C’est grâce à tous ces mécanismes que nous existons et que nous nous reproduisons de façon raisonnablement fiable.

*

(1) Certains pensent que la vie est apparue au fond des océans, près des sources hydrothermales.

(2) Voir: http://fr.wikipedia.org/wiki/Acide_gras

(3) Voir par exemple: http://www.sciencemag.org/cgi/content/abstract/302/5645/618?ijkey=0406eb785f5ae444398049d282bffe9987d37e5c&keytype2=tf_ipsecsha

(4) Pier Luigi Luisi, The Emergence of Life (Cambridge Univ. Press, 2006).
Voir aussi: http://www.plluisi.org/Archive/Research/grl_res001.html

(5) Voir: Leslie E. Orgel, Prebiotic chemistry and the origin of the RNA world, Critical Reviews in Biochemistry and Molecular Biology, Vol. 39-2, 99-123.

(6) Voir: http://en.wikipedia.org/wiki/Spiegelman_Monster


13 – Le phénomène d’autocatalyse.

Comme les cycles chimiques décrits précédemment, la vie est faite de cycles répétés indéfiniment. L’œuf donne naissance à la poule qui pond un nouvel œuf et ainsi de suite. Lequel des deux est apparu en premier? Les travaux de Pasteur ont montré que la vie n’apparaît pas spontanément. Il n’y a pas de génération spontanée (1). Un milieu stérilisé reste stérile. Or, la terre s’est formée il y a 4,7 milliards d’années. Comment la vie y est-elle apparue? Y avait-il déjà une certaine forme de vie dans la nébuleuse primitive qui a donné naissance à la terre?

Ce problème est aujourd’hui largement débattu parmi les spécialistes. Si l’on ne connaît pas encore le mécanisme détaillé qui a conduit à l’apparition de la vie sur terre, on peut cependant en concevoir maintenant les étapes essentielles (2). Il s’agit d’un mécanisme extrêmement lent qui a duré peut-être un milliard d’années. Si la génération spontanée n’est pas possible à l’échelle de temps humaine, elle devient possible sur une telle échelle de temps.

L’image en tête de ce blog montre la nébuleuse primitive entourant l’étoile GG Tau. A l’origine le Soleil était lui aussi entouré d’une telle nébuleuse. On sait maintenant qu’elle contenait de nombreuses molécules organiques. Les comètes qui proviennent des restes de cette nébuleuse en sont témoins. Des météorites d’origine cométaire comme la météorite de Murchison (3) en ont fourni la preuve. On y a trouvé 18 variétés d’acides aminés dont 6 font couramment partie des protéines. On peut donc penser que de nombreux cycles chimiques s’y étaient déjà formé pour dissiper l’énergie solaire, cycles vraisemblablement catalysés par des silicates, des sulfures ou des oxydes métalliques.

Lors de sa formation, la Terre contient donc déjà de la matière organique. Elle ne manque pas non plus d’énergie à dissiper. Un problème vient du fait que la plupart des réactions chimiques sont réversibles. L’énergie solaire permet la photosynthèse de molécules complexes, mais son rayonnement ultraviolet les détruit. L’énergie géothermique favorise les réactions chimiques, mais un excès de température décompose les produits formés. La polymérisation (assemblage) de grosses molécules organiques dégage de l’eau, mais un excès d’eau les détruit (hydrolyse).

La vie n’a donc pu évoluer qu’en présence de gradients importants: différences d‘éclairement, différences de température, différences d’humidité. On reconnaît bien là une caractéristique des systèmes dissipatifs que nous avons vue à propos des cellules de Bénard ou des tourbillons. Ces phénomènes dynamiques ont sans doute joué aussi leur rôle en transportant les molécules complexes loin du site de leur formation. Les gradients de température, de pression, ou d’humidité devaient être particulièrement nombreux et actifs dans une terre primitive très éloignée de l’équilibre thermodynamique.

Dans cette “soupe primordiale” de nombreux cycles chimiques se disputent l’énergie disponible. On peut comparer les cycles chimiques à des entreprises industrielles dans un système capitaliste. Entre eux aussi, la compétition est sans merci. Toutefois, au hasard des rencontres, des collaborations peuvent s’établir. De même qu’un produit fabriqué par une entreprise peut être utilisé comme matière première par une autre, de même une molécule produite par un cycle chimique peut être utilisée par un autre. Les entreprises ont tendance à former des réseaux d’échanges commerciaux. De même les cycles chimiques forment des réseaux d’échanges de molécules.

Comme pour les entreprises, il y a autorégulation de la production. Nous avons vu que les cycles chimiques forment en général des boucles d’asservissement régulatrices. Si les molécules produites par un cycle restent inutilisées, elles s’accumulent. Leur accumulation déclenche l’arrêt de la production. Au contraire une molécule très demandée va être de plus en plus produite. Il y a là un phénomène d’apprentissage semblable à celui des réseaux neuronaux (algorithme d’optimisation) sur lequel nous reviendrons.

Au hasard des rencontres entre molécules de nouvelles réactions chimiques s’amorcent et de nouvelles molécules toujours plus complexes se forment. Certaines peuvent avoir des propriétés catalytiques intéressantes. C’est ainsi que peu à peu de nouveaux catalyseurs apparaissent plus efficaces que les silicates, sulfures ou oxydes métalliques. Ils sont aussi plus spécialisés. Ils se substituent petit à petit aux précédents (4). Ce sont les premiers « enzymes ».

La plupart des spécialistes s’accordent pour dire qu’une première étape vers la vie a été l’apparition du phénomène d’autocatalyse, c’est-à-dire d’un ensemble de réactions chimiques capables de reproduire ses catalyseurs. L’américain Stuart Kauffman (5) appelle un tel ensemble un ensemble autocatalytique (6). Il a montré que la probabilité de formation d’un ensemble autocatalytique croit rapidement avec le nombre de cycles chimiques en présence. Sur la Terre primitive, ce nombre était en augmentation constante. L’apparition d’un tel phénomène était donc sans doute inéluctable.

Un exemple d’ensemble autocatalytique est l’hypercycle de Manfred Eigen (7) et Peter Schuster. La figure ci-dessous montre le principe d’un tel hypercycle. Le cycle chimique I1 produit un catalyseur (ou enzyme) E1 qui catalyse le cycle I2. Celui-ci produit un catalyseur E2 qui catalyse le cycle I3 et ainsi de suite. Le dernier cycle chimique In produit le catalyseur En qui catalyse le cycle I1.

hypercycle1
Hypercycle de Manfred Eigen (8)

On a vu que les catalyseurs se reconstituent intégralement à la fin de chaque cycle chimique. A la fin d’un hypercycle chaque cycle a produit un élément de catalyseur de plus capable de catalyser le cycle suivant, ce qui double l’effectif des catalyseurs donc des hypercycles capables d’opérer simultanément. Se reproduisant à chaque cycle le nombre d’hypercycles croit en progression géométrique, c’est-à-dire exponentiellement. C’est bien une réaction en chaîne de type explosive. Cela conduit à un accroissement constant du taux de dissipation de l’énergie conformément au principe de production maximale d’entropie.

La notion d’ensemble autocatalytique s’applique aussi aux réseaux d’entreprises. Dans une entreprise, c’est le capital qui joue le rôle de catalyseur. Le capital est nécessaire pour démarrer la production, mais à la fin du cycle de production, il est régénéré par la vente du produit fini. Une chaîne de restaurants comme Mc Donald est un bon exemple d’ensemble autocatalytique. Lorsque chaque restaurant fait des bénéfices, ces bénéfices permettent de construire de nouveaux restaurants, qui faisant eux aussi des bénéfices permettent d’en construire d’autres, ad infinitum. Le nombre de restaurants a alors tendance à s’accroître comme celui des hypercycles, exponentiellement.

Il est intéressant de remarquer qu’un hypercycle autocatalytique possède déjà les deux propriétés essentielles des êtres vivants: il dissipe de l’énergie (métabolisme) et et il se multiplie (reproduction). Il lui manque cependant un élément de stabilité. Si un des maillons de la chaîne fait défaut, tout s’arrête. Pour éviter ce problème, les entreprises s’associent en signant des contrats financiers.

L’avantage du capital est qu’il est un catalyseur universel. Il est plus facile de signer un nouveau contrat financier que de fabriquer un nouveau catalyseur. Les catalyseurs manquent de versatilité. Cela rend les hypercycles fragiles. Dans notre prochain article, nous verrons comment la nature à découvert elle aussi une sorte de catalyseur universel.

(1) http://fr.wikipedia.org/wiki/Génération_spontanée

(2) John Maynard Smith, Eörs Szathmary, et Nicolas Chevassus-Au-Louis. Les origines de la vie. De la naissance de la vie à l’origine du language (Dunod, 2000).

(3) http://en.wikipedia.org/wiki/Murchison_meteorite

(4) Certains comme Cairns Smith pensent que le phénomène d’autocatalyse est apparu d’abord, la reproduction se faisant par l’intermédiaire des cristaux de silicates. Les enzymes seraient apparus plus tard. On parle alors de substitution génétique (genetic takeover). Voir: http://originoflife.net/takeover/index.php .

(5) http://en.wikipedia.org/wiki/Stuart_Kauffman

(6) http://en.wikipedia.org/wiki/Autocatalytic_set

(7) http://fr.wikipedia.org/wiki/Manfred_Eigen

(8) http://pespmc1.vub.ac.be/hyperc.html


12 – Les cycles chimiques et la vie.

Les physiciens utilisent souvent la notion de potentiel. J’ai moi-même ici parlé de l’énergie potentielle de l’eau dans un barrage. Il s’agit de l’énergie qu’il est possible d’obtenir en faisant tomber l’eau du barrage. Cette énergie est d’autant plus grande que le l’eau tombe de plus haut. Dans ce cas la hauteur du barrage est une mesure de potentiel et l’énergie obtenue est proportionnelle à la différence de potentiel c’est-à-dire la différence de hauteur de l’eau au départ et à l’arrivée. Elle est aussi proportionnelle à la quantité d’eau déversée. La notion de potentiel est également utilisée en électricité où les différences de potentiel se mesurent en volts et les débits en ampères. Ainsi un courant de 1 ampère fourni par une différence de potentiel de 1 volt fourni une énergie de 1 joule par seconde, c’est-à-dire une puissance de 1 watt. D’une façon générale on dit que les courants d’énergie s’écoulent des régions de haut potentiel vers les régions de bas potentiel comme l’eau s’écoule des sommets vers la plaine. De même que l’eau reste parfois prisonnière dans un creux, l’énergie peut elle aussi rester prisonnière dans un minimum de potentiel. On parle alors de puits de potentiel. Un puits de potentiel est un endroit où on peut aller puiser l’énergie emmagasinée.

Jusqu’ici nous avons pris nos exemples d’auto-organisation dans le domaine dynamique des fluides. Les particules d’un fluide échangent de l’énergie au cours de brèves interactions qualifiées de chocs entre particules. Lorsqu’un choc a lieu entre deux particules, il peut arriver qu’une liaison plus durable s’établisse. On parle alors de réaction chimique et de formation de molécules. Si un choc peut former une molécule, un autre choc peut la défaire. L’étude de ces interactions aléatoires relève aussi de la mécanique statistique c’est-à-dire de la thermodynamique. Le premier a avoir appliqué la thermodynamique aux réactions chimiques est l’américain J. Willard Gibbs (1). On lui doit l’introduction de la notion de potentiel en chimie.

Une molécule forme un puits de potentiel. La molécule est d’autant plus stable que la barrière de potentiel qui entoure le puits est plus haute. Pour dissocier la molécule, il faut disposer d’une énergie suffisante pour franchir la barrière de potentiel. L’énergie minimale nécessaire pour produire une réaction chimique s’appelle l’énergie d’activation (2). Elle est donnée par la hauteur de la barrière de potentiel. Un choc violent peut fournir assez d’énergie pour franchir cette barrière et dissocier la molécule.

Si le potentiel à l’extérieur du puits est plus bas que celui à l’intérieur du puits, la dissociation de la molécule libère plus d’énergie qu’il n’en a fallu pour franchir la barrière. L’énergie étant généralement libérée sous forme de chaleur, on dit que la dissociation est exothermique. Si l’élévation de température est suffisante, l’énergie libérée peut servir à dissocier d’autres molécules produisant une réaction en chaîne avec forte dissipation d’énergie. L’état final étant plus stable que l’état initial, on dit que la molécule initiale est dans un état métastable.

C’est par exemple le cas d’une molécule d’eau oxygénée (3) appelée aussi peroxyde d’hydrogène . Celle-ci est formée de deux atomes d’hydrogène (H) attachés à deux atomes d’oxygène (O) dans l’ordre H-O-O-H. À la température ordinaire, rares sont les chocs qui permettent de la dissocier. Mais si on la chauffe, les chocs deviennent plus énergiques et l’eau oxygénée se décompose rapidement en eau ordinaire (H-O-H) beaucoup plus stable et en oxygène.

Inversement, une molécule peut être plus stable que ses composants. C’est le cas de l’eau ordinaire. Dans ce cas, c’est le mélange hydrogène et oxygène qui est métastable et c’est leur association qui est exothermique. À la température ordinaire l’énergie apportée par les chocs est insuffisante pour franchir la barrière de potentiel qui empêche d’unir les deux composants. Si on élève suffisamment la température du mélange, alors une réaction en chaîne peut se déclencher. Le mélange explose en libérant de l’énergie et en produisant de l’eau.

Revenons maintenant au cas de l’eau oxygénée. Chacun a pu constater que si l’on désinfecte une plaie avec de l’eau oxygénée, il y a production abondante de mousse (4). L’eau oxygénée se décompose en libérant de l’oxygène et de l’énergie. Que s’est-il produit? Le sang contient un enzyme appelé catalase (5) dont le rôle est justement de décomposer l’eau oxygénée, dangereux oxydant pour nous comme pour les bactéries. Du point de vue chimique, les enzymes sont des catalyseurs, c’est-à-dire des molécules qui accélèrent certaines réactions chimiques en abaissant les barrières de potentiel.

Un catalyseur comme la catalase agit en s’unissant temporairement avec l’eau oxygénée pour libérer de l’eau. La molécule complexe ainsi formée est elle-même dissociée par l’eau oxygénée libérant à nouveau de l’eau, de l’oxygène et la catalase elle-même qui se retrouve intacte à la fin de ce cycle de réactions. Le cycle peut donc recommencer. Du point de vue thermodynamique, ce cycle de réaction, appelé aussi cycle catalytique ou métabolique, est celui d’une micro-machine thermique capable de pomper l’énergie à l’intérieur d’un puits de potentiel. L’énergie nécessaire pour faire marcher la pompe provient de celle libérée par la réaction. C’est donc tout à fait l’analogue des cellules de Bénard ou des cyclones qui utilisent une partie de l’énergie transférée pour accélérer le transfert. Une fois amorcée, la pompe transfère l’énergie comme un siphon transfère l’eau par dessus la margelle d’un puits.

catalase
molécule de catalase

Tous ces mécanismes cycliques proviennent du fait que pour avancer il faut faire un pas devant l’autre et recommencer sans cesse la même suite de mouvements périodiques. De même un rameur reproduit périodiquement les même gestes avec ses rames. Pour extraire l’eau d’un puits, l’usage était d’attacher un seau à une chaîne, d’enrouler la chaîne sur un tambour et de tourner la manivelle. Les cycles chimiques sont les manivelles qui permettent d’extraire l’énergie des puits de potentiel. La nature a semble-t’il inventé la roue bien avant l’homme.

Dans mon avant dernier article, j’ai montré que le cycle de rotation d’une cellule de Bénard formait une boucle d’asservissement. C’est aussi le cas bien sûr des cycles catalytiques. Il arrive fréquemment que l’enzyme qui catalyse la première réaction du cycle soit inhibé par le produit ultime de la réaction. Lorsque sa concentration de ce produit atteint une valeur critique, la réaction s’arrête. Elle reprend si sa concentration diminue. On a alors un stabilisateur de concentration comme un thermostat est un stabilisateur de température. L’enzyme peut aussi être activé par le produit final. La réaction alors s’accélère jusqu’à élimination totale du produit de départ. Les organismes vivants contiennent des milliers de cycles catalytiques leur permettant de réagir ainsi aux fluctuations du monde extérieur et par conséquent d’acquérir un certain degré de conscience (6).

On sait que les boucles d’asservissement peuvent parfois provoquer des oscillations. Il en est de même des cycles catalytiques. On pense que certains cycles catalytiques servent d’horloge interne aux êtres vivants. Lorsque nous vieillissons, ces cycles ralentissent nous donnant l’impression que le temps s’écoule de plus en plus vite, impression joliment décrite par Saint Exupéry dans l’épisode de l’allumeur de réverbères du Petit Prince.

Vers la fin des années 50, deux chimistes russes Belousov et Zhabotinsky (7) qui étudiaient les cycles métaboliques ont eu la surprise de voir la couleur de leur mélange osciller périodiquement. Des ondes colorées se propageaient dans leur solution. Bill Early, professeur de chimie au collège jésuite de l’Université de Georgetown, raconte qu’après avoir fait une conférence sur les réactions de Belousov et Zhabotinsky(8), il s’est trouvé avec deux prêtres jésuites dans un ascenseur. Voyant son éprouvette changer périodiquement de couleur, un prêtre lui aurait demandé si le contenu de son éprouvette était vivant. Il aurait répondu: “ce contenu est comme vous, mon père, il métabolise mais ne se reproduit pas” (9)

On pense maintenant que, peu de temps avant l’apparition de la vie, de nombreux cycles métaboliques s’auto-organisaient pour dissiper l’énergie. Certains apparurent capables de synthétiser leurs propres catalyseurs. Le phénomène de reproduction était né. Une étape essentielle était franchie vers la formation d’organismes vivants (10).

(1) http://en.wikipedia.org/wiki/Josiah_Willard_Gibbs
(2) http://fr.wikipedia.org/wiki/Énergie_d’activation
(3) http://fr.wikipedia.org/wiki/Eau_oxygénée
(4) http://www.canal-educatif.fr/video1_chapitree.html
(5) http://en.wikipedia.org/wiki/Catalase
(6) Sur la cybernétique des cycles catalytiques lire: Jacques Monod, Le hasard et la nécessité (Seuil, 1970), chapitre 4.
(7) http://www.ac-poitiers.fr/sc_phys/cyberlab/cyberter/fete_chi/BZ/bz.htm
(8) (en anglais) http://online.redwoods.cc.ca.us/instruct/darnold/deproj/Sp98/Gabe/
(9) Rapporté par E. Schneider et D. Sagan dans: Into the cool (Chicago, 2005), chap. 7.
(10) Voir: Maynard Smith et al., Les origines de la vie (Dunod, 2000).


11. Tourbillons et cyclones

Dans l’article précédant, j’ai montré qu’un fluide traversé par un flux important d’énergie peut s’auto-organiser, phénomène généralement attribué aux êtres vivants. J’ai pris comme exemple la convection dans les cellules de Bénard. Loin d’être une curiosité académique, cet exemple n’est qu’un cas particulier parmi beaucoup d’autres. Avant de montrer que les principes de la thermodynamique s’appliquent aussi à la vie, donc à l’homme et par suite aux sociétés humaines, j’aimerais donner encore quelques exemples d’application dans le domaine de la dynamique des fluides. Ces exemples me serviront plus tard d’illustration lorsque nous aborderons le domaine plus complexe de l’auto-organisation des sociétés humaines.

On observe également l’apparition de mouvements ordonnés dans un fluide en mouvement rapide, par exemple dans une canalisation. Lorsque la vitesse d’écoulement est lente, il y a simplement dissipation visqueuse de l’énergie par frottement le long des parois. L’écoulement est dit laminaire. Lorsque la vitesse d’écoulement augmente des tourbillons apparaissent. Ils apparaissent d’autant plus tôt que le diamètre de la canalisation est plus grand. En effet, plus le rapport de la surface de la paroi au volume du fluide est petit plus la dissipation le long des parois devient inefficace. Il y a alors apparition d’un phénomène plus efficace dit de dissipation turbulente. L’écoulement est dit turbulent. Le rapport du taux de dissipation turbulente au taux de dissipation visqueuse est un nombre sans dimension (indépendant des unités) appelé nombre de Reynolds (1). Lorsque le nombre de Reynolds est élevé, la dissipation turbulente l’emporte conformément au principe de production maximale d’entropie.

En 1923 l’anglais Geoffroy I. Taylor (2) s’intéresse à l’écoulement d’un fluide visqueux placé entre deux cylindres coaxiaux de section circulaire tournant à des vitesses différentes autour de leur axe commun. Lorsque la différence des vitesses est faible il y a seulement dissipation visqueuse de l’énergie le long des parois. On parle alors d’écoulement de Couette du nom du français Maurice Frédéric Alfred Couette (3), professeur à l’université d’Angers qui utilisa le premier ce type d’écoulement pour mesurer la viscosité d’un fluide en 1890. Lorsque la différence des vitesses atteint une valeur critique donnée par un nombre dit de Taylor, alors le fluide se met à tourbillonner. On parle alors d’écoulement de type Couette-Taylor (4).

Taylor-Couette
Tourbillons toroïdaux de Taylor (9)

Des tourbillons toroïdaux apparaissent en nombre pair, deux tourbillons voisins tournant dans des sens opposés. Lorsqu’on augmente la différence des vitesses, le nombre de tourbillons augmente (voir figure). Il s’agit donc d’un système à nombreuses bifurcations. Curieusement, à des vitesses de rotation données peuvent correspondre des états du système différents. Dans ce cas, l’état du système dépend de son évolution antérieure. Le fluide cherche à maximiser la production d’entropie, mais plusieurs solutions également efficaces peuvent se présenter. La solution choisie par le fluide dépend alors de son état immédiatement antérieur. Il y a là apparition d’un phénomène nouveau de mémorisation de l’information, phénomène assez rare en dynamique des fluides mais qui prend une grande importance dans les systèmes dynamiques plus complexes.

Des phénomènes tourbillonnaires apparaissent spontanément dans l’atmosphère terrestre et peuvent prendre des tailles très différentes, depuis la simple tornade de 10 à 100 mètres de diamètre jusqu’aux cyclones dont le diamètre peut atteindre plusieurs centaines de kilomètres. La grande tache rouge de Jupiter (5) est un immense cyclone dont le diamètre est 4 fois celui de la terre. Ces phénomènes ont toujours fasciné l’homme car ils paraissent avoir des comportements d’êtres vivants. Ils naissent, évoluent et meurent. Leur déplacement est souvent difficile à prévoir donnant l’impression d’un certain libre arbitre. Ce n’est donc pas par hasard si l’on donne des prénoms aux cyclones. Leur puissance en fait souvent des monstres impressionnants. L’année 2005 fut une année particulièrement riche en cyclones (6). Le 29 Août, Katrina détruisit la Nouvelle Orléans. Apparut ensuite Rita dans le golfe du Mexique puis Wilma en Floride du Sud. La liste des prénoms prévus étant épuisée, il a fallu utiliser ensuite l’alphabet grec .

Les cyclones sont de gigantesques machines thermiques naturelles. Ils produisent une énergie mécanique considérable en transférant de l’air chaud situé à la surface du globe vers les régions plus froides situées à haute altitude. Pour comprendre l’efficacité de ce transfert, il suffit de retourner une bouteille pleine d’eau. Au fur et à mesure que l’eau s’écoule, l’air cherche à entrer dans la bouteille obstruant régulièrement le passage de l’eau. Celle-ci met du temps à s’écouler en faisant un bruyant “glou-glou”. Si en retournant la bouteille on donne en même temps à l’eau un mouvement de rotation, alors plaquée sur les parois par la force centrifuge l’eau s’écoule en laissant l’air entrer librement au centre. La bouteille se vide sans bruit en quelques secondes.

Un cyclone est traversé à la fois par un flux de matière (7) et par un flux d’énergie. Partant du niveau de la mer, l’air chaud et humide monte en tourbillonnant jusqu’à des altitudes élevées provoquant les condensations nuageuses observées. Il est remplacé par de l’air froid qui descend dans l’œil du cyclone, laissant celui-ci sans nuages. Lorsque le cyclone se déplace, ce n’est pas l’air qui se déplace mais la perturbation du milieu. On réalise mal que nous sommes nous aussi traversés par un flux de matière. Les cellules de notre corps se renouvellent chaque mois grâce à ce que nous mangeons. Lorsque nous sommes agés, un atome de notre corps a peu de chance d’en avoir fait partie à notre naissance. Comme un cyclone, nous sommes une perturbation de l’environnement qui nait, se développe puis s’éteint.

L’écoulement de l’air dans un cyclone est loin d’être laminaire. Il est parsemé de petits tourbillons qui se décomposent eux-mêmes en tourbillons plus petits formant ce qu’on appelle une cascade d’énergie. Le mathématicien russe Andreï Kolmogorov (8) a montré que l’énergie se répartit le long de la cascade suivant une progression géométrique ou loi de puissance, dite loi de Kolmogorov. On retrouve ce même phénomène de cascade dans les écosystèmes où il suit des lois analogues.

(1) http://fr.wikipedia.org/wiki/Nombre_de_Reynolds
(2) http://www-circa.mcs.st-and.ac.uk/~history/Mathematicians/Taylor_Geoffrey.html
(3) Voir (en anglais) http://en.wikipedia.org/wiki/Couette_flow
(4) http://www.ladhyx.polytechnique.fr/activities/experimental/corp_fr/cylcoax.html
Voir aussi (en anglais): http://www.students.ncl.ac.uk/a.j.youd/tcf/tcf.html
(5) http://fr.wikipedia.org/wiki/Jupiter_(planète)
(6) http://www.notre-planete.info/actualites/actu_734.php
(7) http://www.astrosurf.com/lombry/Documents/cyclone3d-dwg.jpg
(8) http://fr.wikipedia.org/wiki/Andreï_Kolmogorov
(9) http://grus.berkeley.edu/~jrg/ay202/node140.html


10. Des cellules presque vivantes.

Pendant longtemps un certain nombre de phénomènes physiques ont intrigué les physiciens car ils semblaient contraire au second principe de la thermodynamique. Ces phénomènes, qualifiés de dissipatifs par Ilya Prigogine <a href= »http://www.philo5.com/Les vrais penseurs/03 – Ilya Prigogine.htm »>(1)</a>, apparaissent toujours dans des systèmes traversés par des flux importants d’énergie. C’est le cas par exemple de l’apparition spontanée de mouvements ordonnés dans un fluide soumis à des différences de température ou de pression. La diminution d’entropie observée est en fait compatible avec le second principe parce que ces systèmes ne sont pas isolés, mais le second principe ne les explique pas. Nous allons voir ici comment le principe de production maximale d’entropie les explique avant d’aborder son application au phénomène plus compliqué qu’est la vie.

En 1900, dans son mémoire de thèse intitulé “Les tourbillons cellulaires dans une nappe liquide”, Henri Bénard, alors étudiant à la Sorbonne, mettait en évidence l’apparition de cellules hexagonales régulières dans un film d’huile dont les deux surfaces sont soumises à une forte différence de température. Ces cellules rappellent étrangement des structures créées par des êtres vivants comme les nids d’abeilles ou les cellules animales ou végétales. À cette époque on pensait que seuls les êtres vivants pouvaient créer de telles structures.

Ces cellules, appelées depuis cellules de Bénard <a href= »http://fr.wikipedia.org/wiki/Cellules_de_Bénard « >(2)</a>, sont des cellules convectives à l’intérieur desquelles l’huile circule comme l’eau dans une casserole sur le feu. Chauffé par en dessous, le liquide se dilate. Il devient donc moins dense et monte à la surface où il se refroidit avant de redescendre autour de la cellule. Ce phénomène se produit naturellement à la surface du soleil. C’est la granulation solaire <a href= »http://www.cite-sciences.fr/francais/ala_cite/expo/tempo/planete/portail/planete/video.php?film=42&debit=1″>(3)</a> découverte par Janssen <a href= »http://www.cosmovisions.com/Janssen.htm »>(4)</a> en 1889. Moins réguliers que les cellules créées par Bénard, les granules solaires sont environ deux cent millions de fois plus grand, un rapport de taille plus grand que celui d’une bactérie à un éléphant. Ainsi un même processus physique peut produire des phénomènes analogues à des échelles extrêmement différentes.

benard
Cellules de Bénard

Il s’agit bien d’un système traversé par un flux important d’énergie, ici un flux de chaleur. Lorsque la différence de température est faible, la chaleur se propage par conduction: l’agitation des molécules se propage simplement par collisions d’un molécule à une autre sans déplacement du fluide. Lorsque la différence de température devient plus élevée, un nouveau moyen de transport de la chaleur apparaît: la convection. Il y a apparition d’un mouvement d’ensemble ordonné des molécules. La diminution d’entropie liée à cette apparition d’ordre est entièrement compensée par la dissipation plus élevée de chaleur à la surface du fluide.

Il y a en fait compétition entre deux moyens de transport de l’énergie: la conduction et la convection. Lorsque le flux de chaleur est important, la conduction n’est plus assez efficace pour transporter l’énergie. L’individualisme des molécules ne paie plus et, l’union faisant la force, la convection l’emporte. D’une façon générale, c’est toujours le moyen de transport le plus efficace qui l’emporte puisqu’il dérobe l’énergie aux autres. Le résultat est bien une évolution vers un maximum de dissipation d’énergie, conformément au principe de production maximale d’entropie.

Ce n’est pas par hasard si les cellules de Bénard font instinctivement penser à des phénomènes liés à la vie. Comme tous les phénomènes dissipatifs, elles en possèdent au moins trois caractéristiques:
<ul>
<li>
a) Le métabolisme: les cellules de Bénard ne subsistent que si elles sont constamment alimentées en énergie. Lorsque l’apport d’énergie cesse, elles disparaissent comme un individu meurt lorsqu’il n’est plus alimenté.</li><li>
b) Le comportement imprévisible: la position, le nombre ou la forme exacte des cellules de Bénard varient d’une expérience à une autre comme les cellules diffèrent entre deux individus d’une même espèce. </li><li>
c) La sélection naturelle: un changement de régime comme le passage de la conduction à la convection porte, en hydrodynamique, le nom de bifurcation. Nous verrons que c’est un mécanisme tout à fait analogue à celui de l’apparition de nouvelles espèces animales ou végétales. Les cellules de Bénard ne peuvent se développer que dans des conditions où elles l’emportent sur un phénomène dissipatif concurrent comme la conduction. C’est le mécanisme même de la sélection naturelle découvert par Darwin.</li></ul>

Lorsque le transport de chaleur se fait par conduction, les molécules du fluide situées près de la surface chaude ne reçoivent aucune information sur ce qui se passe près de la surface froide. Elles se contentent de transmettre par collision de l’énergie cinétique aux molécules voisines sans “savoir” ce qu’il s’y passe ailleurs. L’énergie se transmet ainsi de proche en proche jusqu’à la surface froide.

Lorsque la convection s’établit, les molécules qui se sont refroidies près de la surface froide redescendent vers la surface chaude. Elles y apportent donc une information sur la température de la surface froide. Une communication s’établit. Si un changement de température survient au niveau de la surface froide, l’information est aussitôt transmise au niveau de la surface chaude où les molécules réagissent en conséquence. C’est ainsi qu’une diminution de la différence de température entraîne une diminution de la différence de densité entre le fluide ascendant et descendant donc une diminution de la convection. Inversement, une augmentation de la différence de température se traduit par une augmentation de la convection, qui elle-même tend à réduire cette différence de température.

Ce phénomène de régulation thermique est caractéristique d’une boucle d’asservissement qui s’est formée ainsi naturellement. C’est elle qui maintient l’ordre et la régularité du mouvement. Elle est responsable de la diminution locale d’entropie. Le cycle de la matière dans une cellule convective est tout à fait analogue au cycle du fluide dans une machine thermique comme le cycle de Carnot. Une caractéristique souvent oubliée des machines de Carnot est qu’elles nécessitent toutes un asservissement. Dans la machine de Denis Papin, un opérateur devait intervenir pour régler l’admission de la vapeur dans le cylindre. C’est James Watt qui automatisa non seulement l’admission de la vapeur dans le cylindre mais aussi la vitesse de rotation grâce à son régulateur à boules. Les moteurs de voiture actuels doivent leur rendement à d’innombrables boucles d’asservissement.

Les boucles d’asservissement sont à la base de l’automatique et de la cybernétique <a href= »http://fr.wikipedia.org/wiki/Cybernétique »>(5)</a>, science qui conduit à l’intelligence artificielle. Elles caractérisent les mécanismes d’apprentissage des êtres vivants, mécanismes qui se traduisent par l’apparition de la conscience. On peut définir la conscience comme la faculté de s’inclure soi-même dans son modèle interne du monde extérieur, ce qui est une sorte de boucle d’asservissement. On admet généralement que le passage du non-conscient au conscient est progressif. Il y a donc plusieurs degrés de conscience.

La conscience apparaît comme une propriété globale qui semble émerger chez les êtres vivants évolués. Le degré de conscience pourrait donc être une mesure de la complexité d’un système cybernétique. Pour moi, l’unité de conscience est une boucle d’asservissement élémentaire, comme le bit est une unité d’information. Sans voir, comme Teilhard de Chardin <a href= »http://www.richmond.edu/~jpaulsen/teilhard/citation.html « >(6)</a>, de la conscience partout y compris dans une pierre, je dirais qu’une cellule de Bénard a déjà un degré de conscience élémentaire. Elle est consciente d’une différence de température et réagit en conséquence.

(1) Voir par exemple:
http://www.philo5.com/Les%20vrais%20penseurs/03%20-%20Ilya%20Prigogine.htm
(2) Voir: http://fr.wikipedia.org/wiki/Cellules_de_Bénard
(3) Voir l’animation:
http://www.cite-sciences.fr/francais/ala_cite/expo/tempo/planete/portail/planete/video.php?film=42&debit=1
(4) Voir par exemple: http://www.cosmovisions.com/Janssen.htm
(5) Voir: http://fr.wikipedia.org/wiki/Cybernétique
(6) Teilhard de Chardin, Le phénomène humain (Seuil, 1970).
Voir aussi : http://www.richmond.edu/~jpaulsen/teilhard/citation.html
(7) Illustration tirée du livre: Into the cool, E. D. Schneider and D. Sagan (Univ. of Chicago Press, 2005). D’après: Koschmieder, E. L., Bénard cells and Taylor vortices (Cambridge Univ. Press).


9 – Évolution vers l’ordre ou le désordre?

desordreÀ ce stade, le lecteur peut se demander pourquoi j’ai consacré trois articles à parler de thermodynamique sur un site politique. C’est que les lois de la thermodynamique ne s’appliquent pas seulement aux gaz mais à tous les phénomènes physiques y compris —comme nous allons le voir— à la vie, c’est-à-dire à nous-mêmes. Peut-être le lecteur a-t’il déjà remarqué que les deux concepts clés de la thermodynamique, <i>énergie</i> et <i>information</i> sont à la base même des révolutions que traverse l’humanité. Après la révolution industrielle liée à l’utilisation de <i>l’énergie</i>, l’humanité est en train de traverser une nouvelle révolution liée à l’utilisation de <i>l’information</i>.

Il fallait-il sans doute s’y attendre. La révolution néolithique n’a-t’elle pas été elle aussi suivie d’une révolution de l’information avec l’invention de l’écriture et de la monnaie? C’est en effet le besoin de comptabiliser les échanges commerciaux qui a donné naissance à ces inventions. La monnaie elle-même peut être considérée comme une mesure d’entropie ou plutôt de son opposé appelé <i>néguentropie</i> (ou entropie négative). Le rôle de la monnaie est de maintenir la <i>réversibilité</i> des échanges. Tout ce qui se dégrade, perd de la valeur monétaire (son entropie augmente). Inversement une chose précieuse est généralement une chose rare donc de faible entropie. C’est ainsi que le prix du pétrole augmente lorsque la probabilité d’en trouver diminue (1).

Nous assistons actuellement à une frénésie d’échanges d’information à laquelle vous participez vous-même en lisant ce blog. Chaque jour, une quantité croissante d’information (la monnaie en est un cas particulier) traverse le globe à la vitesse de la lumière. Suivant toujours la loi de Moore <a href= »http://fr.wikipedia.org/wiki/Loi_de_Moore »>(2)</a>, la capacité d’enregistrement des mémoires électroniques double tous les deux ans. Pourquoi cette frénésie? Elle est d’autant plus surprenante que tout accroissement de l’information correspond à une diminution d’entropie ce qui parait contraire au second principe de la thermodynamique. Nous allons voir que, loin d’être contraire au second principe, cette frénésie y est directement apparentée.

Il nous faut d’abord remarquer que le second principe n’interdit à l’entropie de diminuer que dans un système <i>isolé</i> c’est-à-dire sans apport d’énergie. Si vous mettez des glaçons et de l’eau chaude dans une bouteille Thermos, vous obtenez de l’eau froide. C’est une transformation irréversible durant laquelle l’entropie augmente. Si vous y mettez de l’eau froide vous ne verrez jamais apparaître des glaçons et de l’eau chaude. L’entropie ne pourra pas diminuer. Par contre, si vous mettez de l’eau froide dans votre réfrigérateur et que <i>vous le branchez sur une prise électrique</i>, vous verrez apparaître des glaçons à l’intérieur et un dégagement de chaleur à l’extérieur (en général par derrière). L’entropie a diminué provisoirement grâce à un apport <i>extérieur</i> d’énergie électrique. Ce n’est que provisoire car la chaleur produite derrière votre réfrigérateur va se dissiper dans l’atmosphère et vos glaçons vont fondre dans votre boisson achevant de dissiper toute l’énergie électrique que vous avez consommée. Au total, l’entropie aura définitivement augmenté.

Il nous reste maintenant à comprendre pourquoi nous fabriquons tant de réfrigérateurs et autres machines thermiques. Une réponse étonnante est que c’est la conséquence d’un principe encore plus général que le second principe, appelé principe de production maximale d’entropie (Maximum Entropy Production ou MEP) <a href= »http://www.entropylaw.com/entropyproduction.html »>(3)</a>. Ce principe n’a été établi qu’assez récemment, plus d’un siècle après Boltzmann, grâce à l’étude des systèmes thermodynamiques hors équilibre. Il stipule que l’univers évolue de façon à <i>maximiser son taux de production d’entropie </i>(4). Nous commençons seulement à en réaliser l’étendue des conséquences. Il explique en particulier la vie, donc nous-mêmes et par exemple le fait que, grâce à l’invention du réfrigérateur, nous consommons davantage d’électricité donc <i>nous dissipons davantage d’énergie ou nous produisons davantage d’entropie</i> que nous ne le faisions autrefois.

Après les travaux de Boltzmann, l’entropie a d’abord été considérée comme une mesure du désordre. Si on met en vrac des pions blancs et des pions noirs dans une même boîte on dit qu’ils sont en désordre. Si on les sépare dans deux boites différentes on dit qu’on met de l’ordre. Il en est de même pour les molécules. Si on mélange deux gaz différents, l’opération est irréversible et l’entropie augmente. Cette augmentation d’entropie correspond bien au passage d’un état ordonné vers un état désordonné. Notons que la notion d’ordre est liée à celle d’information. Vous pouvez soit ranger vos outils en mettant de l’ordre soit les laisser en désordre et <i>mémoriser l’information </i>sur leur emplacement. Si vous perdez cette information l’entropie augmentera et il vous faudra dépenser de l’énergie pour les retrouver.

<br /><br />
<table width= »450″ >
<tr align= »center »>
<td width= »225″>
<img src= »ordre.jpg » alt= »ordre »/>
</td>
<td width= »225″>
<img src= »desordre.jpg » alt= »ordre » />
</td>
</tr>
<tr align= »center »>
<td width= »225″>
Ordre = entropie faible
</td>
<td width= »225″>
Désordre = entropie élevée
</td>
</tr>
</table>
<br />
La thermodynamique classique de Clausius et de Boltzmann explique très bien le comportement des systèmes à l’équilibre (qui n’évoluent pas) ou très proches de l’équilibre (qui évoluent lentement de façon quasi-réversible). Dans ce cas on observe toujours une tendance vers le désordre. Lorsque deux pièces mécaniques frottent l’une contre l’autre, le mouvement mécanique ordonné des molécules se transforme en un mouvement désordonné qui se manifeste par une élévation de la température. Malheureusement, la thermodynamique classique n’explique pas que lorsqu’on crée un déséquilibre important dans un fluide, il peut y avoir apparition spontannée de mouvements <i>ordonnés</i>.

Les exemples classiques en sont le mouvement convectif de l’eau dans une casserole que l’on met sur le feu, l’apparition de tourbillons dans le sillage d’une voiture, la houle sur l’océan, les cyclones dans l’atmosphère, etc… La thermodynamique classique s’applique mal à ces systèmes car ce ne sont pas des systèmes isolés. Ce sont des systèmes dits ouverts qui sont traversés par des flux importants d’énergie. Le second principe ne s’applique alors qu’à l’entropie totale de l’univers considéré comme système isolé. Cette entropie est la somme de l’entropie du système et de celle du milieu extérieur. De tels systèmes peuvent exister parce que la diminution d’entropie interne au système liée à la création d’ordre est largement compensée par la forte augmentation d’entropie de son environnement. Ces phénomènes ne sont donc pas en contradiction avec le second principe, mais la thermodynamique classique ne les prévoit pas.

 
Dans nos prochains articles nous verrons comment le principe de production maximale d’entropie explique l’apparition spontannée d’ordre, y compris l’apparition de la vie, et pourquoi l’évolution nous pousse à consommer toujours davantage d’énergie.

(1) Sur la monnaie en tant que mesure d’entropie voir:
Valery Chalidze, Entropy Demystified, Potential Order, Life and Money (Universal Publishers, 2000).
Nicholas Georgescu-Roegen, The Entropy Law and the Economic Process (iUniverse, 1999).

(2) Voir: http://fr.wikipedia.org/wiki/Loi_de_Moore

(3) Voir: http://www.entropylaw.com/entropyproduction.html

(4) Le principe de production maximale d’entropie est en fait un théorème de mécanique statistique: Dewar, R.C., Maximum entropy production and the fluctuation theorem, J. Phys. A: Math. Gen. 38 (2005) L371-L381.


8 – Irréversibilité et perte d’information

Au cours du 19ème siècle, il apparaît de plus en plus clairement qu’un gaz est formé de particules très petites appelées molécules et que ces molécules sont constamment en mouvement. La chaleur est donc bien une forme d’énergie mécanique. C’est l’énergie cinétique des molécules en mouvement. Celles-ci forment un système mécanique complexe dont on ne peut étudier l’évolution que statistiquement. C’est ce que fait l’écossais James Clerk Maxwell suivi en cela par l’autrichien Ludwig Boltzmann. La température devient une grandeur statistique. C’est une mesure de l’énergie cinétique moyenne des molécules. Ces deux quantités sont proportionnelles. Le coefficient de proportionnalité s’appelle maintenant la constante de Boltzmann. C’est Boltzmann qui découvre la nature statistique de l’entropie.
<br /><br />
<table width= »450″ >
<tr align= »center »>
<td>
<img src= »Boltzmann.jpg » alt= »Ludwig Boltzmann » width= »230″ />
</td>
<td>
Ludwig Boltzmann.
</td>
</tr>
</table>
<br />

 

Reprenons l’exemple précédent du gaz qui se détend irréversiblement à travers un piston qui fuit. Ce gaz est formé de molécules qui obéissent aux lois de la mécanique établies par Newton. Or, ces lois sont réversibles. Boltzmann réalise que si, à un moment donné, on inverse la vitesse de ces molécules, alors chacune d’elles va effectuer le parcours en sens inverse et le gaz va revenir à son état initial, c’est-à-dire que son entropie va diminuer. Ce phénomène n’est donc pas impossible. Il est seulement hautement improbable qu’il se produise naturellement. C’est d’autant plus improbable que les molécules d’un gaz sont plus nombreuses. Dans un gaz qui ne contiendrait que 3 ou 4 molécules, il ne serait pas impossible de les retrouver occasionnellement, au hasard de leur mouvement, toutes du même coté du piston. Dans un gaz qui contient des milliers de milliards de milliards de molécule, c’est tout simplement statistiquement impossible. On sait maintenant manipuler des ensembles de quelques molécules. On observe effectivement des fluctuations aléatoires d’entropie. Celle-ci peut donc occasionnellement diminuer mais en valeur moyenne elle ne diminue pas<a href= » http://www.aip.org/pt/vol-58/iss-7/p43.html »>(1)</a>.

Il faut donc distinguer l’état microscopique d’un gaz (défini par la position et la vitesse de chacune de ces molécules) de son état macroscopique (défini par des grandeurs statistiques comme la pression et la température). Lorsqu’on supprime des contraintes (en créant par exemple une fuite dans le piston), l’état microscopique d’un système va évoluer réversiblement en accord avec les lois de Newton, mais son état macroscopique va évoluer irréversiblement d’un état peu probable vers un état statistiquement plus probable. Dans un système formé d’un très grand nombre de molécules, c’est toujours l’état le plus probable qui est observé (même nombre de molécules de chaque coté du piston). L’incertitude devient une certitude. L’état statistiquement le plus probable étant celui d’entropie maximale, l’entropie apparaît comme une mesure de cette probabilité.

Ainsi l’irréversibilité provient de notre impossibilité de connaître et de contrôler le mouvement de chacune des molécules. Nous verrons que l’entropie est aussi une mesure ce manque d’information, c’est-à-dire de notre ignorance. On peut imaginer que si l’on connaissait avec suffisamment de précision la position et la vitesse de chacune des molécules de l’air qui nous entoure, alors on pourrait prédire le temps qu’il va faire (et reconstituer le temps qu’il a fait) pendant des années. Mais nous ne connaissons que la pression, la température, et la vitesse du vent en certains points du globe. Cela limite nos prévisions à quelques jours. La moindre erreur s’amplifie et rend toute prévision illusoire. C’est l’image symbolique du battement d’aile d’un papillon qui peut être à l’origine d’un cyclone. Vu l’immensité du nombre de molécules l’évolution qu’on observe, est toujours l’évolution macroscopiquement la plus probable, c’est-à-dire celle qui maximise l’entropie. C’est aussi celle qui minimise notre possibilité de prévoir l’avenir. Quand l’entropie augmente, le passé s’estompe et l’avenir devient imprévisible.

Le déterminisme du XIXème siècle était fondé sur l’idée qu’on pouvait théoriquement connaître avec une précision infinie la position et la vitesse de toutes les particules de l’univers et donc prévoir entièrement son évolution future. La mécanique quantique a définitivement éliminé cette possibilité en établissant la relation d’incertitude de Heisenberg qui dit que toute amélioration de la précision sur la position d’une molécule se traduit par une dégradation de la précision sur sa vitesse et vice-versa. L’information que l’on peut avoir sera donc toujours limitée par la mécanique quantique. Notre degré d’ignorance est maintenant parfaitement établi. On peut mesurer l’entropie de façon absolue. C’est la fin du déterminisme et le rétablissement du libre arbitre. Contrairement à ce que pensait Einstein, Dieu joue effectivement aux dés: le hasard est inscrit dans les lois de la nature.

L’américain Claude Shannon fut le premier à relier la notion d’entropie à celle d’information. Il le fit pendant la dernière guerre mondiale alors qu’il travaillait aux laboratoires Bell sur les moyens de communication. Il cherchait alors à établir une théorie mathématique de l’information, notion qui paraissait jusque là subjective. Il remarqua que l’information dépend de notre connaissance à priori. Un événement certain n’apporte aucune information. L’information dépend donc de la probabilité d’un événement. Plus celui-ci est improbable plus l’information qu’il apporte est élevée.

Le jeu du portrait illustre parfaitement la théorie de Shannon. Ce jeu consiste à deviner le nom d’une personne ou d’un objet à partir de réponses par oui ou par non. Celui qui pose le plus petit nombre de questions à gagné. La stratégie consiste à maximiser l’information contenue dans la réponse. Une réponse prévisible n’apportant pas d’information, il faut donc poser des questions telles que la réponse soit la plus imprévisible possible. Pour cela, il faut que les deux réponses possibles (oui ou non) aient la même probabilité 1/2. On obtient alors le maximum d’information que peut apporter une variable binaire, c’est-à-dire une variable qui ne peut prendre que deux valeurs (oui ou non, 0 ou 1).

La quantité d’information apportée par une telle variable binaire est prise par Shannon comme unité de mesure de l’information. Il lui donne le nom de bit, contraction de l’anglais “binary unit”. Son expression mathématique de la quantité d’information est (au signe près) en tout point semblable à l’expression de Boltzmann pour l’entropie. L’entropie est donc effectivement une information au sens de Shannon. C’est l’information que l’on perd dans une transformation irréversible (quand l’information diminue l’entropie augmente). La théorie de Shannon est à la base de toutes les nouvelles technologies de l’information et de la communication (NTIC), notamment les méthodes de compression de l’information.

Ainsi le monde est à la fois prévisible et imprévisible. Il est prévisible en ce sens qu’il obéit à des lois strictes, immuables et parfaitement identifiables. Les mêmes causes produisent toujours le même effet. Mais il est en même temps imprévisible parce que notre connaissance du monde est fondamentalement limitée et que la moindre incertitude sur cette connaissance rend caduque toute prévision à long terme. L’avenir réserve toujours des surprises.

(1) voir (en anglais): http://www.aip.org/pt/vol-58/iss-7/p43.html


7 – L’évolution irréversible de l’énergie

Pour un astrophysicien, observer l’univers et essayer d’en élucider les mystères, c’est un peu être dans la situation du spectateur qui arrive au milieu d’un film et qui essaye d’en comprendre le scénario. Que s’est-il passé avant? Que va-t’il se passer ensuite? Sans vraiment s’en rendre compte, Carnot avait mis le doigt sur deux clés essentielles à la compréhension du monde: la conservation de l’énergie et l’irréversibilité de son évolution. Ces concepts abstraits, difficiles à saisir, s’avèrent de nos jours essentiels à la compréhension non seulement du monde physique dans lequel nous vivons, mais aussi de la vie elle-même, de notre société et même de notre économie. Cela vaut donc la peine de nous y attarder.

La première de ces clés est la <i>conservation de l’énergie</i>. Dans un univers où les étoiles naissent et meurent, où les galaxies se forment, tourbillonnent et disparaissent dans des trous noirs, la seule chose immuable c’est l’énergie. Elle est le fil conducteur qui permet de suivre et de comprendre tous ces changements d’apparence.

À l’époque de Carnot, on savait déjà que l’énergie dite <i>potentielle</i> de gravitation, celle de l’eau en attente dans les barrages, peut se transformer en énergie dite <i>cinétique</i>, celle du mouvement de l’eau qui fait tourner les turbines hydroélectriques. Cela fait partie des lois de la mécanique découvertes par Newton. Elles s’appliquent particulièrement bien au vide interstellaire de la mécanique céleste.

En l’absence de frottement mécanique, la terre peut tourner indéfiniment autour du soleil sans perte d’énergie. Une comète qui se rapproche du soleil voit sa vitesse, donc son énergie cinétique, augmenter alors qu’elle perd de l’énergie potentielle. Après avoir contourné le soleil, l’énergie cinétique qu’elle a ainsi acquise se transforme de nouveau intégralement en énergie potentielle lorsqu’elle repart au loin tout en perdant de la vitesse.

Sur terre, ces lois semblaient mises en défaut. Le balancier d’une vieille horloge même bien huilée finit toujours par s’arrêter sans apport extérieur d’énergie. Il faut remonter les poids ou le ressort pour entretenir le mouvement. On savait que cette perte d’énergie était due aux frottements mécanique et que ceux-ci produisent de la chaleur. Carnot lui-même avait compris —et Joule l’a confirmé ensuite— que la chaleur produite est directement proportionnelle à l’énergie mécanique perdue. L’énergie avait donc simplement changé de forme.

La seconde clé permettant de comprendre l’évolution du monde est <i>l’irréversibilité</i>. Elle indique le sens de cette évolution. En l’absence de frottements mécaniques ou autres phénomènes dits dissipatifs c’est-à-dire producteurs de chaleur, les lois de la mécanique établies par Newton sont parfaitement réversibles. Selon ces lois, si à un moment donné on inverse la vitesse de tous les points matériels d’un système en mouvement, alors le système repasse exactement par tous ses états antérieurs comme dans un film que l’on déroule à l’envers. Cela veut dire qu’on peut prévoir entièrement l’évolution d’un système à partir de la position et de la vitesse de chacune de ses parties observées à un moment donné. Arrivé au milieu du film on peut reconstituer tout ce qui s’est passé avant et prévoir aussi tout ce qui va se passer après. C’est le déterminisme universel du XIXème siècle. C’est aussi la négation du libre arbitre.

Avant Carnot les frottements mécaniques étaient considérés comme des phénomènes parasites impurs camouflant les lois pures sous-jacentes. Carnot remarque que la production de chaleur par frottements mécaniques est un phénomène irréversible. Le balancier d’une horloge s’arrête lorsque toute l’énergie mécanique a été transformée en chaleur. La transformation inverse est impossible: on ne peut pas remettre en marche le balancier en chauffant l’horloge. Carnot comprend l’importance de cette observation. La plupart des phénomènes naturels sont irréversibles: les incendies, tempêtes, ras de marées, tremblements de terre, etc… ont des conséquences irréversibles. Nous mêmes, nous naissons, nous vieillissons et nous mourons de façon irréversible. C’est donc un phénomène fondamental mais il semble contredire la mécanique de Newton.

À la suite de Carnot, l’allemand Rudolf Clausius montre que l’on peut mesurer quantitativement la dégradation de l’énergie dans une transformation irréversible. Il définit une quantité qu’il baptise <i>entropie</i> mais dont la nature reste mystérieuse. Si on suit l’évolution d’une certaine quantité d’énergie, alors l’entropie associée à cette énergie ne peut qu’augmenter ou rester constante. Si l’évolution est réversible, l’entropie reste constante. Si l’évolution est irréversible l’entropie augmente. Il est à noter que, telle que Clausius l’a définie, l’entropie ne peut être mesurée de façon absolue. Tout ce qu’on peut mesurer c’est sa variation.

Un exemple très simple est la détente d’un gaz comprimé par un piston dans un cylindre. Lorsque le gaz se détend, il pousse le piston produisant ainsi du travail mécanique. Si le cylindre est isolé thermiquement, le gaz se refroidit. On a effectivement converti de la chaleur en travail mécanique. Cette détente est réversible car on peut rendre au gaz l’énergie ainsi fournie en le comprimant de nouveau, ce qui l’échauffe (1). Dans cette transformation réversible, l’entropie reste constante. Par contre s’il y a une fuite de gaz à travers le piston, le gaz va se détendre irréversiblement sans fournir de travail mécanique. Sa température reste la même ainsi que son contenu en énergie, mais cette dernière s’est dégradée. Le gaz ne peut plus fournir d’énergie mécanique. Son entropie a augmenté.

cylindre et piston

La détente d’un gaz peut être réversible (piston)
ou irréversible (fuite).

Dans notre prochain article nous verrons comment Boltzmann a réussi à concilier cette irréversibilité thermodynamique avec la réversibilité des lois de la mécanique de Newton.

(1) On constate cet échauffement chaque fois qu’on gonfle un pneu