L'univers millefeuille: Le cosmos, la biosphère et la société s’auto-organisent 9782759827503

Partout, la nature fabrique le complexe à partir du simple : • la condensation de la matière classique à partir des part

173 14 2MB

French Pages 342 [340] Year 2022

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Sommaire
Préface
Prologue
Partie 1. Affiner notre vision du monde
1. Un périple dans les échelles
2. Pourquoi la physique peine-t-elle à expliquer les phénomènes complexes ?
3. Les deux moteurs de l’Univers : l’entropie et l’expansion
Partie 2. La nature fabrique le complexe à partir du simple
4. Comment émerge la complexité ?
5. À la frontière entre l’ordre et le chaos
6. Les transitions de phase et les brisures de symétrie
7. L’échappement dans le possible adjacent
8. Le monde s’organise comme une combinatoire
9. La martingale de la sélection darwinienne
Partie 3. Nouvelles interprétations et indications sur le futur
10. Un éclairage sur la question quantique
11. La transition de phase d’Internet
12. Qu’attendre du futur ?
Remerciements
Bibliographie
Lexique
Index
Recommend Papers

L'univers millefeuille: Le cosmos, la biosphère et la société s’auto-organisent
 9782759827503

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

L’Univers millefeuille

L’Univers millefeuille Le cosmos, la biosphère et la société s’auto-organisent

MICHEL GALIANA-MINGOT

17, avenue du Hoggar – P.A. de Courtabœuf BP 112, 91944 Les Ulis Cedex A

SPOT Sciences Collection destinée à un large public qui invite le lecteur à découvrir à travers des essais toute une palette des sciences : histoire, origines, découvertes, théories, jeux… Dans la collection « Les “deux nouvelles sciences” de Galilée » – Une lecture moderne, A. De Angelis, ISBN : 978-2-7598-2667-4 (2022) « La vie ailleurs : espérances et déceptions », J. Lequeux et T. Encrenaz, ISBN : 978-2-7598-2641-4 (2022) « Grandes controverses en astrophysique », S. Collin-Zahn, ISBN : 978-2-7598-2613-1 (2021) « Sexualité, génétique et évolution des bactéries », J.P. Gratia, ISBN : 978-2-7598-2538-7 (2021) « La pensée en physique – Diversité et unité », J.P. Pérez, ISBN : 978-2-7598-2481-6 (2021) « L’histoire du cerveau – Voyage à travers le temps et les espèces », Y. Gahéry, ISBN : 978-2-7598-2479-3 (2021) « Les clés secrètes de l’Univers – Émergence de l’Univers, de la vie et de l’Homme », M. Galiana-Mingot, ISBN : 978-2-7598-2534-9 (2021) Retrouvez l’auteur sur son site https://mgm-ec.fr Composition et mise en pages : Flexedo Imprimé en France ISBN (papier) : 978-2-7598-2749-7 ISBN (ebook) : 978-2-7598-2750-3 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2022

SOMMAIRE

Préface......................................................................................... 9 Prologue....................................................................................... 13

Partie 1 Affiner notre vision du monde 1.  Un périple dans les échelles..................................................... 19 L’Univers fractal........................................................................ 19 Pour comprendre la notion d’échelle, affranchissons-nous de l’anthropocentrisme.............................................................. 23 Attention, les échelles changent................................................. 26 Les structures complexes naissent des interactions entre différentes échelles........................................................... 28 2.  Pourquoi la physique peine-t-elle à expliquer les phénomènes complexes ?........................................................ 31 Le mythe pythagoricien............................................................. 32 Le mythe newtonien.................................................................. 35 Un biais de sélection dans la connaissance.................................. 38 Émergence et réductionnisme..................................................... 41 Aucune théorie n’est valide à toutes les échelles........................... 46 L’incertitude s’est invitée en force dans les sciences...................... 50 Une vision moderne des lois de la nature..................................... 58 Remettre le hasard à la place qu’il mérite..................................... 60 3.  Les deux moteurs de l’Univers : l’entropie et l’expansion........... 65 Plus que l’énergie, c’est l’entropie qui anime l’Univers.................... 66 Le ruissellement de l’entropie anime toutes les structures.............. 72 Une vision élargie de l’entropie : l’information.............................. 76 D’où vient la faible entropie initiale du Big Bang ?........................ 79 Où s’échappe l’entropie du cosmos ?............................................ 82 Le « quatrième principe de la thermodynamique » : dans le marc de café................................................................. 84

5

Sommaire

Partie 2 La nature fabrique le complexe à partir du simple 4.  Comment émerge la complexité ?.............................................. 93 L’émergence à partir de rien (ou presque).................................... 93 L’énergie ne travaille que sous contrainte.................................... 97 Le hasard est contraint par les lois de la nature............................ 99 Le hasard est aussi sujet aux contraintes qu’il crée lui-même.......... 103 La causalité descendante........................................................... 108 Le millefeuille hiérarchisé.......................................................... 115 Chaque niveau du millefeuille forge ses propres lois...................... 120 5.  À la frontière entre l’ordre et le chaos...................................... 123 La complexité se développe à la marge........................................ 124 Les systèmes auto-organisés maintenus loin de l’équilibre.............. 128 Les attracteurs peuvent extraire de l’ordre du chaos...................... 132 Des exemples dans toutes les strates du millefeuille...................... 135 Les états critiques auto-organisés............................................... 142 Les systèmes complexes adaptatifs.............................................. 148 6.  Les transitions de phase et les brisures de symétrie.................. 157 Le concept est né en physique.................................................... 157 Notre histoire est ponctuée de transitions de phase...................... 161 Les transitions de phase provoquent des brisures de symétrie......... 167 7.  L’échappement dans le possible adjacent.................................. 173 Un principe de portée universelle................................................ 174 Deux propriétés importantes....................................................... 176 Deux exemples dans le monde minéral......................................... 177 L’échappement dans le possible adjacent est au cœur de l’évolution naturelle.............................................................. 179 Quelques exemples dans l’histoire du vivant................................. 182 Des exemples dans la société...................................................... 184 Le possible adjacent et la physique............................................. 187 8.  Le monde s’organise comme une combinatoire.......................... 191 La complexité du monde vient de la simplicité de ses ingrédients..................................................................... 191 Premier Lego : les particules...................................................... 197 Deuxième Lego : les atomes....................................................... 199 Troisième Lego : les molécules.................................................... 200 Quatrième Lego : les macromolécules........................................... 203 Le quatrième Lego se sophistique avec la catalyse et fait apparaître la vie............................................................. 206 La catalyse est une notion universelle......................................... 209 L’auto-assemblage des êtres vivants............................................ 213 De nouveaux Lego apparaissent dans les plus grandes échelles........ 219 Et Dieu dans tout cela ?............................................................. 222 9.  La martingale de la sélection darwinienne................................. 225 La martingale est-elle systématiquement gagnante ?...................... 226 6

L’Univers millefeuille

Sommaire

La sélection naturelle crée le plus improbable pourvu qu’elle en ait le temps............................................................... 229 L’évolution darwinienne suit-elle une finalité ?............................. 232 La sélection naturelle existe-t-elle en dehors du domaine du vivant ?............................................................. 234 La sélection naturelle s’est-elle arrêtée chez l’Homme ?.................. 240

Partie 3 Nouvelles interprétations et indications sur le futur 10.  Un éclairage sur la question quantique................................... 247 La mécanique quantique dévoile une couche fondamentale du millefeuille.......................................................................... 247 La question quantique............................................................... 252 Le problème de la mesure, un caillou dans la chaussure................. 253 La décohérence permet de mieux comprendre les contradictions...... 256 Le chat de Schrödinger peut craindre la mort, mais non la superposition quantique........................................... 257 La renormalisation, une procédure licite...................................... 261 L’émergence de l’espace-temps et des lois.................................... 263 11.  La transition de phase d’Internet............................................ 267 Une origine très simple, un développement très complexe.............. 267 La confrontation des échelles..................................................... 271 Causalités montante et descendante............................................ 273 Des possibles adjacents s’ouvrent à l’infini................................... 274 Internet présente les caractéristiques d’une transition de phase...... 277 Internet s’auto-organise entre le chaos et l’ordre.......................... 279 Une entropie coûteuse............................................................... 286 Internet, un gigantesque catalyseur............................................. 290 12.  Qu’attendre du futur ?............................................................ 293 Le futur de l’Univers, du Système solaire et de la Terre.................. 294 Le futur de la science................................................................ 297 La science et l’intelligence artificielle.......................................... 303 Le futur de la société................................................................ 307 Remerciements............................................................................... 315 Bibliographie................................................................................. 317 Lexique........................................................................................ 319 Index .......................................................................................... 337

7

PRÉFACE

C’est par un heureux hasard que j’ai connu Michel GalianaMingot. Lors d’une de mes discussions informelles par Internet avec un groupe d’amis, sur les sciences, les religions, les sociétés et bien d’autres sujets, l’un d’eux parla de sa découverte du livre « Les clés secrètes de l’Univers »1, récemment paru. Au début du préambule de ce premier livre, l’auteur se présentait modestement en écrivant : « Vous vous intéressez aux mystères de l’Univers, de la vie et de l’Homme. Moi aussi. Vous n’êtes pas un scientifique professionnel. Moi non plus. » Je peux en dire exactement autant. La différence entre nous est que son intérêt a englobé l’immense Univers et sa déclinaison ayant conduit à l’existence d’être pensants capables de porter sur lui un regard intelligent et intrigué. Alors que j’ai concentré le mien, dès mon enfance, sur « l’Homme préhistorique » que j’ai découvert en Dordogne, tout près de chez moi, au musée des Eyzies, « Capitale mondiale de la Préhistoire ». En prenant de l’âge, j’ai étendu ma curiosité à l’ensemble de l’histoire et des mécanismes de l’Évolution de la vie sur notre Terre depuis près de 4 milliards d’années. J’ai trouvé 1.  Les clés secrètes de l’Univers. Michel Galiana-Mingot. EDP Sciences. 2021. 9

Préface

amusant ce parallèle entre nous. Mais, surtout, j’ai été intrigué par la ressemblance du sous-titre de son livre, « Émergence de ­l’Univers, de la vie et de l’Homme », avec le titre du mien : « L’Univers, la vie et la contingence »2. J’ai évidemment acheté son livre et, après l’avoir lu, j’ai pris contact avec lui et nous avons commencé à échanger sur nos visions de l’Univers et de notre Terre. Il m’a dit avoir commencé l’écriture d’un nouvel ouvrage, « L’Univers millefeuille », et il m’a proposé de me joindre aux lecteurs attentifs et critiques qui s’étaient offerts pour donner leur opinion au fur et à mesure de l’avancement des chapitres. J’ai accepté avec d’autant plus d’enthousiasme que « Les clés secrètes de l’Univers » avaient ouvert chez moi (ou au moins entr’ouvert, soyons modestes) les portes de quelques mystères que j’avais en vain essayé de déchiffrer au cours de mes études, dont la mécanique quantique et la relativité générale, grâce à son écriture claire, simple et fluide. Autrement dit, tout simplement, de l’excellente vulgarisation. Certes, l’Univers n’est pas constitué d’autant de feuilles, pas plus que ne l’est le gâteau du même nom. Mais Michel Galiana-Mingot nous présente, dans ce nouvel ouvrage, un Univers dérangeant dans lequel il serait vain de rechercher l’harmonisation qui serait bien agréable à notre esprit humain, si friand de choses simples et bien rangées. Il montre ainsi qu’il serait irréaliste d’essayer de regrouper dans une théorie universelle, comme cela a été rêvé, cette entité complexe qui, en plus et contrairement à ce qu’on croit généralement, ne se limite pas au « Big Bang » d’une mystérieuse bulle d’énergie et à son expansion jusqu’à la formation des galaxies, des étoiles et de bien d’autres entités dont certaines encore bien mystérieuses, comme les « trous noirs » et l’énergie de la même couleur. Il n’est évidemment pas dans mon propos de faire un résumé du livre, tâche d’ailleurs impensable tant elle ferait manquer la richesse exposée. Je me contente de reproduire ici quelques phrases du prologue qui ne peuvent qu’exciter la curiosité du futur lecteur. 2.  L’Univers, la vie et la contingence. Jean Fourtaux. Éditions ISTE. 2019. 10

L’Univers millefeuille

Préface

« En observant le monde, nous découvrons des strates étagées dans les échelles, des plus grandes aux plus petites (…) Pourtant, entre des phénomènes aussi éloignés qu’une étoile, un orage, une bactérie ou encore le développement d’Internet, il existe beaucoup de similarités. Ces riches constructions du cosmos et de la vie suivent des règles communes (…) Nous allons les découvrir, et pour cela, nous naviguerons en permanence entre les échelles en passant d’une strate du millefeuille à une autre (…) Nous remettrons souvent en question la science traditionnelle ou plus exactement les mythes qu’elle a pu sécréter (…) Chaque fois que nous pénétrerons une nouvelle couche du millefeuille, elle nous révélera un monde en soi, doté de ses propres lois physiques. Nous verrons aussi comment la complexité s’organise (…) » Quand on ferme le livre après avoir lu la dernière page, on ne peut qu’avoir envie de se perdre soi-même dans cet Univers, unique ou multiple, dont on sait, après cette lecture, à la fois presque tout et à peu près rien. Un seul exemple. Comment se fait-il que le Monde dans lequel nous vivons dépende de constantes physiques d’une extrême précision, une infime variation de l’une d’elles rendant son existence impossible ? Évidemment, on trouvera dans le livre ce qui a pu être avancé comme possibles explications, mais on ne pourra que rester sur sa faim, car tout reste hypothèse. Le cerveau de l’être humain est ainsi fait : il a soif de certitudes. Lorsqu’un « chasseur-cueilleur » entendait un bruit dans un buisson proche, il était vital de reconnaître s’il s’agissait d’un félin à dents de sabre ou d’une gentille antilope… Alors, nous, pauvres profanes, pourquoi, sur la base de ce que nous aurons appris grâce à Michel Galiana-Mingot, ne pas oser nous lancer à notre tour dans la recherche de nos propres hypothèses ? Je l’ai fait, c’est amusant, vous verrez que vous en aurez également envie. Bonne lecture. Jean Fourtaux, paléontologue

11

PROLOGUE

« Un monde qui serait suffisamment simple pour être entièrement connu, serait trop simple pour inclure des observateurs qui puissent le connaître. » John Barrow

Dans une courte et remarquable vidéo3 tournée au début des années 1980, le grand théoricien Richard Feynman, aussi inspiré que charismatique, s’interrogeait sur la structure de l’Univers. À cette époque, la théorie des cordes ravivait l’espoir d’unifier la mécanique quantique et la relativité générale. Le prix Nobel se demandait si une telle théorie du tout existerait un jour. Il semblait en douter : « S’il s’avère qu’une loi simple et ultime explique tout, ainsi soit-il. Ce sera bien agréable de la découvrir. S’il apparaît qu’il (le monde) est fait comme un oignon avec des millions de couches et que nous nous épuisons à les observer toutes l’une après l’autre, alors il en sera ainsi. Quoi qu’il en soit, ce sera sa nature et il se révélera tel qu’il est. » 3.  https://www.youtube.com/watch?v=QkhBcLk_8f0 (3 minutes). 13

Prologue

Aujourd’hui, une quarantaine d’années plus tard, tout nous indique que la seconde hypothèse est la bonne. L’Univers est constitué de strates successives entre les dimensions les plus petites et les plus grandes. Des lois différentes émergent dans chacune d’elles. Dans ses propos, outre ses doutes sur la théorie du tout, on sent une certaine déception chez cet homme ayant travaillé toute sa vie sur les lois les plus fondamentales de la physique. Pourtant, si l’on y réfléchit, un monde ainsi stratifié se révèle bien plus intéressant que s’il obéissait uniquement à quelques lois d’airain. Au lieu de parler d’oignon (on pleure en le pelant !), j’ai préféré le terme de millefeuille, car le déguster est un plaisir. Qu’entendre par ce mot ? En observant le monde, nous découvrons des strates étagées dans les échelles : vers le haut, celles des galaxies, des étoiles et des planètes ; au milieu, celle des humains ; vers le bas, celles des cellules vivantes, des molécules et des particules. Les multiples évènements apparaissant à chacun de ces niveaux présentent une similitude : pour la plupart, ils ne peuvent se décrire à partir des seules lois de la physique dite fondamentale. Pourtant, il existe beaucoup de similarités entre des phénomènes aussi différents en apparence, qu’une étoile, un orage, une bactérie ou encore Internet. Ces riches constructions du cosmos et de la vie suivent des règles communes. On les met en lumière depuis les années 1980 et on les rassemble sous le vocable de sciences de la complexité. Nous allons les découvrir et, pour cela, nous naviguerons en sautant en permanence d’une couche du millefeuille à une autre. Vous êtes habitué aux voyages dans l’espace ou bien dans le temps. Ici, vous embarquez pour un troisième type de périple : une grande randonnée à travers les échelles. Cette démarche sera tout à la fois critique et constructive. Nous remettrons souvent en question la science traditionnelle ou plus exactement les mythes qu’elle a pu engendrer. Celui de la théorie du tout en est un exemple relativement récent, datant des années 1980. Certains l’ont qualifié d’« idée religieuse monothéiste ». Chaque fois que nous aborderons une nouvelle strate du millefeuille, elle 14

L’Univers millefeuille

Prologue

nous révélera un monde en soi, doté de ses propres lois physiques. Nous verrons aussi comment la complexité s’organise, comment la graine finit par déployer une magnifique fleur. Du simple, découle le complexe : tout ce qui nous entoure l’atteste, l’Homme en premier. Nous parlerons d’émergence et d’auto-organisation, concepts offrant une vision nouvelle du cosmos, de la vie, de l’humanité et de la société. Ils seront amplement illustrés. Cette nouvelle vision de l’Univers apparaît déjà dans mon précédent livre4, une vaste chronologie allant du Big Bang à l’Homme : la formation de l’espace-temps, des particules, des étoiles et des galaxies, l’apparition de la vie, d’Homo et, finalement, de la société. Pour ceux qui disposent de l’ouvrage et souhaitent s’y référer, il m’arrivera de le citer par une note indiquant : « cf. LES CLÉS. Page… ». Pour terminer, voici quelques indications sur la lecture. D’abord, vous pourrez être un peu dérouté en passant sans cesse d’une strate à l’autre : de l’étoile à la bactérie, des macromolécules à la société humaine, etc. Rien d’étonnant, car nous nous intéresserons aux modes opératoires mis en œuvre par la nature de façon universelle. Ainsi, nous découvrirons un nouveau paradigme, une nouvelle physique plurielle, souvent empirique, mais plus exhaustive et plus holistique (privilégiant le tout aux parties). Dans cet esprit, nous ressusciterons la philosophie naturelle en nous fiant davantage à l’observation qu’aux mathématiques quand il le faut : une vue plus aristotélicienne que platonicienne en quelque sorte. Nous aborderons de nombreux domaines des sciences parfois assez pointus. Comme le lecteur n’est pas forcément familiarisé avec la mécanique quantique, la chimie, la génétique ou l’informatique, nous rappellerons à chaque fois de quoi il s’agit en termes simples. Dans de rares cas où des connaissances plus avancées sont nécessaires, nous encadrerons les paragraphes concernés par le symbole

4.  Les clés secrètes de l’Univers. EDP Sciences. 2021. 15

Prologue

évoquant une piste noire. Vous aurez tout loisir de les lire en diagonale ou de les sauter, puis de poursuivre sans problème la lecture de l’ouvrage. Maintenant, il est temps d’entrer dans la machine à traverser les échelles. Attachons nos ceintures. En complément des microscopes et des télescopes, munissons-nous du « complexoscope » qui nous permettra d’observer le raffinement et la beauté de la nature. Ainsi, nous reprendrons un voyage entamé par le physicien américain Heinz R. Pagels dans les années 1970-1980 : l’ascension du Mont Complexité. Pour lui, il fallait affronter la complexité plutôt que chercher à tout prix à la réduire à des règles simples. Malheureusement, son périple s’est interrompu de façon tragique en 1988 par un accident mortel en escaladant un autre mont… le Pyramid Peak, une montagne de plus de 4 000 mètres dans le Colorado. Nous reprendrons ses idées : « La science a exploré le microcosme et le macrocosme… La frontière inexplorée est la complexité. » Je vous promets un voyage souvent surprenant qui vous donnera parfois le vertige, toutefois sans aucun danger.

16

L’Univers millefeuille

Partie 1

Affiner notre vision du monde

17

1 Un périple dans les échelles

L’UNIVERS FRACTAL Avant d’observer les choses à l’aide de notre « complexoscope », nous allons rappeler ce que nous montrent nos microscopes et nos télescopes. Grâce à eux, nous observons toutes les dimensions, des plus petites aux plus grandes, dans une fenêtre très large. Pour en évaluer l’étendue, il nous faut fixer une unité de mesure. Nous partirons du mètre, unité liée à l’Homme, tout en remarquant que nous pourrions aussi bien prendre la taille du proton ou celle du Soleil. À partir de là, nous jalonnerons les échelles inférieures en les divisant par 10 de multiples fois : 1/10, 1/100, 1/1 000, etc. De même, les échelles supérieures se mesureront en les multipliant par 10, soit : 10, 100, 1 000, etc. Nous utiliserons ainsi une graduation logarithmique : …, 10– 3, 10– 2, 10– 1, 1, 10, 102, 103… Chaque échelon (une multiplication ou une division par 10) s’appelle un ordre de grandeur. Dans notre quotidien, si l’on excepte notre vision très approximative des astres à l’œil nu, les dimensions qui nous sont familières vont 19

Partie 1. Affiner notre vision du monde

de petits détails d’un dixième de millimètre jusqu’à des distances de l’ordre de la dizaine de kilomètres. Dans l’échelle ci-dessus, cela fait un intervalle allant de 10– 4 à 104, c’est-à-dire de 8 ordres de grandeur. Depuis les premiers instruments de l’époque de Galilée, les scientifiques ont accédé à des échelles de plus en plus étendues. Aujourd’hui, elles couvrent 45 ordres de grandeur. En effet, les plus petites dimensions discernées par le LHC, le plus puissant des accélérateurs de particules, descendent en-deçà de la taille du proton, à 10 – 19 sur notre échelle. Quant à l’image la plus grande et la plus lointaine observée, il s’agit de la photographie du rayonnement fossile émis 380 000 ans après le Big Bang. Elle représente une voûte céleste nous entourant dans toutes les directions à une distance de 13,8 milliards d’annéeslumière. Nous la situons à 1026. Il faut dire que cette étendue est tout à fait contingente, car elle dépend de différents facteurs et elle changera dans le temps. Vers le bas, il sera possible d’améliorer la finesse de nos perceptions avec des instruments de meilleure résolution. Vers le haut, c’est inenvisageable, car nous atteignons l’horizon cosmologique, une distance au-delà de laquelle toute observation nous est interdite en raison de la vitesse finie de la lumière. Derrière l’horizon, le cosmos se poursuit, peut-être à l’infini. Ainsi, les limites du champ de vision humain ne constituent en aucun cas des bords de l’Univers. De toute évidence, la nature ne fixe pas d’échelle privilégiée, pas plus que de taille minimum ou maximum. Un point repris en détail plus loin. Dans cette gigantesque plage de dimensions, que voyons-nous ? Une vidéo5 de 1968 montrait de manière fascinante l’extrême richesse des structures présentes à toutes les échelles. La scène partait de l’image d’un couple piqueniquant au bord du lac Michigan à Chicago. Un zoom arrière nous projetait dans l’espace et finissait dans les amas galactiques. Puis un zoom avant nous ramenait au couple. La caméra 5. https://www.youtube.com/watch?v=bLoMMjFZAJY&feature=emb_logo. Une vidéo équivalente a été refaite plus récemment : https://www.youtube.com/ watch?v=BdWuU-epZ6c. 20

L’Univers millefeuille

Un périple dans les échelles

se fixait sur la main de l’homme et poursuivait le zoom en direction de l’infiniment petit, jusqu’à parvenir aux particules élémentaires. La figure 1 offre un résumé des principales structures rencontrées tout au long de ce voyage aux extrêmes. Tant dans la vidéo que dans cette illustration, il est frappant de constater que différentes formes très variées remplissent toutes les échelles de façon dense. En outre, il faut y voir bien plus qu’une simple répartition : il s’agit d’une hiérarchie, car toute structure tend à se fractionner dans les niveaux inférieurs : la galaxie est faite d’étoiles, l’étoile d’atomes, l’atome de protons, le

Figure 1 | L’Univers fractal crée des structures à toutes les échelles.

21

Partie 1. Affiner notre vision du monde

proton de quarks. On peut dire que l’Univers se subdivise dans toutes ses dimensions. En termes scientifiques, c’est un objet fractal. Pour illustrer ce qu’est une fractale, l’exemple classique est celui de la côte bretonne. En l’observant sur une carte de France, vous pouvez prendre un décimètre (ou mieux : un curvimètre) et mesurer sa longueur. Par la route, la distance entre Vannes et Brest est de 186 km, mais si vous suivez la côte sinueuse sur la carte, vous trouvez environ 350 km. Avec une carte régionale plus précise, vous la voyez plus finement (figure 2). En respectant ses multiples contours, vous obtenez peut-être 800 km. Enfin, si vous répétez l’exercice avec des cartes de randonnée très détaillées, vous pouvez mesurer 2 500 km de côte entre les deux villes. En conclusion, on ne peut pas définir sa longueur dans l’absolu : elle varie selon la précision et la finesse de notre regard. Ces différences tiennent à la forme de la côte indéfiniment creusée d’anfractuosités à toutes les échelles par l’action de la mer.

Figure 2 | La longueur de la côte dépend de l’échelle à laquelle on l’examine.

22

L’Univers millefeuille

Un périple dans les échelles

Un autre exemple de fractale est celui de nos poumons. Les bronches se divisent en de multiples bronchioles qui se ramifient jusqu’à de microscopiques alvéoles de façon à maximiser la surface de contact entre le sang et l’air. Tout cela développe une superficie de la taille d’un terrain de volley. La nature met en œuvre de nombreuses fractales : les arbres et leurs branches, les nuages, le mouvement brownien, les phénomènes de diffusion, de corrosion, de percolation, etc. Une des caractéristiques des fractales, fréquente mais non obligatoire, est l’autosimilarité c’est-à-dire le fait qu’une petite partie de l’objet ressemble à l’objet entier. Par exemple, une simple branche d’arbre rappelle un arbre miniature. De même, dans toute l’étendue des dimensions de l’Univers, on observe des similarités entre : –  une galaxie spirale et un cyclone sur Terre ; –  un système planétaire et un atome ; –  une nébuleuse et un nuage atmosphérique ; –  un astéroïde et un caillou ; –  un arbre et un neurone ; –  une méduse et une amibe ; –  etc. L’autosimilarité est une notion centrale dans cet ouvrage, car nous allons rechercher les grandes caractéristiques se révélant dans toutes les échelles. POUR COMPRENDRE LA NOTION D’ÉCHELLE, AFFRANCHISSONS-NOUS DE L’ANTHROPOCENTRISME «  La science (…) n’est qu’une longue lutte contre l’anthropomorphisme. » Jean Audouze

Dans cette immense étendue allant de la taille du proton jusqu’à celle de l’Univers observable, existe-t-il une unité pouvant tenir lieu d’étalon ? La réponse est non, ou si vous préférez : oui, toutes ! Si 23

Partie 1. Affiner notre vision du monde

nous utilisons couramment le mètre, c’est simplement parce qu’il est à l’échelle humaine : la distance entre nos mains quand nous écartons les bras. Une baleine savante aurait probablement préféré compter en décamètres. Dans notre monde fractal, les notions de grand ou de petit n’existent pas dans l’absolu. Par exemple, nous avons coutume de dire qu’au moment du Big Bang, l’Univers mesurait 10– 35 mètre. Rien ne nous autorise à qualifier cette dimension de petite : si elle l’est, c’est relativement à nous aujourd’hui, mais non dans l’absolu. À ce titre, on remarquera que si le cosmos est infini, alors il l’était tout autant dès son début même à une si « petite » échelle. Quelle signification donner à cette longueur de 10– 35 mètre ? Il faut la comprendre comme étant un rapport : un mètre de nos jours valait 10– 35 mètre à l’époque à cause de l’expansion survenue depuis. Ainsi, le cosmologiste parle toujours en termes de facteur d’échelle, c’est-à-dire de rapport entre ce que vaut une distance à un instant donné et à un autre. Ce nombre sans dimension mesure la dilatation de l’Univers entre deux moments. Par exemple, lors de l’émission du rayonnement fossile, le facteur d’échelle valait 1 / 1 000e, ce qui signifie que depuis cet instant passé, le cosmos s’est dilaté 1 000 fois. Comme nous l’avons dit précédemment, il n’existe pas de limites claires dans les échelles, ni vers le bas ni vers le haut. Reprenons ce point. Concernant les grandes dimensions, nous ne pouvons voir qu’une partie limitée de l’Univers en raison de la vitesse finie de la lumière. Nous nous heurtons à un horizon cosmologique rappelant celui imposé par la rotondité de la Terre quand nous regardons au loin. Il se trouve à 13,8 milliards d’années-lumière, une distance qui change avec le temps. On ne peut en aucun cas lui rattacher une notion d’« éloignement maximum », car au-delà, le cosmos continue d’exister et il se prolonge peut-être indéfiniment. Aux petites échelles, apparaît aussi un problème. On présente souvent la longueur de 10– 35 mètre comme la plus petite envisageable (pour être plus précis : 1,616 × 10– 35 mètre). Pourquoi ? 24

L’Univers millefeuille

Un périple dans les échelles

Cette distance, dite longueur de Planck, est de grande importance en physique. Si l’on souhaite aller en deçà, nos deux théories les plus fondamentales, que sont la mécanique quantique et la relativité générale, deviennent inopérantes. On qualifie de mur de Planck cette limite à notre compréhension du monde. Dans la graduation de la figure 1, elle est très inférieure à la taille du proton : de vingt ordres de grandeur ! Nous sommes donc très loin de pouvoir observer quoi que ce soit à une telle échelle et de savoir si de nouveaux phénomènes apparaissent à son approche. À défaut d’observation, il nous faut considérer cette borne de Planck simplement comme la limite de nos propres modèles de description de l’Univers. Pour moi, il n’est pas question de lui attribuer une existence physique et encore moins le statut d’une longueur minimum. Des théories en cours d’élaboration cherchent à représenter ce qui pourrait se trouver dans ces dimensions : la théorie des cordes et celle de la gravitation quantique à boucles par exemple. Si elles aboutissent, il est possible que la limite basse des échelles envisageables recule significativement. S’il n’existe pas d’échelles maximum et minimum dans la nature, alors nous ne pouvons parler que de nos propres limites : au-delà ou en deçà, nous entrons dans des terras incognitas pour reprendre une expression d’Hubert Reeves. Force est d’admettre que nous voyons l’Univers entre deux échelles limites simplement parce que nous disposons d’une profondeur de champ restreinte. Cela suggère une idée plus audacieuse : en réalité, l’étendue des échelles serait infinie vers le bas comme vers le haut. En effet, si l’on ne voit aucun étalon de dimension jouer un rôle privilégié dans la nature, il serait étonnant qu’elle présente des échelles minimum et maximum. L’Univers fractal s’étend probablement à l’infini dans les deux directions. Au-delà de l’horizon cosmologique et en deçà de la longueur de Planck, pourquoi la fête devrait-elle s’interrompre ? Tout cela peut se résumer à un principe d’équivalence des échelles : Il n’existe aucune échelle jouant un rôle privilégié dans l’Univers. 25

Partie 1. Affiner notre vision du monde

Dans son esprit, cette idée rappelle le principe cosmologique formulé en 1917 par Einstein, selon lequel nous nous trouvons dans un endroit quelconque du cosmos, similaire à tout autre. Il a fallu 25 siècles de sciences pour que l’Homme admette enfin qu’il n’est pas au centre du monde. Il est apparu sur une planète ressemblant à beaucoup d’autres, située en orbite autour d’une étoile tout à fait courante, au sein d’une galaxie parfaitement typique située dans une région insignifiante de l’espace. Aujourd’hui, il nous faut peut-être admettre aussi que notre échelle est tout à fait quelconque dans un univers allant de l’infiniment petit à l’infiniment grand. Si notre taille se trouve à peu près au milieu de l’étendue complète des dimensions connues, il ne faut pas en déduire hâtivement que l’Homme y occuperait une position centrale. Cela résulte simplement du fait que nos télescopes divisent les échelles aussi efficacement que nos microscopes les multiplient. ATTENTION, LES ÉCHELLES CHANGENT Pour relativiser encore un peu plus, il nous faut ajouter maintenant que les longueurs évoluent dans le temps. Les plus seniors d’entre nous ont appris que le mètre étalon était une règle en platine iridié déposée au pavillon de Breteuil, à Sèvres. Aujourd’hui, il a été avantageusement remplacé par un multiple de la longueur d’onde d’un mode d’excitation particulier de l’atome de césium. Outre une précision très supérieure, cette nouvelle référence est facilement reproductible dans n’importe quel laboratoire disposant de l’équipement nécessaire. La notion d’étalon métallique ou atomique nous donne un sentiment d’immuabilité dans le temps. Pourtant, si nous allons loin dans le passé ou dans l’avenir du cosmos, un mètre n’égale plus un mètre. Si nous remontons au Big Bang, nous savons qu’aux tout débuts, l’échelle s’est agrandie d’un facteur gigantesque en un instant extrêmement bref lors d’un phénomène explosif baptisé inflation6. 6.  cf. LES CLÉS. Page 88. 26

L’Univers millefeuille

Un périple dans les échelles

L’échelle de départ n’étant pas définie, nous l’assimilons généralement à celle du mur de Planck : 10– 35 par rapport à aujourd’hui. Nous estimons qu’elle s’est multipliée par un facteur d’au moins 1026 (26 ordres de grandeur dans notre graduation) en une infime fraction de seconde. Cela représente le passage de la dimension d’un atome d’hydrogène à celle d’une année-lumière. Comme nous le verrons, une telle dilatation peut provenir de l’action d’un champ répulsif, une sorte d’antigravité. Pour des raisons inconnues, l’inflation s’est interrompue rapidement et le cosmos est entré dans une phase d ­ ’expansion modérée toujours à l’œuvre de nos jours. Cette évolution est résumée sur la figure 3. Aujourd’hui, nous ne savons pas si les deux phénomènes, l’inflation et l’expansion, sont de même nature et s’ils sont liés. Nous verrons aussi que ces changements d’échelle en deux phases successives sont d’une importance considérable pour l’Univers. L’inflation, bien qu’extrêmement brève, a engendré toutes les particules de matière et de forces existantes. Quant à l’expansion modérée qui lui a succédé, nous verrons qu’elle est le moteur de toute l’évolution du cosmos. Sans elle, il n’existerait rien d’intelligible.

Figure 3 | L’inflation cosmique suivie de l’expansion.

27

Partie 1. Affiner notre vision du monde

LES STRUCTURES COMPLEXES NAISSENT DES INTERACTIONS ENTRE DIFFÉRENTES ÉCHELLES À travers ce chapitre, nous commençons à percevoir ce qu’est l’Univers millefeuille : un empilement de strates à l’infini. Chacune est peuplée de structures variées provenant exclusivement des quatre forces de la nature et de leurs actions combinées. C’est un fait étonnant, car en contemplant la complexité d’un paysage ou d’un être vivant, on pourrait facilement penser que des centaines ou des milliers de forces sont en jeu. Pourtant, toute la richesse du monde émerge de ces seules quatre forces. Une raison tient à leur grande disparité. Certaines portent très loin, d’autres à très courte distance, certaines sont intenses, d’autres sont bien plus faibles, ce qui crée des interactions très diverses : 1.  La force de gravitation est de très faible intensité. Pour s’en convaincre, il suffit de penser que votre poids, par exemple 70 kilos, est une force exercée sur votre corps par l’ensemble de la masse de la Terre. Si nous comparons cette attraction à celle de la force électromagnétique, nous constatons qu’un petit treuil électrique pourrait vous soulever. À lui seul, il imprimerait à votre corps une force plus élevée que celle due à la gravité de la Terre entière. 2.  Par ailleurs, la gravitation est de portée infinie. C’est pourquoi les étoiles d’une galaxie restent groupées et les galaxies s’assemblent en amas et superamas. Malgré sa très faible intensité, la force de gravitation a modelé le cosmos à grande échelle, car elle est la seule capable d’agir à ces distances. 3.  La force électromagnétique, responsable de l’électricité, du magnétisme et de la chimie, est bien plus intense. Elle est aussi de portée infinie, mais dans les faits elle joue peu à grande distance, car la plupart des corps célestes sont électriquement neutres. Une planète ou une étoile ne présente pas de charge électrique globalement, de sorte qu’un système planétaire obéit à la seule force de gravitation. 4.  Enfin, les deux dernières forces, dénommées interactions nucléaires (forte et faible), sont de portée très faible. Elles ne s’expriment qu’à l’intérieur du noyau atomique. 28

L’Univers millefeuille

Un périple dans les échelles

La richesse de toutes les structures de l’Univers et son organisation proviennent du seul jeu de ces quatre forces, de leurs grandes différences et du fait qu’elles peuvent se contrarier entre elles. Ainsi, les étoiles s’assemblent sous l’effet de la gravitation, mais les forces nucléaires lui opposent une résistance en déclenchant une réaction atomique en chaîne. Un équilibre s’instaure. La gravitation tend à agréger les nuages cosmiques, mais d’autres forces la contrarient : le vent solaire des étoiles proches ou bien des champs magnétiques. À l’échelle des êtres vivants, les cellules se collent entre elles sous l’effet de la polarité électrique de différentes molécules, mais elles résistent en opposant leur propre pression. C’est ainsi que les arbres se maintiennent en position verticale : quand ils se courbent sous l’action du vent ou de leur poids, une pression mécanique apparaît dans le tronc à l’endroit de la courbure. Les cellules comprimées réagissent en accroissant leur pression osmotique. De cette façon, elles opposent une résistance et, avec le temps, elles redressent progressivement l’arbre. Plus bas dans les échelles, les noyaux atomiques résultent d’un équilibre entre les forces nucléaires assurant leur cohésion et la force électromagnétique tendant à les désagréger. Ainsi se forment 92 éléments stables. D’autres plus lourds existent, mais se désintègrent naturellement. De ces forces variées et antagonistes, naît la variété du monde et sa beauté. Nous la découvrons tous les jours dans les paysages de montagne, dans les splendeurs sous-marines et dans les images des volcans en éruption. Notre amour de la nature s’étend maintenant aux superbes photos transmises par nos télescopes spatiaux et à celles prises au microscope, nous révélant les détails des bactéries, des tissus vivants, des minéraux, etc. J’ai tenu à clore ce chapitre relatif aux échelles en parlant de la beauté de l’Univers, car, curieusement, les deux sujets sont liés. L’astrophysicien Lee Smolin en donne une définition intéressante : est beau ce qui présente à toutes les échelles, des détails ou des variations dans des proportions harmonieuses. Par exemple, tel immeuble 29

Partie 1. Affiner notre vision du monde

construit en voile de béton dans les années 1970 nous semble laid en raison de sa forme trop simple et répétitive. Aucun détail de plus petite dimension ne vient enrichir sa façade. À l’inverse, tel immeuble ancien nous paraît beau, car il présente des caractères perceptibles à toute échelle. De loin, sa forme d’ensemble est quelque peu irrégulière. Sous le poids des ans, la façade est devenue un peu ventrue et le toit s’est légèrement courbé. De plus près, on perçoit les sculptures ornant les fenêtres, les encorbellements et les escaliers tortueux. À un niveau de détail encore plus fin, on distingue les défauts de la pierre vieillie, les veines creusées dans les poutres de chêne, les peintures décolorées. Les tuiles arborent une riche palette de rouges et de bruns, agrémentée de touches de mousse verte. Tous ces détails se déploient dans une magnifique harmonie d’ensemble. Cette définition de la beauté est certainement restreinte, mais elle révèle un lien intime entre l’esthétique et les échelles. L’Univers est beau dans toutes ses dimensions, car il est fractal.

30

L’Univers millefeuille

2 Pourquoi la physique peine-t-elle à expliquer les phénomènes complexes ?

« S’intéresser aux êtres vivants est le meilleur moyen de ressentir à quel point la physique reste primitive. » A. Einstein

Les théories de la complexité sont apparues à la fin des années 1980, en particulier au sein du Santa Fe Institute aux États-Unis. De grands noms7, dont plusieurs prix Nobel, en ont été les pionniers. Ils s’intéressaient à la vie, à l’économie, autant qu’à la physique. Par leur travail, ils ont mis en lumière les limites de la science face aux phénomènes complexes et ils ont proposé de nouvelles approches. Ces faiblesses sont de quatre ordres : 7.  Entre autres : M. Gell-Mann, G. Cowan et P. Anderson (physique), S. Kauffman et C. Langton (simulation de la vie), K. J. Arrow et B. Arthur (économie), J. Holland (sciences informatiques), etc. 31

Partie 1. Affiner notre vision du monde

1.  Les limites inhérentes aux théories classiques et les mythes dans lesquels elles se sont souvent enfermées. 2.  Les difficultés liées aux phénomènes dits émergents. 3.  Le fait que toute théorie est valide au sein d’un domaine limité et non à toutes les échelles. 4.  Le rôle primordial du hasard dans la nature. Nous examinerons ces différents points. Ce chapitre, illustrant la nécessité d’un changement de paradigme, est assez technique. S’il vous paraît trop abstrait, n’hésitez pas à le lire en diagonale. Cela ne nuira pas à la lecture de la suite. LE MYTHE PYTHAGORICIEN Pythagore fut le premier à comprendre l’importance des nombres pour décrire les phénomènes naturels. Il y voyait un principe sousjacent universel : « Le nombre est le principe et la source de toute chose. » Dans le même esprit, la méthode scientifique instaurée par Galilée s’est appuyée sur les mathématiques. Le ton était donné et la suite ne fera que légitimer cette approche. Pour s’en convaincre, il suffit de lire les écrits originaux des grands de la physique. Ceux de Galilée reposent sur des mathématiques assez primaires, mais assorties d’un grand souci de rigueur. Les manuscrits les plus impressionnants sont ceux de Newton sur la gravitation. Ils sont présentés sous forme de démonstrations élaborées pas à pas avec une exactitude logique qui n’a rien à envier à celle de Nicolas Bourbaki8. Les postulats, les théorèmes, les lemmes et les corollaires s’enchaînent. À cela, il faut ajouter que le savant avait inventé le calcul intégral pour formuler sa théorie ! Le texte d’Einstein introduisant la relativité restreinte est tout aussi étonnant : il commence par demander au lecteur d’oublier la notion de temps universel et d’imaginer qu’en tout point de l’espace, il existe une horloge mesurant un temps 8.  Groupe de mathématiciens francophones qui, entre les années 1950 et 1970, a réécrit une grande partie des mathématiques sous une forme particulièrement rigoureuse, en signant ses ouvrages du pseudonyme Nicolas Bourbaki. 32

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

local. À partir de là, il développe une démonstration extrêmement rigoureuse. Jusqu’à présent, la fertilité des mathématiques s’est avérée considérable. Pourtant, il est dangereux de s’enfermer dans l’idée que tout s’explique par les nombres : le mythe pythagoricien. Bercé par cette illusion, Claude Bernard disait en 1865 : « Cette application des mathématiques aux phénomènes naturels est le but de toute science, parce que l’expression de la loi des phénomènes doit toujours être mathématique. » Pour se convaincre du caractère simpliste de cette conception, il suffit de mentionner les disciplines qui échappent largement au calcul, telles que la biologie, la médecine, l’écologie et l’économie. On rencontre aussi de sévères limites au sein même de la physique. Un exemple classique est celui du problème à trois corps (figure 4). Newton avait utilisé ses équations de la gravitation pour décrire le système Soleil-Terre (deux corps), mais quand il cherchait à les appliquer à l’ensemble Soleil-Terre-Lune (trois corps), il ne parvenait plus à les résoudre. Il disait n’avoir jamais eu tant mal à la tête qu’en « ­s’occupant de la Lune ». Il ne trouva que des solutions très imprécises. Au siècle suivant, les mathématiciens Alexis Clairaut et Jean d’Alembert s’attaquèrent au même calcul et obtinrent des résultats plus approchants. Au xixe siècle, l’astronome et mathématicien Charles-Eugène Delaunay y consacra 20 ans de sa vie et écrivit un ouvrage de 900 pages sur le sujet. Finalement, en 1898, Poincaré montra que les équations du problème à trois corps étaient non intégrables. Aujourd’hui, on contourne cette difficulté grâce

Figure 4 | Le problème à trois corps (dans le troisième cas, la pomme tombe dans un champ gravitationnel uniforme).

33

Partie 1. Affiner notre vision du monde

aux ordinateurs. Ils donnent des solutions par approximation aussi précises qu’on le souhaite. Il reste tout de même gênant qu’en mécanique classique, les calculs ne soient pas solubles au-delà de deux corps. La situation est encore pire en mécanique relativiste : les équations de la gravitation d’Einstein sont insolubles au-delà de… un seul corps ! On peut s’estimer satisfait de pouvoir encore intégrer le mouvement d’une pierre lancée en l’air, par la relativité générale ! Pourtant, cela risque de ne plus être le cas avec les théories censées la remplacer un jour : si la théorie des cordes aboutit et s’avère englober la relativité générale, permettrat-elle de calculer de façon exacte la simple trajectoire d’une pierre ? Rien n’est moins sûr, tant il est clair que plus on sophistique les théories, plus elles s’éloignent de nos schémas de compréhension. Le mythe pythagoricien est resté tenace en physique et quelque peu conforté par l’informatique. Avec l’ordinateur quantique, on travaille aujourd’hui sur des qbits, c’est-à-dire des bits qui, au lieu de valoir 0 ou 1, peuvent prendre toutes les valeurs entre 0 et 1. Il est intéressant de noter qu’au niveau macroscopique, les particules peuvent s’assimiler à de tels qbits. Partant de là, certains, dont le physicien Seth Lloyd et le cosmologiste Max Tegmark9, vont jusqu’à considérer l’Univers comme un vaste ordinateur quantique. Ne se contentant pas de souligner une analogie au demeurant intéressante, ils vont plus loin et affirment que le monde serait essentiellement fait de structures mathématiques. Il serait ontologiquement mathématique. Chacun aura son avis sur le sujet. Pour moi, c’est voir les choses à travers le prisme platonicien qui veut que la réalité obéisse à des formes pures préexistantes. L’approche mathématique paraît se justifier, d’abord et avant tout, comme un langage de communication entre l’Univers et l’Homme : – Pourquoi l’Univers se prête-t-il à une description par les mathématiques ? L’existence d’un nombre réduit de particules différentes fait qu’il s’est construit à partir de plusieurs jeux de Lego® 9.  Notre univers mathématique – En quête de la nature ultime du réel. M. Tegmark. 2018. 34

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

s’emboîtant de façon hiérarchique. Les relations entre leurs pièces créent ce que nous appellerons plus loin une combinatoire. Elle est d’une nature propre à se décrire par le calcul et c’est, je crois, la réponse à la question posée. – Pourquoi l’Homme adopte-t-il naturellement le langage mathématique ? Parce qu’il s’accorde bien avec deux facultés plus générales de notre esprit : symboliser et modéliser. Il y a donc de bonnes raisons pour que l’Homme communique aisément avec l’Univers par les mathématiques. Toutefois, pour en déduire à la manière de Galilée que le livre du monde est écrit en langue mathématique, il y a un grand pas à franchir. Le physicien Georges Lochak refuse de s’y engager : « On ne doit pas oublier que le livre n’est pas écrit par Dieu, mais par nous, car c’est nous qui décrivons le monde dans ce langage. Ce que Dieu a bien pu écrire reste un mystère. » Ainsi, quand nous admirons l’harmonie de la physique mathématique, nous admirons simplement celle de notre propre machine à penser. « Cessons de prendre la nature pour le miroir de notre intelligence », dit aussi l’astrophysicien Michel Cassé. En résumé, la façon dont sont faits l’Univers et le cerveau humain (qui en est un produit) me paraît expliquer l’efficacité des mathématiques comme langage privilégié entre les deux. L’évolution naturelle en est certainement à l’origine pour avoir adapté patiemment nos ancêtres et nous-mêmes à l’environnement. Pour autant, si ce mode de représentation nous est aisé, il ne faut pas y voir une exclusivité ou une loi universelle. S’il y a eu un Créateur, n’est-il pas quelque peu douteux qu’il ait entrepris la Genèse par les mathématiques ? LE MYTHE NEWTONIEN L’efficacité et les succès de la mécanique classique ont induit un second mythe que nous qualifierons de newtonien. Il trouve son origine dans l’usage du calcul intégral inventé par le grand savant et, indépendamment, par Leibniz à la même époque. Cette méthode extrêmement fertile peut aussi nous mettre des œillères. 35

Partie 1. Affiner notre vision du monde

Au centre de ce mythe, ce n’est plus la toute-puissance des nombres, mais plus précisément celle des équations différentielles. Rappelons de quoi il s’agit à partir de l’image classique du billard (figure 5). Une équation différentielle ne dit pas où se trouve la boule. Elle nous renseigne sur les petits changements élémentaires : si l’on modifie très légèrement telle ou telle variable, quel sera l’impact (infinitésimal) sur sa position et sa vitesse ? On qualifie ces méthodes de variationnelles. Si l’on veut connaître la trajectoire de la boule, il faut trois ingrédients : 1. Fixer un cadre (dans notre exemple, une table horizontale) et des contraintes (les bandes et les trous). On parle de conditions aux limites. 2. Se donner une position et une vitesse de départ : l’état initial de la boule. 3. Enfin, à partir de là, calculer la trajectoire en intégrant les équations différentielles. La méthode est extrêmement efficiente. Elle est déterministe dans la mesure où, si les conditions ci-dessus sont clarifiées, les calculs donnent les trajectoires avec une précision absolue tant vers l’avenir que vers le passé. Toutefois, elle présente aussi ses faiblesses. Dès le début du xixe siècle, en 1802, le peintre et poète William Blake se démarquait de cette vision des choses : « Que Dieu nous garde de voir d’un œil unique et de dormir du sommeil de Newton. » Nous allons examiner brièvement ces limites, en reprenant les trois ingrédients du calcul intégral. En premier lieu, la détermination des conditions aux limites est un exercice difficile dans la pratique. On y parvient dans les expériences de laboratoire ou bien dans les cas réels, à condition de les modéliser de manière très simplifiée. Dans « la vraie vie », elles changent constamment, ce qui ne facilite pas les applications et rend les prédictions imprécises, voire aléatoires. En second lieu, l’état initial d’un système est aussi sujet à caution : d’où vient-il ? En théorie, si l’on voulait en chercher les causes, on pourrait remonter dans le temps en appliquant la méthode autant de fois qu’il le faut, mais on entrerait dans une régression infinie.



36

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…



Figure 5 | La grande majorité de la physique repose sur la méthode newtonienne : conditions initiales, conditions aux limites et équations différentielles.

On parle de dépendance du chemin pour exprimer qu’un état présent résulte d’une cascade d’évènements passés impossibles à retracer. Notre inclination à rechercher systématiquement les causes de tout, nous mène à attribuer au Créateur l’état initial de l’Univers, ainsi que les lois physiques. En résumé, la mécanique newtonienne se fonde sur des lois et sur un état initial qu’elle ne peut expliquer ! Les théories plus modernes de la physique quantique et de la relativité reposent aussi sur des équations différentielles. Elles souffrent des mêmes maux. Enfin, l’intégration est souvent impossible. Nous l’avons vu plus haut avec le problème à trois corps. Il ne faut pas y voir une exception, mais plutôt la règle générale : l’immense majorité des systèmes un tant soit peu complexes est non intégrable. Cela provient du fait que les phénomènes naturels obéissent généralement à des équations non linéaires.

37

Partie 1. Affiner notre vision du monde

La forme la plus extrême du mythe newtonien est le démon de Pierre-Simon de Laplace, un personnage censé connaître parfaitement les lois de la mécanique. Selon le savant, si l’on pouvait donner à ce démon la position et la vitesse de toutes les particules de l’Univers, il serait à même d’en calculer tous les états futurs. Il en déduirait aussi bien ceux du passé, car au niveau le plus élémentaire, les équations sont symétriques par rapport au temps. L’idée fut ensuite combattue par James C. Maxwell : « Prétendre que les mêmes antécédents entraînent les mêmes conséquences, tient de la doctrine métaphysique. » Dans le même ordre d’idée, on peut ajouter que la conception des sciences par Newton avait plu à l’Église. S’il donnait des explications mécanistes aux phénomènes, il laissait une part de choix au Seigneur : celle d’avoir conçu les lois naturelles et d’avoir fixé l’état initial. Sur la tombe du savant et théologien, on lit l’épitaphe écrite par Alexander Pope : « La nature et ses lois restent cachées dans la nuit ; Dieu dit “Que Newton soit” et tout s’éclaira. » Aujourd’hui, le mythe d’un monde obéissant à quelques équations se poursuit avec la théorie du tout, comme son nom le suggère. Faut-il pour autant jeter la physique aux orties ? Non bien sûr : elle nous a permis de mieux comprendre l’Univers, de découvrir le cosmos, de faire des machines, d’inventer l’électronique et d’envoyer des hommes dans l’espace. Ici, notre propos est simplement d’éviter l’aveuglement que peut parfois induire son extraordinaire succès. UN BIAIS DE SÉLECTION DANS LA CONNAISSANCE « … l’idée d’une réalité absolue derrière les apparences est de nature religieuse. » Lee Smolin

Il faut se demander pourquoi et comment la science, si objective par essence, a pu s’enferrer dans de tels mythes. Ils trouvent 38

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

probablement leur source dans notre propension à toujours rechercher les lois les plus simples et les plus générales possibles. Comme chez tous les mammifères à des degrés divers, notre cerveau se construit en forgeant des modèles dans le but de prévoir puis d’agir à propos. Développée à l’extrême chez l’Homme, cette qualité nous pousse à comprimer la réalité parfois jusqu’à l’excès. Cela nous mène à une vision du monde désossée et mécaniste : celle d’une horloge dont tous les mouvements seraient prédictibles. À cela s’ajoute une distorsion dans les choix que nous faisons : si un chercheur hésite entre deux problèmes à élucider, l’un qu’il pense pouvoir résoudre par des équations, et l’autre qui à première vue a toutes les chances de résister au traitement mathématique, lequel va-t-il choisir ? Le premier bien sûr. Il s’agit là d’un biais de sélection, c’est-à-dire le fait d’ignorer les idées ne répondant pas à nos objectifs, nos moyens ou notre vision du monde. Toutefois, si je rencontrais un chercheur ayant fait un tel choix, je me garderais bien de le critiquer, car s’embarquer dans des problèmes insolubles est une bonne façon de ruiner sa carrière. Ainsi, par effet de sélection, la science s’est tournée systématiquement vers les phénomènes se mettant le plus aisément en équations. Selon le philosophe Karl Popper, la physique s’est intéressée « plus aux horloges qu’aux nuages ». En voici un exemple très simple que vous pouvez observer en ouvrant le robinet de votre évier (figure 6). En augmentant le débit de l’eau très progressivement, vous constatez que le jet prend des formes diverses. D’abord le goutte-à-goutte. Puis un écoulement régulier dit laminaire : le jet est tellement stable et lisse qu’il fait penser à une colonne de verre solide. Enfin, passé un débit critique, il devient partiellement, puis totalement turbulent. On pourrait imaginer un monde où l’eau sortirait toujours de la même façon d’un robinet. Notre univers n’est pas ainsi fait. Comment modéliser ces différents régimes ? On arrive bien à décrire l’écoulement laminaire par des équations, en revanche, la turbulence est bien plus complexe et l’on doit se contenter de traitements statistiques et d’approximations. Dès 39

Partie 1. Affiner notre vision du monde

lors, on comprend facilement qu’un chercheur ait tendance à aller spontanément vers le premier problème et hésite à se casser les dents sur le second.

Figure 6 | Trois régimes dans l’écoulement de l’eau d’un robinet.

L’exemple peut paraître anecdotique, mais il ne l’est pas. Si vous examinez votre évier, vous constatez que l’endroit où l’eau tombe sur le fond plat est entouré d’un cercle formant une sorte de vague ronde et stable. Ce que vous observez est bien connu : c’est le ressaut hydraulique. Il est l’analogue du mascaret remontant l’embouchure des fleuves lors des fortes marées montantes. À l’époque où l’on conçoit des accélérateurs de particules gigantesques et des ordinateurs quantiques, on pourrait penser que ce phénomène a été décrit mathématiquement depuis longtemps. C’est loin d’être le cas : le ressaut hydraulique, présenté il y a cinq siècles par Léonard de Vinci, n’a été mis en équations qu’en 2019, et partiellement de surcroît ! On pourrait commenter que cet effet est peu intéressant en soi et ne mérite pas d’être étudié, mais c’est aussi faux : on l’utilise désormais pour mieux comprendre l’explosion des étoiles en fin de vie, les supernovas. On le voit bien, ce problème a été ignoré 40

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

pendant cinq siècles simplement parce qu’il se mettait difficilement en équations. Le philosophe José Ortega y Gasset décrivait ainsi le biais de sélection : « La science remplace les questions difficiles auxquelles nous ne savons pas répondre, par d’autres plus simples que nous savons traiter. » Comme elle se construit à partir de nos interrogations, les thèmes choisis ne sont jamais neutres. Si la physique classique est mécaniste et déterministe à l’excès, cela est probablement lié à notre vision du monde et à nos propres choix. Nous nous sommes intéressés prioritairement aux problèmes épousant facilement nos vues et nos capacités. Ainsi, les phénomènes chaotiques n’étant pas faciles à traiter, ils ont été quelque peu laissés de côté jusqu’à une époque récente. Nous pouvons parler d’un paradigme dans lequel la science s’est enfermée après les immenses succès de la théorie newtonienne. Depuis les années 1990, un changement s’annonce : c’est l’objet de ce livre. En parcourant ces pages, si vous êtes scientifique, vous ressentirez peut-être un biais inverse : la physique fondamentale y apparaîtra relativement peu. Pour autant, je ne néglige pas son importance. Je souhaite seulement orienter le projecteur vers les systèmes complexes, trop ignorés par le passé et néanmoins omniprésents. ÉMERGENCE ET RÉDUCTIONNISME Les succès de la physique ne peuvent que forcer l’admiration. Rappelons-nous quelques exemples célèbres. En 1843, l’astronome Urbain Le Verrier prédit l’existence d’une nouvelle planète par le calcul en partant des perturbations enregistrées sur la trajectoire d’Uranus. Trois ans plus tard, Neptune est découverte, une grande victoire de la mécanique newtonienne. En 1915, Albert Einstein publie sa relativité générale. Quatre ans après, son ami Arthur Eddington profite d’une éclipse solaire pour mesurer la courbure des rayons lumineux passant près de l’étoile. Il retrouve très exactement le chiffre calculé par Einstein, différent des prédictions classiques. 41

Partie 1. Affiner notre vision du monde

C’est de nouveau le triomphe de la physique et des mathématiques. Nous pouvons aussi évoquer les grandes découvertes de la mécanique quantique : celles de l’existence des positons par Paul Dirac en 1928 et des neutrinos par Wolfgang Pauli en 1930, deux particules observées dès les années suivantes. Bien que depuis un siècle il n’y ait pas eu de grande avancée sur le plan théorique, les progrès de la science se poursuivent à un rythme soutenu au point de transformer radicalement la société. Pourtant, dès qu’un système fait intervenir de multiples sous-ensembles, la physique bute. C’est bien sûr le cas du domaine du vivant qui répond à des disciplines plus expérimentales, mais aussi de la plupart des phénomènes naturels. La raison est que les entités complexes sont généralement émergentes. Nous allons en donner trois exemples. Le premier est le cyclone. Pour le comprendre, il faut se situer à deux échelles. D’abord au niveau macroscopique, la perturbation s’étale sur des dizaines, voire des centaines, de kilomètres. Ensuite aux dimensions microscopiques, le phénomène provient des molécules de l’air et de l’eau. À ce niveau élémentaire où s’exercent les lois de la physique, nous disposons de quelques clés d’analyse : la condensation de la vapeur d’eau près de la mer fait monter la température, l’air chauffé s’élève en altitude et les forces de Coriolis lui impriment un mouvement de rotation… Avec ces clés, nous pouvons saisir grosso modo les causes du cyclone : il n’est pas provoqué par la colère des dieux ! Cependant, elles sont insuffisantes pour prévoir son apparition ou bien décrire précisément son développement. Nous savons comment les masses d’air se déplacent, mais, à ce jour, le déclenchement du cyclone reste mystérieux. Sous l’angle macroscopique, la thermodynamique nous donne d’autres clés pour comprendre l’évolution de la pression, de la température ou des mouvements d’air. Ces clés ne permettent guère d’aller plus loin que les premières. Ces limites viennent simplement du fait que nous sommes face à un phénomène émergent. Il apparaît à grande échelle à partir d’un comportement collectif des molécules. Il 42

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

obéit alors à ses propres règles d’une façon relativement autonome. Ces règles ne sont pas réductibles à celles du niveau microscopique. En d’autres termes, les caractéristiques du cyclone ne peuvent pas se déduire des lois de la physique des particules : il faut les étudier directement, dans toute leur complexité. Un deuxième exemple vient de la physique du solide et, plus généralement, de la matière condensée. Lorsque nous cherchons à décrire les propriétés de la matière, nous ne parvenons pas à les déduire de la physique des particules. Dans cette situation, nous devons considérer le solide comme un tout. Nous le soumettons à des perturbations mécaniques, électriques ou magnétiques, et nous observons ses réactions. Nous découvrons ainsi de nouvelles lois. Curieusement, elles font apparaître des particules fictives auxquelles nous donnons les noms de phonons, plasmons, quasi-électrons, etc. Tout cela montre que l’état solide est émergent : en se condensant, la matière adopte des lois nouvelles. Sur un plan théorique, on peut même se demander si ces particules fictives ne sont pas tout aussi réelles que celles constituant la matière. Le troisième exemple est le monde du vivant. Une créature peut encore moins se résumer à ses atomes. Elle constitue un être autoorganisé à différentes échelles. Au stade moléculaire d’abord, l’ADN sert de modèle pour fabriquer les protéines. Ensuite, au niveau de la cellule, les molécules s’effacent et des comportements propres apparaissent. Grâce à cela, la cellule répond aux influences de l’environnement telles que le manque de nutriments, l’excès de salinité, les pressions mécaniques, etc. Dans les dimensions supérieures, celles des tissus, nous pouvons oublier les cellules, car de nouvelles règles globales voient le jour. Plus haut dans les strates, un organe comme le cœur fonctionne de façon autonome en vue d’accomplir une fonction donnée, et cela ne se résume pas aux tissus qui le composent. Enfin, à l’échelle supérieure, l’individu entier est capable de réagir à d’autres forces comme la pression de l’environnement et la sélection naturelle. À chaque niveau revient la même problématique : quelque 43

Partie 1. Affiner notre vision du monde

chose de nouveau apparaît et nos observations ne peuvent s’expliquer uniquement à partir des strates inférieures. Pour s’en convaincre, voici une expérience de pensée. Imaginons la mort d’un animal. Si nous observons ses cellules juste avant et juste après l’instant final, elles sont toutes là, vivantes et situées au même endroit. A fortiori, leurs molécules n’ont pas changé. Ce paradoxe vient simplement du fait que vivre est une propriété du tout, non réductible à ses parties. Elle ne réside pas dans les cellules ellesmêmes, mais plutôt dans leurs interactions. C’est bien pour cela qu’en étudiant la vie, il a fallu dépasser la physique et la chimie et inventer la biologie. Ainsi voit-on apparaître, à toutes les échelles, des structures ou des entités se dotant de leurs propres lois, non explicables à partir des strates inférieures. Il ne faut pas y voir une quelconque limite du savoir qui pourrait être due à l’intervention du hasard. Certes, ce dernier est omniprésent, mais il n’est nullement responsable des phénomènes émergents : ils relèvent plutôt de comportements collectifs naissant spontanément quand un grand nombre de composants sont réunis. On résume volontiers cela en disant que « le tout est plus que les parties ». Cette idée a été et reste souvent combattue par les réductionnistes pour qui tout doit finir par s’expliquer au niveau le plus élémentaire. Leurs critiques sont de différents types. D’abord, l’idée que l’on puisse tout déduire des particules et de quelques lois dites fondamentales est tenace, car séduisante intellectuellement. Ensuite, il faut bien le dire, l’immense majorité des progrès de la science provient de la méthode analytique attribuée à Descartes : décomposer un système complexe en parties plus faciles à appréhender. Cette approche a toujours été féconde. Enfin, les idées émergentistes laissent parfois penser à tort à des phénomènes surnaturels. Ces soupçons d’obscurantisme ont souvent influencé la communauté scientifique.

44

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

Les débats entre émergentistes et réductionnistes mènent très loin : on les retrouve sur le plan ontologique. Pour les premiers, il existe différents niveaux de réalité. Par exemple, un cœur présente une réalité propre : celle d’un organe ayant émergé pour remplir une fonction dans l’organisme. Pour eux, la réalité est plurielle. La nature tend à s’auto-organiser – un point très largement abordé plus loin – et à faire apparaître des niveaux de réalité distincts. À l’inverse, le réductionniste croit en une réalité unique, une substance universelle se ramenant toujours in fine aux particules. Pour lui, le cœur est un ensemble de molécules assemblées sous l’action d’autres molécules, les enzymes, elles-mêmes engendrées par une autre molécule, celle d’ADN, etc. On imaginerait facilement que Niels Bohr, le père de la mécanique quantique, soit un grand défenseur du réductionnisme. Pourtant, le jour où le biologiste Ernst Mayr lui a expliqué la notion d’émergence, il lui a répondu : « Nous avons la même chose en physique. Toute la physique est émergente ! ». Nous n’entrerons pas dans ces débats sur la nature des choses, préférant nous limiter à ses aspects épistémologiques : quels phénomènes s’expliquent par les lois fondamentales ? Quels autres résistent à la méthode réductionniste et requièrent des approches nouvelles ?

Le présent ouvrage se situe clairement dans une approche émergentiste qui nous conduira à décrire de nombreux phénomènes complexes largement autonomes et impossibles à réduire à leurs parties. Ne rejetons pas pour autant la méthode réductionniste qui est au cœur des sciences pour longtemps encore, selon toute vraisemblance. Les idées présentées ici lui sont complémentaires. L’étude de la complexité vise à apporter un cadre conceptuel là où l’approche traditionnelle échoue. Le psychanalyste et philosophe Patrick Juignet10 suggère ­d’utiliser 10.  Le concept d’émergence. Article de Patrick Juignet dans la revue Philosophie, science et société. 2015. https://philosciences.com/philosophie-generale/complexite-systeme-­ organisation-emergence/38-le-concept-d-emergence. 45

Partie 1. Affiner notre vision du monde

« l’ascenseur explicatif » : le chercheur doit toujours déterminer le niveau d’échelle le plus pertinent pour étudier un sujet donné sans tomber dans un quelconque dogme réductionniste ou émergentiste. AUCUNE THÉORIE N’EST VALIDE À TOUTES LES ÉCHELLES Toutes les théories scientifiques élaborées au cours des temps sont effectives dans un intervalle d’échelles limité. Nous allons le vérifier en passant en revue les principales d’entre elles. La relativité générale est une théorie du macroscopique et des faibles énergies. Elle présente une incompatibilité fondamentale avec la mécanique quantique. En effet, si l’on cherche à la pousser dans le microscopique, au niveau des particules, ou bien dans les hautes énergies, elle butte sur le mur de Planck déjà mentionné au premier chapitre. Dans les applications usuelles de la cosmologie, elle est reine, mais elle se révèle incapable de sonder l’intérieur d’un trou noir ou d’expliquer l’origine du Big Bang. On l’utilise avec succès pour décrire le cosmos pris comme un tout, c’est-à-dire à l’échelle la plus grande du millefeuille. Encore faut-il préciser que cela nécessite d’importantes simplifications : on oublie les étoiles et on assimile les galaxies à de simples molécules formant un gaz. On applique ainsi la relativité à une situation extrêmement schématisée. Cela rappelle le raisonnement de type statistique de la thermodynamique fondée au xixe siècle : à défaut d’observer les particules individuellement, on peut travailler sur des moyennes et des agrégats. On appelle cela un agraindissement : ne discernant pas les phénomènes à grain fin, on les décrit à gros grains. La notion de grain est essentielle en physique en raison de la stratification de l’Univers. La mécanique quantique inventée dans les années 1920, peu après la relativité, s’est rapidement révélée tout aussi exacte, précise et féconde. Albert Einstein, qui pourtant figure parmi ses fondateurs, a très vite pris du recul par rapport à elle en pressentant l’apparition de contradictions majeures avec sa propre théorie. Carlo Rovelli, un expert de la gravitation, dépeint l’incompatibilité entre les deux 46

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

théories de façon amusante : un étudiant en physique se rend le matin à son cours de mécanique quantique où on lui dit que l’Univers est plat. L’après-midi, au cours de relativité générale, le professeur lui enseigne qu’il est courbe. Le lendemain, une autre surprise l’attend. Au premier cours, il apprend que les grandeurs sautent d’une valeur à l’autre de façon discrète (les sauts quantiques) et, après déjeuner, il entend le contraire : elles sont redevenues continues. Par ailleurs, les équations de la physique quantique permettent de traiter des problèmes concernant une ou quelques particules. Au-delà, elles ne sont plus solubles. À l’exception de certains états coordonnés très particuliers, si l’on veut traiter des solides, des liquides ou des gaz, il faut découvrir d’autres lois appropriées à ces échelles. Les théories du tout (théorie des cordes, de la gravitation quantique à boucles, etc.), censées unifier les deux précédentes, n’ont pour l’instant pas abouti. Elles cherchent à décrire un monde sous-jacent situé à l’échelle de Planck. À partir de ces très petites dimensions, émergeraient la mécanique quantique et la relativité générale. Si une telle théorie débouche un jour, elle méritera peut-être le nom de théorie du tout dans la mesure où elle unifiera ses deux illustres ancêtres. Cependant, ce qualificatif sera quelque peu prétentieux, car à l’image des deux autres, elle ne décrira probablement pas les états de la matière au niveau macroscopique, comme les cristaux ou les fluides, et encore moins la vie. À l’instar de toutes les autres, elle aura son domaine de validité qu’il faudra confirmer par l’expérience. La thermodynamique est apparue avec la machine à vapeur et la révolution industrielle. Elle traite des échanges de chaleur à l’échelle macroscopique. Elle exprime des relations entre des grandeurs telles que la pression, la température et l’énergie. À la fin du xixe siècle, Ludwig Boltzmann lui a donné une justification théorique en la faisant dériver rigoureusement du comportement statistique des particules. Par exemple, la température d’un gaz se calcule en fonction de la ­distribution des vitesses de ses atomes. Dans ce sens, on peut voir en cette science un prolongement de la théorie des particules, obtenu par agraindissement. 47

Partie 1. Affiner notre vision du monde

Pour être exact, certains aspects de la thermodynamique ne proviennent pas de cet agraindissement. Ainsi, dans la strate microscopique, les particules se comportent symétriquement dans le temps : les équations décrivent leurs mouvements aussi bien vers le futur que vers le passé, d’une façon équivalente. Au contraire, au niveau macroscopique, le deuxième principe introduit l’irréversibilité des phénomènes et la flèche du temps. Cette différence entre les deux échelles est inhérente à l’application de méthodes statistiques, comme Boltzmann l’a très bien expliqué lui-même.

La méthode d’agraindissement a été fructueuse pour donner un substrat mathématique rigoureux à la thermodynamique. Toutefois, il n’est pas toujours évident de déduire ainsi les lois à une certaine échelle, de celles prévalant dans les strates inférieures. Un exemple est celui des transitions de phase, c’est-à-dire de changements radicaux telle l’ébullition de l’eau. Ces phénomènes, décrits plus loin, font naître de nouveaux états qui en général obéissent à des lois nouvelles, non réductibles à celles du niveau inférieur. En général, la biologie ne dérive pas de la physique des particules, car la vie est un système émergent ayant forgé ses propres lois. Il serait plus adéquat de parler de plusieurs biologies en raison des niveaux d’organisation multiples des êtres vivants. Dans les plus petites échelles, la biologie moléculaire porte sur les protéines, les acides nucléiques, etc. À l’étage au-dessus, la microbiologie s’intéresse aux formes de vie les plus simples : les bactéries, les cellules et les virus. Une autre biologie s’intéresse à la façon dont les cellules coopèrent pour former les organes et les êtres multicellulaires. Enfin, d’autres sciences traitent des populations : l’évolution des espèces, les écosystèmes, la propagation des gènes au sein des populations, l’épidémiologie, etc. On est véritablement devant un millefeuille épousant les différents niveaux d’organisation élaborés par la nature au cours 48

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

des temps. Les développements scientifiques propres à chaque strate ont beaucoup de liens entre eux, mais le plus souvent, ils ne sont pas déductibles les uns des autres : les théories de la cellule ne suffisent pas à expliquer l’être multicellulaire et encore moins son cerveau s’il en a un. Chacune des cellules agit de façon autonome, obéissant docilement à ses gènes et à son environnement immédiat. Elle ne se doute pas qu’elle fait partie d’un être supérieur et qu’elle y joue un rôle. On ne parviendra jamais à expliquer un animal complexe simplement en observant et en décrivant ses cellules. L’être vivant est bien plus que ses composants. Il est un phénomène émergent. Pour espérer le comprendre, il faut découvrir les lois qu’il engendre. À travers ces lignes, on retrouve très précisément l’oignon dont parlait R. Feynman. On connaît déjà de nombreuses « pelures » disposant chacune de ses propres lois : théorie des semi-conducteurs, lois des supraconducteurs, mécanique des fluides… Trop souvent, on a eu tendance à les mépriser pour ne pas être fondamentales. On les a reléguées au niveau de vulgaires technologies. Elles ne méritent pas un tel statut. Il s’agit bien de physique à part entière. Leur seul défaut est de s’intéresser à des états impossibles à décrire à partir des seules particules. R. Feynman avait bien exprimé ce fait en disant : « Les lois fondamentales ne sont pas plus proches de Dieu que les lois émergentes. »11 Un exemple frappant est présenté par le prix Nobel de physique Robert B. Laughlin12 pour qui les phénomènes émergents sont fréquents dans les états de la matière. En les étudiant, on découvre de nouvelles lois faisant apparaître de nouvelles constantes, distinctes de celles dites fondamentales. En voici deux : – la constante de Josephson relie deux grandeurs : la tension appliquée à une jonction entre métaux et la fréquence des ondes qu’elle émet ;



11.  The Character of Physical Law. R. Feynman. 1960. 12.  A Different Universe : Reinventing Physics From the Bottom Down. R. B. Laughlin. 2006. 49

Partie 1. Affiner notre vision du monde

… – la constante de von Klitzing est une résistance mesurée dans un certain type de transistor sous l’influence d’un champ magnétique. On les qualifierait facilement de « technologiques ». Pourtant, elles ont un rapport étroit avec une autre constante par essence « fondamentale » : celle de Planck. On pourrait penser que les deux constantes « émergentes » se déterminent à partir de cette dernière. Curieusement, c’est l’inverse : la méthode la plus précise pour évaluer la constante de Planck consiste à la déduire de la mesure des deux autres ! Parmi les trois, peut-on vraiment dire qu’une seule est fondamentale ?

L’INCERTITUDE S’EST INVITÉE EN FORCE DANS LES SCIENCES Nous avons vu trois raisons majeures pour lesquelles la physique bute devant la complexité : les limites inhérentes à nos théories et les mythes auxquels elles ont pu conduire, leur difficulté à appréhender les phénomènes émergents, et leurs champs de validité restreints. Il en reste une quatrième, tout à fait fondamentale : le rôle prépondérant du hasard. Nous aimerions bien que les lois naturelles suffisent pour expliquer les choses et que les aléas n’y jouent aucun rôle ou, au pire, qu’ils interviennent marginalement comme du bruit de fond. Malheureusement, c’est l’inverse ! Dans les systèmes complexes, leur rôle est dominant. Pendant plus de deux siècles, le succès incroyable de la mécanique newtonienne nous a laissé penser que tout serait prévisible. Le démon de Laplace évoqué plus haut en était l’expression la plus saillante. Cette même idée animait toujours le grand savant Lord Kelvin à la fin du xixe siècle. Pour lui, la physique arrivait à son terme, car tout ou presque avait été découvert ! Il recommandait aux jeunes de ne pas se diriger vers cette science s’ils ne voulaient pas se retrouver au chômage. Ses convictions ont été rapidement balayées au début du siècle suivant par l’avènement de la mécanique quantique et la relativité. 50

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

Plus frappant encore, le hasard s’est invité dans la partie, de façon fracassante. Il a pris d’assaut la tour de Babel de nos certitudes et s’est imposé comme un acteur majeur et incontournable. Nous allons présenter brièvement les six étapes principales de cette prise de pouvoir. La première prend sa source dans les travaux du mathématicien Henri Poincaré à la fin du xixe siècle. Il s’intéresse aux systèmes dynamiques tel celui des trois corps déjà évoqué plus haut (l’interaction Soleil-Terre-Lune) ou bien celui, plus complexe, du Système solaire complet. Il découvre que seuls les ensembles élémentaires d’un ou de deux corps reposent sur des équations intégrables. Le problème à trois corps, sur lequel Newton s’était arraché les cheveux, est tout simplement insoluble. Quant au Système solaire, apparemment immuable et réglé comme un mécanisme d’horlogerie, il est chaotique. Par exemple, la grosse planète Jupiter a sérieusement perturbé la régularité apparente de nos planètes par le passé, allant jusqu’à fortement modifier leurs orbites réputées stables. Les travaux de Poincaré incitent les scientifiques à la modestie : ils impliquent tout simplement que la plupart des systèmes un tant soit peu sophistiqués relèvent d’équations non intégrables. Poincaré développe son analyse plus avant et trouve heureusement des outils mathématiques permettant de mieux les appréhender. Il met aussi en lumière la sensibilité aux conditions initiales : un infime écart dans l’état de départ d’un système peut induire de proche en proche des déviations gigantesques et imprévisibles. « Ici entre l’aléatoire » disait le célèbre mathématicien en jetant les bases de la théorie du chaos. Aujourd’hui, nous parlons de l’effet papillon, une métaphore due au météorologue Edward Lorenz pour qui le battement d’ailes d’un papillon au Brésil pouvait provoquer une tornade au Texas. La deuxième entrée en scène du hasard en physique est magistrale : l’invention de la mécanique quantique dans les années 1920. Le principe d’incertitude de Werner Heisenberg confère au hasard un rôle incontournable dans le comportement des particules. Ce côté 51

Partie 1. Affiner notre vision du monde

intrinsèquement probabiliste de la réalité n’a jamais été accepté par Einstein. Pour lui, il reflétait simplement une connaissance imparfaite des choses. « Dieu ne joue pas aux dés », disait-il, ce à quoi le champion du quantum, Niels Bohr, répondait : « Qui êtes-vous Monsieur Einstein pour dicter à Dieu ce qu’il doit faire ? » Avec maintenant un siècle de recul, il nous faut admettre que, dans le monde quantique, la mesure d’une grandeur s’exprime nécessairement en termes probabilistes. Fort heureusement, comme nous le verrons plus loin, quand les particules s’agrègent à l’échelle macroscopique pour donner les objets familiers, nous passons du flou quantique à un univers plus compréhensible. Nous retrouvons alors une certaine capacité de prédiction. Encore une manifestation de l’émergence. Un troisième assaut du hasard ébranle non pas la physique, mais ses propres fondements : les mathématiques. L’histoire remonte à 1900 lorsque le grand mathématicien David Hilbert énonce la liste des vingt grands problèmes du siècle. L’un d’entre eux pose la question suivante : pouvons-nous trouver une procédure permettant de décider de façon non ambiguë si une proposition est vraie ou fausse ? Un tel théorème, s’il était démontré, donnerait aux mathématiques une cohérence inattaquable. Un jeune logicien de 25 ans, Kurt Gödel, s’y attaque et entend bien démontrer ainsi la complétude des mathématiques. Pourtant, en 1931 il démontre… le contraire ! Son théorème d’incomplétude prouve formellement l’existence de propositions indécidables  : il est tout simplement impossible de dire si elles sont vraies ou fausses. Son théorème révèle la fragilité des mathématiques et remet irrémédiablement en question leur toute-puissance. Au début, on a cherché à minimiser cette découverte embarrassante en acceptant qu’il puisse effectivement exister ce type d’« exception ». Aujourd’hui, il faut l’admettre, les propositions indécidables ne sont pas minoritaires, mais bien majoritaires. En d’autres termes, le champ de ce que l’on peut démontrer par les mathématiques est un tout petit sousensemble de toutes les propositions sur lesquelles on est susceptible 52

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

de s’interroger. On ne s’en était jamais aperçu en raison d’un biais de sélection du même type que celui dont nous avons parlé en physique : les mathématiciens s’intéressent de préférence à ce qui semble pouvoir se démontrer, et si ce n’est pas le cas, ils passent à autre chose. Ce biais systématique aboutit à l’illusion que l’on peut toujours démontrer qu’une proposition est vraie ou à défaut, qu’elle est fausse. Ce théorème montre les limites de ce que peuvent faire les mathématiques et introduit, en quelque sorte, un hasard d’ignorance incontournable. La quatrième bataille perdue face au hasard s’appelle le chaos déterministe. En 1961, Edward Lorenz, scientifique et météorologue, interrompt par erreur un calcul sur son ordinateur. Il le relance à partir d’une valeur notée antérieurement dans son carnet : 0,145237. Pour gagner du temps, il entre un nombre arrondi : 0,145. Quelques heures plus tard, il trouve des courbes totalement différentes de celles de son premier calcul. Dans un premier temps, il pense à une panne de tube à vide dans l’ordinateur, mais après vérification, il comprend l’origine du problème : le petit écart d’un et demi pour mille, négligemment introduit au départ, s’était amplifié au cours des calculs jusqu’à diverger radicalement. On retrouve la sensibilité aux conditions initiales de Poincaré : une minuscule différence dans les valeurs de départ d’un système se traduit par des différences considérables à l’arrivée. Cette découverte était surprenante dans la mesure où les équations concernées étaient parfaitement déterministes, c’est-à-dire dénuées de tout aléa. Autrement dit, même si le hasard n’est pas partie prenante des calculs, il s’invite par la petite porte en amplifiant tout écart, même minime, de façon chaotique. Encore une fois, on ne parle pas là d’un cas exceptionnel, mais d’une situation très générale. Si l’on rapproche cela de l’inévitable incertitude quantique à l’échelle microscopique, on se rend compte que tout phénomène est nécessairement pollué par le hasard : celui-ci apparaît inéluctablement au niveau des particules, et ensuite, ses effets s’amplifient avec le temps, souvent très vite. Quand Poincaré a présenté les premiers systèmes chaotiques, on a encore pensé qu’il s’agissait d’exceptions 53

Partie 1. Affiner notre vision du monde

malheureuses, puis force a été de constater que les phénomènes naturels sont très majoritairement affectés par le chaos déterministe. C’est un cas général, car, pour la plupart, ils obéissent à des équations non linéaires rendant les prédictions très difficiles au-delà d’un horizon assez court. Cet aveuglement durant plusieurs siècles faisait dire au prix Nobel de physique George Cowan : « Depuis Newton, nous travaillons sur une petite île déserte en ignorant l’ensemble de l’océan autour de nous. » D’une manière pratique, la sensibilité aux conditions initiales impose une limite temporelle à toute prédiction, dite horizon prédictif. Par exemple, celui de la météo est de l’ordre de quelques jours. Celui du Système solaire est nettement plus long en raison de l’absence de friction : il se compte en dizaines de millions d’années. Une cinquième limite aux illusions du déterminisme, moins connue, est découverte en 1969 par les chercheurs en intelligence artificielle : le problème du cadre. En voici une illustration. Imaginons un robot assistant une personne âgée et lui préparant son petit-déjeuner chaque matin (cela existe depuis déjà longtemps au Japon). Un jour, il va chercher une tasse sur l’étagère où il les a rangées la veille. Il se trouve, qu’entre temps, la femme de ménage a déposé une cuillère dans cette tasse. Le robot ne s’en rend pas compte. Il se dirige alors vers la machine à café et là, il ne parvient pas à la faire marcher à cause de la cuillère. Cet échec provient d’un changement imprévu dans le cadre où il évolue. Pour fonctionner, un robot doit donc vérifier l’état de différentes choses parmi une liste : le niveau de café dans la cafetière, l’absence d’obstacle au sol, etc. Le reste est supposé demeurer inchangé, à tort ou à raison. Confrontés à cette difficulté, les chercheurs en IA se sont demandé s’il existait un algorithme permettant de définir le champ de tout ce qu’il est indispensable de tenir à jour, par exemple, le fait qu’il n’y ait rien dans la tasse. Aucun n’a été trouvé. Sur le plan théorique, cet échec représente une sérieuse embûche en travers de la route, même si sur le plan pratique on a imaginé des solutions pour la contourner. Il ne faut pas oublier que 54

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

dans toute expérience scientifique, on doit définir précisément tout ce qui peut agir sur le système comme dans le cas du robot. Pour le reste, on se fie au principe « toutes choses égales par ailleurs » (en latin : ceteris paribus). Pourtant, sur un plan formel, rien ne nous autorise à le faire. Ainsi peut-on dire que le problème du cadre, insoluble, est d’une portée générale sur un plan épistémologique. Le spécialiste de la vie, Stuart Kauffman, y voit une des raisons pour lesquelles le monde du vivant est parfaitement imprévisible : le cadre change en permanence ! À titre d’exemple, les premières bactéries ont vécu près de deux milliards d’années dans un milieu sans oxygène (réducteur). Ensuite, le développement de la photosynthèse chlorophyllienne a induit un dégagement important d’oxygène. L’environnement est devenu oxydant et, par là même, toxique pour toutes les bactéries de l’époque. Ce fait a provoqué l’équivalent d’une grande extinction : la catastrophe de l’oxygène. De nouvelles bactéries, dites aérobies, capables de vivre en présence d’oxygène, ont émergé et l’évolution a pu se poursuivre. C’est un exemple extrême de la façon dont un système peut modifier son environnement de façon radicale. Comment un scientifique, présent en ces temps-là et étudiant la faune, aurait-il pu prévoir que ces bactéries allaient s’étouffer elles-mêmes en changeant leur cadre de vie ? On peut y voir quelque similarité avec la société humaine actuelle. Elle aggrave inéluctablement l’effet de serre et provoque une dégradation de son propre milieu. Personne ne peut en prévoir toutes les conséquences. La sixième entrée en scène du hasard, aussi malvenue que les cinq autres, concerne la génétique. Confrontés à une complexité d’une ampleur inimaginable, les biologistes sont depuis toujours bien plus modestes dans leur approche que les physiciens. Ils rencontrent les aléas à tous les coins de rue ! Pourtant, à partir du décryptage de notre ADN en 2001, les généticiens se laissent prendre, à leur tour, à la grande tentation du déterminisme. Parmi les 3,4 milliards de « lettres » du génome (les bases nucléiques), ils identifient environ 55

Partie 1. Affiner notre vision du monde

22 300 séquences susceptibles de s’exprimer sous forme de protéines : ce sont les gènes. De là naît immédiatement l’illusion selon laquelle ces 22 300 gènes seraient les clés du fonctionnement du corps humain. Ils y voient même les « plans » de l’organisme, à l’image de ceux d’un avion ou d’un immeuble. Certains parlent du « programme informatique » gérant toute l’information du corps. Il suffira donc d’étudier ces gènes un par un pour tout découvrir, tout savoir, tout guérir. Les années suivantes nous ont fait déchanter. L’idée d’associer chaque gène à une protéine, elle-même reliée à un caractère précis du corps ou à une pathologie, est vite apparue simpliste. En vérité, les gènes sont de simples rouages dans un réseau d’interactions bien plus vaste et multiple. À partir du génome de l’œuf fécondé, l’embryon se développe progressivement comme un système extrêmement sophistiqué combinant les gènes, mais aussi les protéines qu’ils fabriquent, et l’organisme lui-même avec toutes les contraintes qu’il leur impose par causalité descendante. Ce phénomène émergent menant de l’œuf à l’adulte ne peut en aucun cas se réduire à un soi-disant « plan » ou « programme » génétique. Comme en physique, nous n’avons aucune chance de décrire un réseau d’interactions aussi complexe que celui de l’être vivant en partant du niveau moléculaire. Pour prendre une autre analogie, la myriade d’évènements se produisant quotidiennement dans une ville n’est pas réductible aux débats et aux décisions de son conseil municipal. Ce dernier peut jouer un rôle très important, mais il n’est qu’une partie d’un ensemble bien plus étendu et considérablement diversifié. Les études récentes sur le génome nous ont menés à une seconde conclusion : l’expression des gènes est très sujette au hasard. Le biologiste Jean-Jacques Kupiec13 évoque même des « gènes anarchiques ». En termes scientifiques, il parle de processus stochastiques c’est-à-dire largement soumis aux aléas. Par exemple, quand un gène s’exprime dans les cellules, le résultat varie énormément de l’une à l’autre en fonction du contexte dans lequel elles se trouvent, mais aussi du 13.  Et si le vivant était anarchique. J-J. Kupiec. 2019. 56

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

hasard : il s’exprimera dans une cellule, mais non dans une autre. C’est bien ennuyeux pour les chercheurs, ou tout au moins, pour ceux ayant nourri l’illusion déterministe. Il existe même des cas où enlever carrément un gène n’induit aucune conséquence dans l’organisme. Le déterminisme en est-il pour autant écarté du vivant ? Non, bien sûr, car si tel était le cas, les créatures complexes ne pourraient ni se former ni se maintenir. On découvre simplement que la situation est plus complexe qu’on le pensait : le déterminisme se manifeste au niveau macroscopique sous forme de moyennes d’une myriade de phénomènes microscopiques où le hasard tient une place importante. Cette situation que l’on pourrait considérer comme chaotique est au contraire la garantie de l’adaptabilité de l’être vivant. En effet, dans le réseau complexe formé par les gènes, les protéines et le contexte dans lequel ils évoluent (le phénotype), le rôle important du hasard fait que l’organisme absorbe mieux les fluctuations de l’environnement, elles-mêmes aléatoires. Pour reprendre notre analogie avec une ville, si tout obéissait aux procès-verbaux du conseil municipal (le génome), la cité (l’organisme) serait totalement rigide et inadaptable. Dans le vivant, le hasard omniprésent n’est pas un bruit nuisible, mais plutôt ce qui apporte souplesse et résilience face aux changements de l’environnement. Contrairement à notre intuition, il participe à cette caractéristique essentielle du vivant qu’est l’homéostasie, c’est-à-dire la stabilité face aux aléas. Un thème repris plus loin. En examinant ces six exemples d’incertitudes affectant nos modèles scientifiques, nous remarquons qu’ils ne sont pas tous de même nature. Dans une première catégorie, nous pouvons classer les incertitudes propres aux modèles eux-mêmes : celles de la mécanique quantique, des équations non intégrables de Poincaré et de l’indécidabilité de Gödel sont clairement fondamentales et irrémédiables, sauf à trouver des modèles radicalement nouveaux pour représenter le monde. Le cas de la mécanique quantique fait encore débat aujourd’hui : son aspect probabiliste est-il une forme d’ignorance comme le disait Einstein, ou bien est-il intrinsèque, c’est-à-dire 57

Partie 1. Affiner notre vision du monde

une donnée incontournable de la réalité ? Les incertitudes liées au chaos déterministe et à la sensibilité aux conditions initiales sont d’une nature différente : dans ces cas, les modèles sont déterministes, mais ce qu’ils expriment devient imprévisible au-delà d’un horizon temporel. Enfin, le problème du cadre tient plus à notre incapacité de tenir compte des nombreux éléments internes et externes affectant les systèmes ouverts complexes. L’excès de variables met inévitablement en échec les sciences réductionnistes. Cette dernière catégorie est souvent désignée sous le nom de contingence. « Malheureusement » pour nous, quelle que soit leur catégorie, les six évènements historiques mentionnés ont tous une valeur universelle, jamais anecdotique. Quelle autre preuve faudrait-il ajouter à cette liste pour souligner le rôle central du hasard ? À travers cette histoire, nous voyons combien le scientifique cherche toujours à contourner la part aléatoire du réel. S’il peut réduire les phénomènes à des lois déterministes, il le fait en premier. À défaut, si les aléas sont inévitables, mais peuvent être encadrés, il dispose d’équations probabilistes pouvant parfois convenir. La mécanique quantique en est un bel exemple. Enfin, s’ils sont prépondérants, il peut encore se rabattre sur des méthodes empiriques. Ainsi, nous disposons d’une palette d’outils face aux aléas, mais que nous le voulions ou non, le hasard est toujours là et partout. Si nous cherchons à nous en débarrasser, il revient à toute vitesse. UNE VISION MODERNE DES LOIS DE LA NATURE « Pour les systèmes instables, les lois de la nature expriment ce qui est possible et non ce qui est certain. » Ilya Prigogine

Selon une opinion dominante, ces lois engendrent les phénomènes, et les aléas forment une sorte de bruit de fond susceptible de polluer les prédictions. En terminant ce chapitre, nous verrons qu’il n’en est rien et nous redonnerons au hasard la place qu’il mérite. 58

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

Comme nous l’avons dit, les lois inventées par Newton sous le règne de l’Église anglicane recelaient une composante de nature religieuse : le Seigneur les avait forgées, le monde leur obéissait. De nos jours, les lois dites fondamentales – les équations ­d’Einstein, de Schrödinger et le modèle standard des particules – s’interprètent différemment. Quelle est leur nature profonde ? Depuis les années 1930, nous avons beaucoup progressé dans leur formalisation mathématique. Aujourd’hui, elles sont décrites comme des symétries imposées aux actes naturels. On connaît bien les symétries en géométrie : le carré est invariant si on le fait tourner de 90° autour de son centre ; le cercle est encore plus symétrique puisqu’il se conserve par rotation d’un angle quelconque. Le même concept d’invariance dans une transformation est devenu central tant en relativité qu’en théorie quantique des champs. Dans ces cas, il s’agit de symétries très différentes et abstraites. Sans entrer dans des détails trop théoriques, en voici deux exemples majeurs. En formulant la relativité restreinte, Einstein a mis en lumière une symétrie universelle reliant le temps et l’espace, dite lorentzienne. Ensuite, il a conçu la relativité générale en faisant jouer la même symétrie, non plus globalement dans un espace plat, mais localement dans un espace courbe. À elles seules, ces quatre lignes résument toute la relativité sur un plan théorique : la mise au jour d’une symétrie que tout phénomène respecte. De celle-ci découlent les lois trouvées par Einstein : l’invariance de la vitesse de la lumière, la relation E = mc2, etc. Le modèle standard décrivant l’ensemble des particules (exception faite de celles de la gravitation) repose aussi sur des symétries, non pas dans notre cadre usuel, mais dans des espaces abstraits. Elles servent à exprimer les trois forces : électromagnétique, nucléaires faible et forte. Ainsi, en leur ajoutant la gravitation, les quatre forces de l’Univers se décrivent par des symétries. Dans cet ordre d’idée, une pierre magistrale à l’édifice a été apportée dans les années 1920 par la mathématicienne Emmy Noether qui a

… 59

Partie 1. Affiner notre vision du monde

… découvert un lien fondamental entre les symétries et les invariants. Dans un théorème célèbre, elle démontre qu’à toute symétrie s’associe un invariant et réciproquement. Par exemple, l’invariance de l’énergie ou 1er principe de la thermodynamique naît de la symétrie par translation temporelle : le fait que les lois de la physique soient identiques si l’on pratique une expérience maintenant, plus tôt ou plus tard. Cette découverte est au centre de notre message : la nature se limite à imposer des symétries, donc des invariants.

En exprimant ces symétries, les lois naturelles fixent un cadre contraignant dans lequel se déroule le jeu de la nature, largement mû par le hasard. Les cristaux de glace d’un flocon de neige en sont un bon exemple : ils s’assemblent harmonieusement en respectant une symétrie hexagonale due à la forme de la molécule d’eau. Pourtant, on n’en trouve jamais deux semblables. Les hommes sont tous faits à partir d’une molécule d’ADN, mais ils sont tous différents. Il est excessif de dire que les lois déterminent les phénomènes. Il est plus réaliste de les comparer à une grammaire et à une syntaxe que tout texte doit respecter pour avoir un sens. L’écrivain suit ces règles s’il veut que ses écrits soient compréhensibles, mais en aucun cas elles ne limitent sa liberté d’expression. De même, les lois de la physique se bornent à contraindre le hasard en lui indiquant les possibles et les interdits. À l’inverse, un monde sans aléa et se contentant d’obéir rigoureusement à des lois mathématiques ne présenterait aucune richesse, voire ne pourrait tout simplement pas exister. Quant à Einstein qui a contesté toute sa vie l’aspect probabiliste de la mécanique quantique, il n’aurait pas vu le jour si cette thèse avait été vraie. REMETTRE LE HASARD À LA PLACE QU’IL MÉRITE J’ai été très surpris le jour où j’ai lu, de la plume d’un chanoine, une phrase extraordinaire replaçant le hasard au centre du jeu. Elle 60

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

émanait de l’abbé Georges Lemaître, l’inventeur du Big Bang, qui disait à propos de l’Univers : « Il ne s’agit pas du déroulement, du décodage d’un enregistrement ; il s’agit d’une chanson dont chaque note est nouvelle et imprévisible. Le monde se fait, et il se fait au hasard. » Cette vue des choses datant de près d’un siècle est aujourd’hui plus que jamais d’actualité. Comme nous le verrons, la caractéristique essentielle de l’Univers est d’être finement ajusté entre le chaos et l’ordre excessif. Le chaos est ce à quoi mènerait le hasard débridé. Fort heureusement, les lois physiques sont là pour le contraindre et imposer un minimum d’ordre et de régularité dans le jeu. Nous pouvons illustrer cette idée en reprenant l’analogie avec la ville. Vous profitez d’un jour d’été pour découvrir une belle cité en vous y promenant sans itinéraire prédéfini, guidé par ce que vous voyez, par vos goûts et par vos humeurs. Pendant plusieurs heures, vous faites une longue marche d’une rue à l’autre. Vue de loin, elle ressemble à un mouvement brownien (un processus stochastique). Examinée de plus près, elle suit les régularités imposées par le tracé des rues, les trottoirs, les feux rouges, etc. Ces contraintes ne déterminent aucunement votre cheminement : il est guidé par votre libre arbitre et par le hasard des découvertes. En revanche, elles le contraignent et lui imposent un minimum de régularité. Ce principe est central en mécanique quantique : l’équation de Schrödinger propose différents états pour une particule. Lors d’une mesure, celle-ci bascule dans l’un d’entre eux. La loi physique définit les possibilités, le hasard choisit parmi elles. Il est heureux qu’il en soit ainsi. Un univers dans lequel tout serait déterminé pourrait se décrire d’un seul coup sur un immense registre montrant tous les phénomènes passés et futurs, à la manière du démon de Laplace. Nous ne serions là que pour lire ce texte et l’appliquer à la lettre. Cet équilibre entre lois et hasard est omniprésent. En voici un exemple tiré de l’astronomie. Pourquoi la Terre se trouve-t-elle à la bonne distance du Soleil, nous permettant ainsi d’avoir de l’eau liquide ? C’est une question à la mode à l’époque où l’on recherche 61

Partie 1. Affiner notre vision du monde

les exoplanètes habitables. Les équations de Newton ne l’expliquent aucunement. En revanche, elles indiquent l’existence d’une orbite possible à cette distance de l’étoile, parmi beaucoup d’autres plus ou moins éloignées. Aujourd’hui, nous savons qu’à sa création, notre astre occupait une autre orbite bien plus lointaine. Par le fait du hasard, une planète géante, Jupiter, habitait aussi le Système solaire. Par sa masse, elle a perturbé de façon chaotique toutes les orbites, dont celle de la Terre qui s’est ainsi rapprochée du Soleil. C’est grâce à ce mouvement imprévisible que nous disposons d’eau liquide. Si les planètes sont ce qu’elles sont, cela provient d’une suite infinie d’aléas, que les règles de la gravitation et de la chimie ont contrainte. Nous pouvons voir en cette influence de Jupiter un accident insignifiant. Pourtant, il présente une grande importance : en examinant d’autres systèmes planétaires, nous nous rendons compte que l’existence d’une grosse planète gazeuse est déterminante pour qu’ils puissent abriter un astre habitable. Dans le même ordre d’idées, nous pouvons ajouter un mot intéressant sur Jupiter. Si elle avait été nettement plus volumineuse, elle se serait allumée et serait devenue une étoile. Les lois de la nature se sont limitées à offrir à cette grosse boule de gaz deux possibilités : celle de devenir une planète géante froide et celle de former un second soleil. Le hasard a fait qu’elle n’a pas accumulé suffisamment de gaz pour passer au stade d’étoile. S’il y avait bien plus de matière dans son environnement, nous aurions aujourd’hui deux soleils, un système binaire comme il en existe beaucoup dans le cosmos. Les lois de la gravitation et les forces nucléaires ont défini les possibles et le hasard a opté. Ce type d’équilibre est universel. En voici un second exemple. Darwin est le premier à placer le hasard des variations entre individus au centre de l’évolution des espèces. Celles-ci changent dans le temps parce que chaque membre de la descendance naît avec de petites différences. Pourtant, il ignorait l’existence des gènes et, a fortiori, du processus introduisant ces aléas. Depuis, en découvrant les gènes, 62

L’Univers millefeuille

Pourquoi la physique peine-t-elle à expliquer…

nous avons cru un moment qu’ils déterminaient l’individu (le phénotype), comme indiqué plus haut. Puis, il a fallu admettre que le hasard était aussi à la manœuvre dans l’organisme. Aujourd’hui, la conception moderne du génome est celle d’une simple liste des protéines que la cellule peut exprimer. Il définit l’ensemble des possibles. Ballottée par toutes sortes d’aléas, la cellule utilise ce qui est pertinent pour elle dans cette liste selon sa situation à un moment donné. En résumé, que nous a enseigné ce chapitre ? D’abord, qu’il n’y a pas de pilote dans l’avion. Ensuite, que les lois de la nature et le hasard se partagent les rôles : ils sont consubstantiels. Jacques Monod citait cette phrase de Démocrite : « Tout ce qui existe dans l’Univers est le fruit du hasard et de la nécessité. » Rien n’a changé depuis l’Antiquité. Je dis simplement que les immenses succès de la science nous ont trop souvent laissé penser que le hasard jouait un second rôle. Aujourd’hui, le balancier repart dans l’autre sens vers une position plus équilibrée. Pour finir, j’aimerais citer de nouveau le prix Nobel Ilya Prigogine. Je disais plus haut que les chercheurs ont tendance à s’orienter vers les problèmes se traitant le plus facilement par les mathématiques. Eh bien, cet homme a fait résolument l’inverse. Il a choisi la difficulté en s’attaquant à l’étude des systèmes ouverts loin de l’équilibre, c’est-à-dire soumis aux influences extérieures, alors que traditionnellement, la physique s’intéressait aux systèmes fermés proches de l’équilibre, bien plus faciles à appréhender (ces notions sont reprises plus loin). En voici des exemples. Nous étudions souvent les particules dans un système fermé, c’est-à-dire en les considérant comme confinées dans une enceinte sans échange avec l’extérieur. Au contraire, l’être vivant est un système ouvert : une machine interagissant en permanence avec le milieu. Il absorbe constamment des nutriments ou du rayonnement lumineux. Par ailleurs, il rejette d’autres produits et de la chaleur dans l’environnement. Prigogine a dédié sa vie à étudier ces systèmes dans le cas très général où ils sont éloignés de l’équilibre. Il a découvert de nouvelles lois probabilistes pour les décrypter, en 63

Partie 1. Affiner notre vision du monde

laissant aux aléas leur place naturelle. Pour lui, l’Univers se fait par la combinaison fine du hasard et du déterminisme : « Le hasard pur est tout autant une négation de la réalité et de notre exigence de comprendre le monde, que le déterminisme. Ce que nous avons cherché à construire est une voie étroite entre ces deux conceptions qui mènent aussi bien à l’aliénation, celle d’un monde régi par des lois qui ne laissent aucune place à la nouveauté, et celle d’un monde absurde, acausal, où rien ne peut être ni prévu ni décrit en termes généraux. »14

14.  La fin des certitudes. I. Prigogine. 1996. 64

L’Univers millefeuille

3 Les deux moteurs de l’Univers : l’entropie et l’expansion

Lorsque nous parlerons en détail de la formation des grandes structures, que ce soit l’écosystème galactique, la vie ou la société, vous vous poserez souvent cette question : d’où cela vient-il ? Nous avons évoqué le rôle combiné des lois de la nature et du hasard. Cela suffit-il pour tout créer ? Non, car il faut aussi un moteur puissant pour animer l’Univers. Que peut-il être ? La réponse venant spontanément à l’esprit est l’énergie. Pourtant ce n’est pas tout à fait juste. Pour nous en convaincre, examinons ce qui se produit dans les chutes du Niagara (figure 7). L’eau située en hauteur possède une énergie potentielle. Lâchée dans le vide, elle tombe 57 mètres plus bas. Que devient son énergie ? D’abord, de l’énergie cinétique (liée à la vitesse de chute). Et que devient cette dernière ? Elle provoque simplement un gros bouillonnement où elle se transforme intégralement en chaleur : un léger accroissement de la température de l’eau, c’est tout ! La chute fait le ravissement des touristes, mais en dehors de cela, son énergie ne produit rien : elle se perd en chaleur dans la 65

Partie 1. Affiner notre vision du monde

rivière. Voilà le sort normal de toute énergie : se dissiper en chaleur sans ne rien faire de particulier. Il en va de même dans un incendie de forêt : des dizaines de milliers de tonnes de bois accumulées pendant des siècles sur des centaines d’hectares se consument pour donner quoi ? Du CO2 et de la chaleur, les deux disparaissant rapidement dans l’atmosphère. Ces exemples montrent bien que l’énergie ne suffit pas pour fabriquer les structures et la complexité. Une entité plus qualitative, liée à l’énergie, intervient : l’entropie. Cette notion, plus sophistiquée et moins intuitive, est peu connue du grand public. Elle est pourtant au centre de tout et elle mérite que l’on s’y attarde tout au long de ce chapitre.

Figure 7 | L’énergie potentielle de l’eau des chutes ne produit rien d’autre qu’un très léger échauffement de la rivière.

PLUS QUE L’ÉNERGIE, C’EST L’ENTROPIE QUI ANIME L’UNIVERS Dans l’exemple des chutes du Niagara, l’énergie ne produit rien. Pourtant, il serait possible d’en tirer un travail si l’on y installait une machine hydraulique. Cette idée est une invention datant de l’Antiquité. Au xixe siècle, on a poussé plus loin la mécanisation en utilisant l’énergie thermique. Cependant, en développant la machine à vapeur, on s’est rendu compte que l’on ne parvenait jamais à faire travailler la totalité de 66

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

l’énergie disponible : seule une partie était exploitable (l’énergie libre). La question du rendement des machines devenait alors cruciale. Celui-ci se situait entre deux extrêmes : au plus bas, 0 % d’énergie utile, comme dans le cas des chutes du Niagara, et, au plus haut, un maximum théorique de 100 % correspondant au mouvement perpétuel (en pratique, il n’existe pas). Dans cette fourchette très large, la question était d’obtenir le plus grand rendement possible, mais on butait toujours sur un plafond. Par exemple, dans une locomotive à vapeur, une partie de la chaleur émise par le charbon travaille réellement pour tirer le train en animant les pistons, tandis que le reste se perd inévitablement dans la vapeur relâchée, ainsi que dans le rayonnement thermique de l’ensemble de la machine chauffée à bloc. Des améliorations permettent de réutiliser la vapeur s’échappant des pistons afin de recycler partiellement sa chaleur, mais une part importante de l’énergie finit toujours par disparaître en pure perte. Dans cette course au progrès, en 1824, le jeune physicien Sadi Carnot se rend compte qu’il est inévitable de perdre une partie de la chaleur dans l’échappement, quels que soient les perfectionnements techniques. Il comprend qu’une machine thermique ne peut fonctionner qu’entre deux sources, l’une chaude (le charbon incandescent) et l’autre froide (l’atmosphère). Pour que l’énergie du charbon soit utile, il est nécessaire qu’une partie se dissipe en chaleur dans l’environnement plus froid. Il fallait comprendre d’où venait cette limite théorique au rendement des machines. En 1865, Rudolf Clausius reprend les travaux de Carnot et donne un nom à cette part inexploitable de l’énergie : l’entropie. Pourquoi ce nom signifiant transformation en grec ancien ? Le physicien avait découvert que l’important dans une machine n’était pas tant l’apport d’énergie que sa transformation. On comprend cela facilement avec l’exemple de la voiture. À proprement parler, elle ne consomme pas l’énergie tirée de l’essence. Elle la transforme intégralement en énergie mécanique et en chaleur. En effet, selon le premier principe de la thermodynamique, l’énergie dans toutes ses formes se conserve 67

Partie 1. Affiner notre vision du monde

intégralement. Ainsi, le bilan énergétique total de la voiture est toujours nul : ce qu’elle consomme sous forme d’énergie chimique (venant de l’essence) se transforme très exactement en énergie mécanique, d’une part (pour accélérer), et en chaleur, d’autre part (gaz d’échappement, frottement de l’air sur la carrosserie, friction des pneus sur la route, freins, échauffement du moteur, etc.). La partie utile permettant à la voiture d’accélérer finit aussi par se changer en chaleur quand elle termine son trajet et s’arrête. Au total donc, l’énergie de l’essence s’est entièrement convertie en chaleur. L’important pour que cette transformation puisse fournir un travail, est la différence qualitative existant entre l’énergie chimique et celle de la chaleur : la première est très improbable et la seconde très probable. En effet, pour disposer de l’essence sur Terre, il a fallu qu’au Carbonifère, une grande quantité de biomasse se forme grâce à l’énergie solaire et, au fil du temps, se retrouve enfouie profondément dans le sous-sol. Ensuite, il a fallu qu’à l’abri de l’oxygène, elle s’affine en formant des hydrocarbures. Enfin, il a fallu que l’Homme les extraie et les sépare des goudrons. Tous ces évènements débouchent sur une substance purifiée, très organisée et rare. Son énergie chimique est concentrée dans de longues molécules hautement improbables faites de carbone et d’hydrogène. En quoi se transforment-elles dans le moteur ? Elles se dégradent en petites molécules faiblement énergétiques (eau, CO2) en émettant beaucoup de chaleur, la forme d’énergie la plus probable dans l’Univers. Dans le cosmos, toute énergie se convertit tôt ou tard en chaleur. Cela illustre le principe de Carnot : pour fonctionner, une machine doit dégrader en chaleur, une énergie de nature plus improbable. On qualifie l’essence de faiblement entropique et la chaleur de fortement entropique. Ce processus est à sens unique : il n’est pas imaginable de récupérer la chaleur perdue par la voiture dans l’environnement pour reconstituer une énergie improbable comme l’essence. On appelle cela le deuxième principe de la thermodynamique : L’entropie d’un système fermé ne peut que croître. 68

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

Vous vous demandez peut-être si vous êtes en train de lire un ouvrage du xixe siècle sur la machine à vapeur. Précisons que le sujet qui nous intéresse est bien plus vaste : l’Univers. En effet, nous allons voir que l’entropie est le moteur qui est à l’origine de tout ce que vous pouvez observer et, en particulier, des structures et des phénomènes les plus complexes : les étoiles, les planètes, les êtres vivants, les sociétés, etc. Pour en saisir l’universalité, il faut aller un peu plus loin dans la compréhension des choses. Deux grands physiciens de la fin du xixe siècle, James Clerk Maxwell et Ludwig Boltzmann, ont élaboré une description de l’entropie au niveau le plus fondamental : celui des particules. Par les mathématiques, ils ont montré que les lois de la thermodynamique se déduisaient du comportement statistique des molécules. Il suffisait de les considérer comme de petites billes en mouvement permanent, s’entrechoquant sans cesse. Dans ce modèle mécanique, la chaleur s’assimile à l’énergie cinétique des billes (ellemême liée à leur vitesse). À titre d’exemple, imaginons deux bassines, l’une contenant de l’eau chaude où la vitesse des molécules est élevée, l’autre, de l’eau froide où l’agitation est faible. Si nous les mélangeons, les vitesses vont se moyenner au fur et à mesure des chocs, et nous obtiendrons rapidement de l’eau tiède. Au départ, les molécules chaudes et froides étaient séparées et donc triées, ce qui représentait un état improbable (ordonné). Au contraire, à l’arrivée, l’état homogène et tiède est une forme plus probable (désordonnée). C’est là toute l’idée du deuxième principe : la nature évolue toujours des formes d’énergie faiblement entropiques vers celles qui le sont fortement. L’inverse ne peut se produire que très exceptionnellement et pendant un temps court. Il est impossible de reconstituer l’eau chaude et l’eau froide à partir de l’eau tiède. Ce n’est pas exclu en théorie, mais c’est tellement improbable que l’on peut parler d’impossibilité. Le deuxième principe est une clé importante pour comprendre le fonctionnement de l’Univers. En effet, en se dégradant, l’énergie faiblement entropique peut travailler et fabriquer des structures 69

Partie 1. Affiner notre vision du monde

complexes, comme nous le verrons plus loin. Prenons l’exemple de l’Homme. Nous sommes des machines transformant l’énergie chimique de la nourriture et l’oxygène en chaleur. Nous pouvons qualifier nos aliments de faiblement entropiques (improbables). En effet, ils sont exclusivement faits de matière vivante hautement organisée : celle des plantes et des animaux. Quant à l’oxygène, il n’existait pas dans l’atmosphère terrestre à ses débuts. Il est apparu dans l’histoire il y a plus de deux milliards d’années à partir d’un évènement très improbable : l’utilisation de la fonction chlorophyllienne par les bactéries. Pour maintenir une structure aussi complexe que notre organisme, nous consommons de l’énergie chimique issue de réactions très sophistiquées et nous la dégradons en simple chaleur. Un individu dégage en moyenne 100 watts d’entropie, l’équivalent de la consommation d’une ampoule électrique. Nous parlons là de l’homme seul et dénudé, disons Homo erectus avant la domestication du feu. Dans la société actuelle, avec le chauffage, la mécanisation, les transports, l’électronique, etc., l’entropie émise par tête a décuplé dans les pays en voie de développement et centuplé dans les pays développés. De là vient le réchauffement climatique : pour assurer notre train de vie, il nous faut dissiper cette entropie dans l’environnement. De plus, en dégradant essentiellement des énergies fossiles, nous augmentons la teneur en CO2 de l’atmosphère et amplifions l’effet de serre. Pour terminer cette introduction consacrée à l’entropie, il importe de rappeler qu’il s’agit d’une notion sensible aux échelles. Elle nous est utile au niveau macroscopique, notamment pour animer nos machines, mais comme nous l’avons vu, elle trouve ses fondements dans le comportement microscopique des particules. Au niveau macroscopique, nous distinguons bien les situations peu probables, telles les deux bassines chaude et froide, que nous assimilons à une forme d’ordre. Au contraire, lorsqu’elles ont été mélangées, nous ne discernons plus les différences de température. Alors, nous considérons que l’organisation s’est perdue. En vérité, si nous observions les 70

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

choses à une plus petite échelle, par exemple à celle du millimètre ou du micron, nous verrions toujours des écarts de température et nous ne dirions pas que l’ordre a disparu. Ainsi, l’entropie dépend de l’échelle, comme la longueur de la côte bretonne : si nous ne discernons pas de différences dans l’eau tiède, c’est simplement une forme de myopie. Pour cela, on dit parfois que l’entropie est une notion subjective, mais je trouve bien plus approprié de dire qu’elle dépend des échelles ou du grain. Cette vision des choses nous permet de mieux comprendre ce que nous, humains, voyons de l’Univers. Toutes les structures se formant dans le cosmos s’alimentent en transformant de l’énergie vers une entropie plus forte. Nous verrons comment l’énergie très concentrée et faiblement entropique du Big Bang fait apparaître les étoiles. Elles dissipent cette énergie en un rayonnement restant assez puissant pour se dégrader plus avant. Ensuite, le relais est pris par les planètes : la nôtre transforme cette chaleur en une autre plus douce et plus entropique. La biosphère participe à cette dégradation en utilisant la lumière du Soleil par la photosynthèse et en réémettant de la chaleur à moindre température. Ainsi voit-on l’énergie très faiblement entropique du Big Bang travailler à toutes les échelles en descendant inexorablement vers l’entropie maximum. Au passage, elle fait apparaître les structures complexes : galaxies, étoiles, planètes et êtres vivants (figure 8). Ce flux d’entropie traversant les multiples composantes de l’Univers fait penser à un ruissellement. L’écoulement de l’eau sur Terre se termine toujours dans les océans. Dans le cosmos, l’énergie libre se dégrade aussi vers une limite : le trou noir, objet le plus fortement entropique existant. Dans des centaines de milliards d’années, quand ces derniers auront tout absorbé, le monde aura atteint son état d’entropie maximum. Tout ce que nous sommes et ce que nous observons autour de nous se nourrit de ce flux entropique. En physique, cela se résume en un mot : le deuxième principe de la thermodynamique. Lorsque j’étais étudiant, on le présentait comme la loi de la « dégradation universelle » disant que tout évolue vers 71

Partie 1. Affiner notre vision du monde

Figure 8 | Le ruissellement de l’entropie sculpte toutes les structures de l’Univers.

le désordre : je découvre des rides sur mon visage en me rasant le matin ; je m’aperçois que le jardin que j’ai laissé à l’abandon pendant deux mois est devenu une jungle ; il faut que j’achète une nouvelle voiture, car la précédente a rouillé, etc. Plus tard, j’ai compris que le deuxième principe est, d’abord et avant tout, la source alimentant la montée vers la complexité et la vie. Je suis vivant parce que le Soleil nous envoie un rayonnement hautement énergétique et que la biosphère le consomme en engendrant, à son tour, de l’entropie. À toutes les échelles du cosmos, des structures émergent pour dégrader de l’énergie. Le flux d’entropie joue le rôle d’un aliment leur servant à fabriquer la complexité. Plus tard, il la détruira. LE RUISSELLEMENT DE L’ENTROPIE ANIME TOUTES LES STRUCTURES Après cette section un peu théorique, voici quelques exemples montrant comment l’entropie alimente la montée vers la complexité à toutes les échelles. Pour commencer, rappelons-nous l’exemple des chutes du Niagara : toute leur énergie s’évanouit en entropie sans produire 72

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

quoi que ce soit d’autre. Si le cosmos fonctionnait ainsi, l’énergie du Big Bang se serait dissipée d’un seul coup en formant les objets les plus entropiques que l’on puisse imaginer, les trous noirs. Nous ne serions pas là pour observer un tel univers, au demeurant fort peu intéressant. Il n’en est pas ainsi, car différentes structures émergent et piègent momentanément l’énergie pour en faire bon usage. En voici trois exemples concrets : le Soleil, la Terre, et la cellule humaine. Rappelons d’abord comment le Soleil s’est formé. Le gaz issu du Big Bang (trois quarts d’hydrogène et un quart d’hélium) est faiblement entropique : il est prêt à s’agréger sous l’action de la gravitation en émettant de l’énergie. Dans les 50 premiers millions d’années d’existence de l’Univers, ce gaz commence à faire des grumeaux qui s’effondrent et forment les étoiles. Lorsque la matière se réunit ainsi en un endroit, elle se met à tourner conformément aux lois de la mécanique classique. Alors que la gravitation la pousse à s’effondrer en un seul point pour former un trou noir, la matière se piège elle-même dans un disque d’accrétion15 qui freine considérablement sa chute. Ce disque retient la matière et la laisse tomber doucement vers le centre comme le sable dans un sablier. À partir d’une certaine masse concentrée dans le noyau central, l’étoile s’allume. La lenteur de ce processus nous épargne la formation brutale d’un trou noir. À son tour, l’étoile stocke temporairement de l’énergie faiblement entropique en son sein et rayonne pendant des dizaines de milliards d’années. Son rayonnement provient de la dégradation de l’énergie hautement improbable issue du Big Bang. Par ce mécanisme, le Soleil peut développer une structure complexe faite de courants de convection visibles à sa surface et de puissants champs magnétiques se déployant dans l’espace environnant. Nous observons des projections de plasma incandescent vers l’extérieur. Un fort vent solaire, fait de particules, s’échappe dans le vide sidéral et provoque des aurores polaires sur Terre. Cette entropie de l’étoile est loin d’avoir atteint le niveau maximum de désordre. Elle peut encore être dégradée, ce que la Terre va 15.  cf. LES CLÉS. Page 137. 73

Partie 1. Affiner notre vision du monde

exploiter. Notre planète et nous-mêmes l’utilisons pour émettre encore plus d’entropie. Cela se produit par une transformation du rayonnement lumineux illustrée sur la figure 9. Parmi les photons solaires reçus sur Terre, les plus énergétiques, dans les fréquences visibles et ultraviolettes, sont momentanément piégés dans notre atmosphère par l’effet de serre. La chaleur ainsi accumulée est renvoyée vers l’espace sous forme de photons infrarouges beaucoup moins énergétiques. C’est ainsi que la Terre procède pour dégrader un peu plus l’énergie reçue du Soleil. Il s’agit d’un équilibre très délicat entre les flux de photons reçus et réémis. Aujourd’hui, nous découvrons les risques que nous prenons à le déstabiliser avec nos émissions anthropiques (pire que cela : entropiques !). Les paysages, les êtres vivants et toutes les merveilles que nous offre notre planète sont créés par ce flux d’énergie. Ainsi, la faible entropie du Big Bang « ruisselle » vers les étoiles, puis vers les planètes, avant de s’échapper dans l’immensité de l’espace cosmique. Cela ressemble à l’eau d’un glacier des Alpes qui, en descendant dans la vallée, serait arrêtée par un barrage hydroélectrique, puis reprendrait sa course jusqu’au Lac Léman où elle serait de nouveau stockée avant de poursuivre son chemin vers la Méditerranée en creusant le canal rhodanien. L’eau finit toujours dans la mer, comme l’entropie finit toujours par se dissiper dans l’agitation des particules et le rayonnement (et ultérieurement, en plongeant dans un trou noir).

Figure 9 | Les photons réémis par la Terre sont 20 fois moins énergétiques que ceux reçus du Soleil, mais 20 fois plus nombreux. Ainsi, la planète multiplie par 20 l’entropie qu’elle reçoit.

74

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

La cellule est une magnifique machine à stocker la faible entropie du Soleil pour l’exploiter. Elle la recueille sous forme d’énergie chimique ou lumineuse et la concentre à l’intérieur de sa paroi. Grâce à des protéines très sophistiquées, cette membrane exerce une sélection entre ce qui peut entrer ou sortir. Elle peut emmagasiner les molécules porteuses d’énergie comme les sucres, tout en laissant échapper les résidus du métabolisme. En son sein, des enzymes forcent les multiples réactions chimiques, toutes plus improbables les unes que les autres, conduisant aux molécules les plus complexes tels l’ADN, l’ARN et les protéines. En voyant ainsi les créatures les plus improbables se développer à partir de matière ordinaire, on pourrait penser que la vie se construit en enfreignant le deuxième principe de la thermodynamique. Pourtant, il n’en est rien. Certes, l’apparence est une baisse d’entropie (l’évolution vers un état organisé), mais il ne faut pas oublier l’énorme entropie que les êtres vivants créent en dégageant de la chaleur pour fonctionner. Si l’on fait un bilan complet, on constate que la cellule « paie » son organisation par une très forte émission d’énergie dégradée. Pour comparer les êtres complexes du cosmos et de la vie dans toutes les échelles, l’astrophysicien Éric Chaisson a eu l’idée de mesurer le flux d’énergie qui les traverse, en le ramenant à leur masse. Pour un gramme de matière, il découvre ce résultat stupéfiant : la cellule dégage un flux de chaleur près de 10 000 fois plus intense que celui du Soleil. Comme je l’ai été, vous êtes certainement surpris de l’apprendre16. Deux raisons expliquent ce fait parfaitement contre-intuitif. D’abord, notre étoile est une énorme quantité de gaz fortement dilué. Ensuite, les réactions thermonucléaires dont elle est le siège ne concernent qu’une infime partie de sa masse. En 4,6 milliards d’années, elle n’a « brûlé » (converti en éléments lourds) que 2 % de son poids. À l’inverse, la cellule est un condensé de complexité dans un très petit volume. Sa 16.  Cosmic Evolution. The rise of complexity in nature. E. J. Chaisson. 2001. Le Soleil dégage une énergie de 5 ergs par gramme et par seconde. Pour la cellule animale, c’est 4 × 104 ergs/g/s. 75

Partie 1. Affiner notre vision du monde

membrane assure une forte concentration chimique ; ses enzymes forcent les réactions les plus improbables. Pour y parvenir, elle stocke beaucoup d’énergie et la dégrade en chaleur. Avec la vie, l’évolution naturelle a conduit à la plus grande complexité connue dans l’Univers, accumulée dans un très petit volume. UNE VISION ÉLARGIE DE L’ENTROPIE : L’INFORMATION La notion d’entropie est tellement fondamentale qu’elle s’est révélée de façon inattendue dans un autre domaine des sciences : la théorie de l’information. Pendant la dernière guerre, le mathématicien américain Claude E. Shannon travaille sur le décryptage des messages de l’ennemi, comme le faisait Alan Turing en Angleterre. Ensuite, aux laboratoires Bell, il cherche le moyen de mesurer et d’optimiser la quantité d’information pouvant passer dans une ligne de télécommunication. En 1948, il conçoit qu’elle croît avec le degré d’improbabilité des signaux transmis. Par exemple, le message « Willy a lu Kafka à Zanzibar » représente une quantité d’information supérieure à celle de la phrase « Pierrot a lu Céline à Brest », simplement parce qu’il utilise des lettres moins probables que le second. Pour le comprendre, imaginons que les lettres soient traduites sous forme de chiffres comme c’est le cas dans les communications numérisées. Si nous prenons le soin d’attribuer les numéros les plus petits aux lettres les plus fréquentes, nous réduirons facilement la quantité d’information à transmettre. Shannon exprime cette idée en créant une mesure mathématique de l’information fondée sur les probabilités. En la découvrant, le grand mathématicien John von Neumann lui fait remarquer que ses équations sont analogues à celles de Boltzmann mesurant l’entropie. Cela n’est pas dû au hasard : il vient de découvrir un lien très fort entre les deux concepts. Aujourd’hui, entropie et information sont devenues deux facettes d’une même réalité. Pour comprendre ce rapprochement entre les deux notions, imaginons l’interaction des particules dans une enceinte fermée. Boltzmann 76

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

dirait qu’à travers leurs chocs, leurs vitesses se transmettent de l’une à l’autre jusqu’au moment où la température s’homogénéise. Shannon exprimerait la même chose différemment en disant qu’elles échangent de l’information. Comme de plus en plus de particules se livrent à ces transactions au cours du temps, à un certain stade, l’information est tellement partagée que nous ne pouvons plus la suivre : elle se perd à nos yeux. Ce raisonnement rappelle l’expérience consistant à mélanger l’eau de deux bassines, l’une chaude, l’autre froide : nous pouvons l’interpréter en disant que l’information chaud-froid, de nature improbable au début, s’échange entre les particules jusqu’à devenir indiscernable, c’est-à-dire insignifiante. Par la suite, nous évoquerons cette vision du deuxième principe en disant tout simplement que « l’information tend à se diluer dans la multiplicité des particules ». Cette idée d’exprimer la thermodynamique en termes d’information est devenue étonnamment moderne. Le physicien Carlo Rovelli17 explique comment tout objet conserve des traces de ses interactions avec les autres. La goutte de pluie véhicule l’information de la présence d’un nuage dans le ciel. Le rayon de lumière est porteur d’information sur la couleur ou la température de l’objet qui l’a émis. C’est grâce à ce principe que nous étudions le cosmos à partir de la lumière venue des corps célestes. Avec son spicule, le virus de la Covid-19 véhicule une information sur la vulnérabilité des cellules de nos muqueuses. Plus précisément, au cours de l’évolution, ses protéines de surface ont volé le secret de la forme d’un des récepteurs situés sur les membranes de nos cellules. Derrière cette grande vérité du partage de l’information, Rovelli voit une raison pour s’intéresser moins aux objets eux-mêmes qu’à leurs relations. Nous reprendrons ce thème en parlant de l’évolution future de la physique vers une tendance relationnelle. Le cosmologiste Sean Carroll18 explique comment, en partant d’un état faiblement entropique, l’Univers crée de l’information en 17.  L’ordre du temps. Carlo Rovelli. 2018. 18.  Le grand tout : L’origine de la vie, son sens et l’Univers lui-même. S. Carroll. 2018. 77

Partie 1. Affiner notre vision du monde

­ ermanence. Toutes ses parties interagissent et partagent de nouvelles p informations. « Chacune en apprend sur les autres », pourrait-on dire. Comme ce savoir se partage de plus en plus en descendant jusqu’au niveau des particules, il en vient à se diluer et le monde évolue inexorablement vers l’entropie maximum. Ici, apparaît le caractère fondamental du deuxième principe de la thermodynamique : l’information existe toujours, mais elle finit par se répartir tellement que nous ne la percevons plus. Après son intrusion en physique, la science de l’information est venue fertiliser la biologie. Aujourd’hui, on conçoit qu’un être vivant se résume essentiellement à une énorme quantité d’information accumulée au cours de l’évolution naturelle : la mangouste « sait » qu’il faut attaquer le cobra sous ses mâchoires, là où se trouvent ses glandes à venin ; l’arbre « sait » exploiter les champignons pour mieux tirer les minéraux du sol ; mon estomac « sait » digérer les fruits, etc. Tout ce savoir s’accumule dans l’ADN qui n’est autre qu’un texte écrit avec un alphabet de quatre lettres. Ainsi, l’information stockée par un génome humain, l’équivalent de l’Encyclopedia Britannica, s’affine à chaque génération par l’interaction du corps de chaque humain avec son environnement, se traduisant par la sélection darwinienne. Dans un ouvrage intéressant19, l’informaticien Jean-Louis Dessalles, le biologiste Pierre-Henri Gouyon et l’écologiste Cédric Gaucherel mettent leurs sciences en commun et présentent la vie comme un fil de transmission de l’information. Celle du génome est portée par l’ADN qui n’est qu’un support, tel un disque dur : cette molécule ne serait rien sans l’information pertinente qui s’y est logée. Lors de la reproduction des êtres vivants, l’information passée se transmet tout au long de la descendance : « Dans la lecture de la nature que nous proposons, l’information est ce qui traverse le temps, au-delà des phénomènes matériels qui la portent. Elle constitue le fil de la vie. », écrivent-ils. 19.  Le Fil de la Vie : La face immatérielle du vivant. J-L. Dessalles, P-H. Gouyon et C. Gaucherel. 2016. 78

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

Avec la notion fondamentale d’entropie, l’information fait son entrée dans la description de l’Univers, aux côtés de la masse et de l’énergie. Alors que les sciences traditionnelles traitent de la matière et du rayonnement, l’information est désormais une partie prenante incontournable. Peu à peu, elle acquiert le même statut que les grandeurs physiques usuelles. La figure 8 montre comment l’Univers se structure par le ruissellement de l’entropie depuis le Big Bang jusqu’à un maximum dans les trous noirs. On peut assimiler le monde à une machine thermique fonctionnant entre une source chaude apportant l’énergie et une source froide servant à dissiper l’entropie. Cette vision des choses soulève deux questions essentielles relatives aux deux sources : – Pourquoi, à son origine, l’Univers était-il très faiblement entropique c’est-à-dire ordonné ? – Où s’échappe son entropie ? Nous allons tenter d’y répondre. D’OÙ VIENT LA FAIBLE ENTROPIE INITIALE DU BIG BANG ? Disons-le d’emblée : cette question est un des grand mystères du moment. Nous n’en savons pas assez sur le Big Bang pour la traiter de façon fondée. Je n’ai certainement pas la prétention de connaître la réponse. Je me contenterai de relever, parmi les idées qui circulent sur le sujet, celles qui me paraissent cohérentes avec la vision de l’Univers millefeuille présentée dans cet ouvrage. En premier, interrogeons-nous sur la question elle-même : a-t-elle un sens ? Rien n’est moins sûr. Si nous nous situons à l’origine du Big Bang, nous remontons à un temps situé en deçà de la limite de Planck, là où nos théories deviennent incohérentes. Le mieux que nous puissions faire, c’est extrapoler les lois physiques à ce domaine que Reeves qualifiait de terra incognita. Rien ne nous permet d’affirmer que ces approches spéculatives aient une valeur. Pour s’exprimer autrement, 79

Partie 1. Affiner notre vision du monde

les réponses aux questions sur nos origines par nos connaissances présentes en physique ou bien par référence à une Création divine, n’ont pas plus de fondement prouvé. À cela s’ajoute une difficulté conceptuelle lorsque nous considérons l’Univers comme un tout : nous n’en connaissons qu’un seul – par définition – et nous ne disposons d’aucun moyen de le comparer à quoi que ce soit d’autre. Pire que cela : nous sommes dedans ! L’observateur fait partie de ce qu’il observe ! Comment appliquer la méthode scientifique dans un tel cas ? En termes simples, comment un ver né à l’intérieur d’une pomme décrirait ladite pomme ? Le philosophe Roberto Mangabeira Unger et le cosmologiste Lee Smolin20 voient dans cette question le mythe newtonien. Toute la physique consiste à analyser un système en partant des conditions initiales et des conditions aux limites imposées par l’extérieur. Mais de quel « extérieur » pourrait-il s’agir si l’on parle de l’Univers ? À l’inverse de l’approche newtonienne, les deux penseurs partent de l’idée que les lois et les conditions initiales sont à rechercher dans notre propre histoire, et non depuis un extérieur dont on ne voit pas ce qu’il pourrait être sauf à envisager la Création divine. Ils qualifient ce casse-tête de dilemme cosmologique. Ramener la question de la faible entropie lors du Big Bang au mythe newtonien ne nous a pas fait progresser vers une réponse. Le mystère reste entier. Pour tenter de l’éclairer un peu, nous pouvons revenir à la définition de l’entropie. Il ne s’agit pas d’une philosophie, mais d’une théorie mathématique formalisée par Boltzmann pour modéliser le comportement statistique des gaz, c’est-à-dire celui d’une très grande population de molécules. Or au moment du Big Bang, les particules élémentaires, et a fortiori les atomes, n’existaient pas. Pour étudier l’entropie initiale, il faudrait l’appliquer aux champs qui ont précédé la matière et que l’on ne connaît même pas. Encore une impasse ! 20.  The Singular Universe and the Reality of Time : A Proposal in Natural Philosophy. R. M. Unger et L. Smolin. 2014. 80

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

Pour tenter d’éclairer la question, nous pouvons la formuler d’une manière plus compréhensible en nous plaçant « un peu après » le Big Bang, au moment où les particules sont déjà créées. C’est aussi le stade auquel les lois physiques connues et vérifiées par l’expérience s’appliquent d’une façon fiable. À cette époque, la matière forme une soupe homogène, un plasma. Là apparaît un paradoxe. Nous pourrions penser qu’un tel état soit fortement entropique (probable), car dans la vie courante, lorsque nous mélangeons des liquides ou des gaz en un tout homogène, il s’agit bien d’un état inorganisé et probable. On ne peut pas reconstituer les légumes à partir de la soupe ! Pourtant, le plasma originel, bien que très homogène, a de bonnes raisons d’être faiblement entropique (improbable). Cela a été très bien expliqué par Reeves : ce gaz ne peut rester dans cet état, car les quatre forces de l’Univers vont le pousser vers l’hétérogénéité. D’abord, les interactions nucléaires forte et faible ne s’accommodent pas d’un état uniforme fait de particules élémentaires : elles poussent rapidement les particules à s’assembler en noyaux atomiques. De même, la force électromagnétique impose à ces derniers de se réunir en atomes et en molécules. Enfin, la gravitation ne peut laisser longtemps une telle soupe intacte et homogène. Sous son influence, il se forme des grumeaux, des surdensités qui commencent à s’effondrer sur elles-mêmes. Elles vont donner naissance aux nuages cosmiques, aux galaxies, aux étoiles, etc. Ainsi, contrairement aux apparences, la soupe initiale n’est pas dans un état d’équilibre : elle est nécessairement appelée à se transformer profondément sous l’action des lois physiques. Voilà pourquoi on la qualifie d’état faiblement entropique (voir figure 8). En résumé, la faible entropie initiale proviendrait du caractère homogène du cosmos naissant qui, après l’apparition des quatre forces, se trouve dans un état de déséquilibre. D’où vient cet état initial homogène ? On peut en rechercher l’origine en considérant la meilleure théorie cosmologique des débuts de l’Univers : le modèle inflationnaire. Il énonce qu’à l’origine, un champ unique, l’inflaton, 81

Partie 1. Affiner notre vision du monde

aurait provoqué une expansion fulgurante de l’espace-temps pendant une infime fraction de seconde. Ce faisant, il aurait créé toutes les particules de matière et de force. Il faut insister sur un fait : ce modèle, ou plutôt ces modèles, car il en existe une pluralité, sont à ce jour purement spéculatifs. Néanmoins, nous avons plusieurs raisons très convaincantes de penser qu’une telle inflation a bien existé. C’est pourquoi peu de cosmologistes en contestent le principe, même si aucune description du phénomène ne fait consensus aujourd’hui. Voici ce que peut nous inspirer le modèle inflationnaire au sujet de la faible entropie initiale. Il repose sur un champ unique au départ, c’est-à-dire une entité extrêmement simple, comme le serait un champ magnétique uniforme. L’idée que le simple engendre le complexe sera centrale dans cet ouvrage. Nous en voyons un exemple ici. Pendant l’inflation, ce champ se transforme et en crée d’autres qui, à présent, composent la matière et les quatre forces organisant l’Univers. À la fin de l’inflation, ces nouveaux champs constituent une sorte de « soupe » élémentaire, en état de déséquilibre et fortement encline à se transformer. C’est, à mon sens, la réponse à la question sur la faible entropie de l’origine. Il me semble que plus essentielle encore est la question suivante : pourquoi un seul champ très simple était-il porteur de toute la complexité du monde ? À ce sujet, Reeves a énoncé un principe de complexité : « L’univers possède, depuis les temps les plus reculés accessibles à notre exploration, les propriétés requises pour amener la matière à gravir les échelons de la complexité. » Sur ces sujets, nous sommes à l’extrême limite de la connaissance humaine et dans l’antichambre de la métaphysique. OÙ S’ÉCHAPPE L’ENTROPIE DU COSMOS ? Cette question est tout aussi essentielle que la précédente, mais cette fois, la physique sait y répondre. Nous venons de parler de la source chaude alimentant le moteur de l’Univers : le Big Bang. Comme toute machine thermique, il a aussi besoin d’une source froide où 82

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

l’entropie puisse croître. Il s’agit là du principe découvert par Carnot pour les machines à vapeur. S’agissant de l’Univers, nous concevons facilement que cette source froide soit nécessaire. En effet, l’énorme chaleur dégagée par les étoiles s’accumulerait si elle ne trouvait pas où s’évacuer. Cette lumière nous éclairerait jour et nuit et le cosmos deviendrait un brasier. Son moteur s’arrêterait. Heureusement, ce n’est pas le cas. La chaleur des étoiles a trouvé où se dissiper : dans les trous noirs, mais aussi dans l’espace en expansion. Nous avons vu que ces astres extrêmes étaient les objets les plus entropiques connus. Nous les utiliserons peut-être un jour comme poubelles cosmiques pour y jeter nos déchets ou même la chaleur. Nous serons sûrs de ne pas polluer, car rien de ce qui y entre ne peut en ressortir. Le seul effet de ce nettoyage céleste serait d’accroître un peu la taille des trous noirs. Dans des centaines de milliards d’années, les étoiles auront disparu et il ne restera plus que des trous noirs dans le cosmos, puits sans fond de l’entropie. Pourtant, aujourd’hui ils ne jouent ce rôle que très partiellement. En effet, d’après nos connaissances actuelles, ils sont bien moins nombreux que les étoiles. De plus, et surtout, ils sont beaucoup moins efficaces pour absorber la chaleur que les étoiles ne le sont pour l’émettre. Ce processus est donc trop lent pour nous sauver de la mort thermique à court terme. Heureusement, une autre source froide, très efficace celle-là, fonctionne depuis le Big Bang et pour longtemps encore : l’expansion de l’Univers. Imaginée théoriquement par l’abbé Georges Lemaître, puis constatée expérimentalement par Edwin Hubble, l’expansion21 a pour effet de créer en permanence de l’espace et de diluer le cosmos. En utilisant une bombe aérosols, vous avez certainement constaté qu’elle émet du gaz froid. Cela se produit chaque fois que l’on détend un gaz. De la même façon, l’expansion refroidit l’Univers. Sa température baisse séculairement : de milliards de degrés peu après le Big Bang, elle est tombée à 2,7 K aujourd’hui, la température du rayonnement fossile. Si nous revenons à la figure 8 où l’eau d’un lac de 21.  cf. LES CLÉS. Page 52. 83

Partie 1. Affiner notre vision du monde

montagne ruisselle jusqu’à la mer, nous pouvons dire, par analogie, que la chaleur des étoiles pénètre tout l’Univers avant de s’évanouir dans l’immensité des territoires nouveaux créés par l’expansion pour finir un jour dans les trous noirs. Le ruissellement de l’entropie, du Big Bang vers l’espace en croissance, est le moteur qui anime tout ce que nous voyons autour de nous. Les structures variées du cosmos, les planètes, la vie, l’Homme et notre société, doivent leur existence à cet écoulement. Nous avons dit que la source chaude, le Big Bang, était un état très simple. Il en va de même de la source froide finale, le trou noir. En effet, rappelons qu’un trou noir se définit à partir de trois chiffres seulement, comme s’il s’agissait d’une seule particule élémentaire : sa masse, sa vitesse de rotation et sa charge électrique (s’il en a une). Ainsi, le ruissellement de l’entropie engendre la plus grande complexité en descendant d’un état ultrasimple vers un autre tout aussi simple. Comment cela peut-il se faire ? C’est l’un des secrets les mieux gardés de l’Univers. Nous allons tenter de le percer par une expérience se passant dans une tasse de café au lait. LE « QUATRIÈME PRINCIPE DE LA THERMODYNAMIQUE » : DANS LE MARC DE CAFÉ Nous avons évoqué le premier principe de la thermodynamique (la conservation de l’énergie) et le deuxième (l’accroissement de l’entropie). Le troisième dit que la température ne peut descendre en dessous du minimum nommé zéro absolu (– 273 °C). Nous allons voir qu’il en existe peut-être un quatrième. Dès le début du xixe siècle, le philosophe anglais Herbert Spencer avait eu l’intuition que l’hétérogénéité naissait, non pas de la faible entropie, concept inconnu à l’époque, mais du déséquilibre. Il prenait un exemple similaire à celui déjà vu avec la figure 8. L’eau venant d’un plateau situé en altitude est en déséquilibre puisque son destin est de descendre (figure 10). Puis elle rejoint la plaine en sculptant les reliefs sur son passage. Dans le langage d’aujourd’hui, nous parlerions d’un 84

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

état improbable en haut (faible entropie) et d’un état probable en bas (forte entropie). Dans l’idée de Spencer, le point intéressant est que l’eau se trouve dans un état homogène aussi bien au départ, en altitude, qu’à la fin, dans la plaine. En revanche, pendant sa descente, elle construit des structures hétérogènes : cascades, tourbillons, érosion, aboutissant à des reliefs variés. Si nous assimilons l’hétérogénéité de Spencer à la complexité, nous découvrons une loi importante : lors du ruissellement, elle est inexistante au départ, puis croît jusqu’à un maximum, et, enfin, décroît et disparaît.

Figure 10 | L’intuition de H. Spencer traduite en termes d’entropie.

Ce principe est absolument central, au point que le cosmos luimême lui obéit à grande échelle. Nous avons dit que l’origine de l’Univers était très simple, comme le sera aussi sa fin en trous noirs. Entre ces deux extrêmes, la complexité se développe partout où la faible entropie originale peut s’accumuler et rester stockée pour des millions ou des milliards d’années. Aujourd’hui, cette faible entropie réside toujours majoritairement dans les nuages non encore effondrés. Le reste se trouve bloqué dans les étoiles et autres astres qui distillent de l’entropie au compte-gouttes. Enfin, une fraction de 85

Partie 1. Affiner notre vision du monde

l’énergie, bien moins visible, s’est déjà évanouie essentiellement dans le rayonnement fossile. L’Homme apparaît à un moment de l’histoire où la complexité est très épanouie, peut-être à son maximum. Nous pouvons imaginer que notre civilisation (ou une autre) colonisera le cosmos, ce qui signifierait une très forte progression de sa complexité. Ce monde de gaz et de cailloux accéderait à l’intelligence. Toutefois, il est clair que rien n’est éternel et que le ruissellement s’achèvera un jour lointain dans une simplicité stérile. Découvrant que la complexité naissait d’une transition progressive entre un état initial et un état final rudimentaires, l’astronome Sean Carroll22 a conçu une expérience très simple reproduisant ce schéma. Elle consiste à observer comment deux liquides, l’un noir, l’autre blanc, se mélangent en créant des formes complexes comme un nuage de lait dans notre thé. Vous avez certainement remarqué les figures que cela peut produire temporairement. Parfois, une sorte de champignon atomique de lait se forme et monte vers la surface, puis redescend en s’étant refroidi. Il m’est arrivé d’observer ce phénomène jusqu’à trois fois de suite dans la même tasse avant que tout s’homogénéise.

Figure 11 | Astrophysique et café au lait.

22. Scott Aaronson, Sean M. Carroll, Lauren Ouellette. https://www.scottaaronson.com/papers/coffee2.pdf (2014). 86

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

L’expérience, dite de « l’automate à café », consiste à simuler par ordinateur le mélange de deux liquides de couleur différente, le café et le lait (figure 11). Dans un premier temps, toutes sortes de volutes et de nuages se forment. Puis, cette complexité disparaît progressivement pour aboutir à un café au lait parfaitement homogène. Il s’agit de la même expérience que celle des deux bassines d’eau, chaude et froide, à la différence qu’ici, nous pouvons visualiser comment le mélange se fait. Vous serez peut-être étonné que je parle de complexité pour de simples volutes dans un liquide, mais n’est-ce pas l’image que nous montre le cosmos ? Les nuages cosmiques et les galaxies spirales semblables à des vortex ne rappellent-elles pas un fluide hétérogène en mouvement ? Les formes observées par simulation avec ces deux liquides, des taches dans toutes les nuances de gris, sont quantifiées grâce à deux mesures mathématiques : l’une évalue l’entropie, l’autre, la complexité (méthode de Kolmogorov). Que révèlent ces simulations ? Concernant l’entropie, sa croissance est ininterrompue comme le prévoit le deuxième principe. Quant à la complexité, elle suit exactement l’évolution que Spencer avait imaginée : au cours de l’expérience, elle monte vers un maximum puis elle redescend à zéro (figure 12, dessin du haut). L’enseignement que l’on peut en tirer est plus profond encore si nous introduisons la notion d’information dont nous avions dit qu’elle est l’analogue de l’entropie. La figure (dessin du bas) montre une information sans cesse croissante. Cependant, au fur et à mesure que les liquides se mélangent, les formes deviennent plus petites. Après un instant, elles commencent à ne plus être perceptibles. Dès lors, si l’on s’intéresse à l’information perçue, on constate qu’elle connaît un maximum puis décroît pour finalement disparaître dans le café au lait. Nous retrouvons ce que nous savons de l’entropie : elle est une notion sensible à l’échelle. Si nous placions une loupe devant la tasse, nous discernerions plus longtemps la complexité, mais elle finirait par s’effacer inéluctablement dans les dimensions inférieures. 87

Partie 1. Affiner notre vision du monde

Figure 12 | Évolution de la complexité et de l’information perçue dans un système fermé en déséquilibre.

Indépendamment du grain avec lequel nous observons le café au lait, tôt ou tard, l’information finit par se diluer au niveau des particules, là où il nous est impossible de la suivre. Dans l’Univers, tout suit une telle évolution : l’entropie crée de l’information, mais celle-ci n’est perceptible qu’aux échelles correspondant à notre champ de vision. Nous voyons la Terre, le Soleil et la Galaxie, mais la lumière entropique, qui s’en échappe en direction de l’espace, disparaît de notre écran radar. La création de l’information dans l’Univers a été remarquablement décrite par Reeves (figure 13). À partir du Big Bang, les quatre forces de la nature sculptent le cosmos en évoluant vers l’entropie maximum, autrement dit, la mort. La force de gravitation crée l’information des galaxies, des étoiles, etc., tout cela devant se terminer un jour en trous noirs. Les deux forces nucléaires fabriquent une information sous la forme d’atomes variés. Il en existe 92 aujourd’hui, mais dans un avenir lointain, ils se transmuteront tous en fer, le plus stable d’entre 88

L’Univers millefeuille

Les deux moteurs de l’Univers : l’entropie et l’expansion

Figure 13 | La création d’information cosmique selon Reeves.

eux. Enfin, la force électromagnétique développe aussi l’information en produisant une grande richesse de molécules, la plus complexe étant l’ADN des êtres vivants. Cette immense variété à l’origine de la vie est aussi appelée à disparaître dans un avenir lointain. Alors, seules subsisteront les molécules les plus simples et les plus stables comme celles de l’eau ou du gaz carbonique, avant de se décomposer en particules ou de subir un destin inconnu à l’intérieur de trous noirs. La leçon de l’expérience du café au lait est que la complexité apparente se développe toujours spontanément jusqu’à un maximum. Dans la suite de l’ouvrage, nous évoquerons souvent cela en parlant d’auto-organisation. Certains y voient un quatrième principe de la thermodynamique qui pourrait s’exprimer ainsi : Tout système traversé par un flux d’énergie entre un état faiblement entropique et un autre plus entropique tend à s’auto-organiser. Dans ce sens, il faut voir dans le deuxième principe (l’entropie croissante), le grand bâtisseur du monde. Cependant, de même que le 89

Partie 1. Affiner notre vision du monde

meilleur édifice construit par le meilleur architecte ne sera pas éternel, la complexité du cosmos disparaîtra inéluctablement un jour. Quand le Soleil se transformera en géante rouge d’ici quelques milliards ­d’années, l’immense complexité accumulée sur Terre partira en fumée dans un immense brasier. Entre temps, la vie aura-t-elle essaimé en accumulant plus de complexité ailleurs ? C’est souhaitable, mais rien n’est moins sûr. Même dans ce cas heureux, elle trouvera une fin plus tard.

90

L’Univers millefeuille

Partie 2

La nature fabrique le complexe à partir du simple

91

4 Comment émerge la complexité ?

« La complexité émerge de la simplicité partagée. C’est une des grandes lois de la nature. » Joël de Rosnay

L’ÉMERGENCE À PARTIR DE RIEN (OU PRESQUE) Il est une constante dans l’Univers et dans la vie : la complexité surgit à partir d’objets et de règles très simples. Enfant, j’avais remarqué que dans notre maison de vacances en Espagne, si nous laissions traîner des détritus alimentaires au sol après le déjeuner, en quelques heures les fourmis organisaient des autoroutes reliant ces nutriments à leur fourmilière. Je me demandais comment des êtres dotés d’un système nerveux aussi élémentaire pouvaient démontrer de tels talents d’organisation. Aujourd’hui, on sait que bâtir un tel réseau de transport ne requiert aucune intelligence, même rudimentaire : quelques règles instinctives et olfactives suffisent. Au départ, les fourmis se déplacent au hasard. C’est la première règle. Difficile 93

Partie 2. La nature fabrique le complexe à partir du simple

de trouver plus simple ! Ensuite, si l’une d’entre elles découvre de la nourriture, elle revient à la fourmilière de façon réflexe en déposant des phéromones sur son chemin, tel le Petit Poucet. Puis, les fourmis croisant ces chemins olfactifs les suivent par automatisme. L’informaticien John R. Kolza a simulé ce comportement par ordinateur. Sur un écran, on voit des petits points se déplacer, chacun étant programmé pour suivre ces trois ou quatre règles élémentaires et déposer des signaux sur son trajet. D’autres points représentent des aliments. Au début, les e-fourmis partent en recherche selon un mouvement brownien. En une heure ou deux, on voit le réseau se constituer. Il est amusant de noter que les phéromones permettent même à ces insectes d’optimiser le réseau en sélectionnant les chemins les plus courts. Cela provient simplement du fait que sur les trajets trop longs à parcourir, les odeurs tendent à s’évaporer. Curieusement, ce problème d’optimisation des distances, dit du voyageur de commerce, est l’un des plus difficiles à résoudre en mathématiques. Comment la complexité peut-elle se développer dans le monde minéral ? Nous avons dit que l’énergie faiblement entropique née du Big Bang se dégradait et alimentait la montée vers la complexité. Il nous faut maintenant élucider par quels mécanismes se forment toutes les structures dans le cosmos et chez les êtres vivants. Une première indication vient d’une expérience très banale : en 1900, Henri Bénard découvre qu’en chauffant un liquide, il peut y apparaître spontanément des formes ordonnées. Un récipient plat est chauffé par-dessous (figure 14). Dans un premier temps, le liquide élimine sa chaleur par conduction et il reste à peu près homogène. À partir d’une certaine température, il se produit un changement : on le voit s’organiser en une mosaïque de cellules verticales dont l’effet est d’évacuer la chaleur par convection. Cette apparition spontanée d’une forme d’ordre est qualifiée d’auto-organisation. Le fait qu’une forme organisée apparaisse spontanément semble contraire au deuxième principe de la thermodynamique. En effet, les 94

L’Univers millefeuille

Comment émerge la complexité ?

cellules de Bénard sont des structures improbables par rapport à un simple liquide homogène. Pourtant, elles n’enfreignent aucunement le sacro-saint principe. C’est même l’inverse : elles sont un moyen de dissiper l’entropie plus efficacement que le fait la simple conduction thermique. Elles accélèrent la dissipation et donc la descente vers l’entropie. Aujourd’hui, nous les observons aussi à la surface du Soleil où elles facilitent la transmission de la chaleur interne de l’étoile vers l’espace. Nous retrouvons cette idée que le deuxième principe doit être vu comme l’acteur de l’organisation avant d’être rendu responsable de la dégradation universelle.

Figure 14 | Les cellules de Bénard apparaissent spontanément dans un liquide chauffé.

Plus tardivement, en 1951, le chimiste russe Boris P. Belousov découvre aussi l’émergence spontanée de formes organisées et sophistiquées dans un mélange de réactifs liquides. L’expérience est proche de celle de Bénard, à cela près qu’elle met en jeu de l’énergie chimique plutôt que thermique. À cette époque, il ne parvient pas à publier ses travaux, car les jurys doutent de la véracité et de la signification de ces phénomènes semblant aller à l’encontre du deuxième principe. Dix ans plus tard, ils seront repris par Anathol Zhabotinsky. Il mettra en évidence des réactions oscillantes encore plus compliquées, périodiques aussi bien dans le temps que dans l’espace. Ses études seront enfin reconnues et l’expérience de Belousov-Zhabotinsky (figure 15) marquera l’histoire pour avoir montré qu’en chimie, de l’ordre peut émerger spontanément du désordre.

95

Partie 2. La nature fabrique le complexe à partir du simple

Figure 15 | L’expérience de Belousov-Zhabotinsky provoque des oscillations spatiales et temporelles d’origine chimique23.

L’émergence de structures complexes est si courante qu’elle ne nous étonne pas. Pourtant, il est singulier de voir l’éventail des aspects revêtus par de simples nuages. Qui ne les a jamais contemplés en essayant d’y reconnaître des visages ou des personnages ? Ils semblent se former au hasard et, cependant, ils adoptent toujours les mêmes conformations : les cumulus, les stratus, les cirrus, etc. Toute cette complexité et cette beauté résultent des aléas et de quelques lois élémentaires de la physique régissant la diffusion de la chaleur dans les gaz, l’évaporation et la condensation de l’eau. Toutes ces formes recèlent le même mystère : comment de petites composantes minuscules et myopes peuvent-elles bâtir des structures les dépassant totalement, à des dimensions sans commune mesure avec la leur ? Dans la fourmilière, que représente la petite ouvrière ? Rien. Si elle meurt, la colonie continue sans changement. Si elle survit, elle n’a pas de descendance, car ce n’est pas son rôle. Elle est un simple rouage d’un organisme bien plus grand. L’addition de toutes ces fourmis, des insectes eusociaux, fait émerger un être nouveau doté d’autonomie : la fourmilière. De même, les cellules de Bénard ou les volutes périodiques de Belousov- Zhabotinsky apparaissent à une échelle n’ayant rien à voir 23.  L’expérience filmée en accéléré est présentée sur : https://www.youtube.com/ watch?v=jRQAndvF4sM. 96

L’Univers millefeuille

Comment émerge la complexité ?

avec celle des molécules élémentaires en réaction les unes avec les autres. La différence de dimension entre ces dernières et les motifs observés se mesure par le nombre d’Avogadro24 représentant 23 ordres de grandeur. Comment des molécules agissant à une si petite échelle et ne connaissant que leurs voisines immédiates peuvent-elles former les motifs macroscopiques découverts par ces savants ? De la même façon, les myriades de cellules constituant notre corps ignorent faire partie d’un organisme collectif. Elles ne font qu’agir au hasard dans leur coin, en fonction des contacts avec les cellules adjacentes et les substances chimiques touchant leur paroi. Pour expliquer ce mystère, nous allons utiliser ce que j’appelle le « complexoscope », un outil imaginaire du xxie siècle venant compléter les microscopes et les télescopes de la science traditionnelle. Il s’agit de nouvelles méthodes permettant d’appréhender les comportements collectifs. Elles reposent sur les différentes grilles d’analyse présentées au cours de ce livre. Sur le plan technique, elles font largement appel aux outils de la simulation numérique et de la statistique plutôt qu’aux équations différentielles. Dans un premier temps, ce chapitre va nous montrer que le hasard joue un rôle déterminant, mais aussi qu’il est sérieusement contraint. L’ÉNERGIE NE TRAVAILLE QUE SOUS CONTRAINTE La complexité nécessite un travail. Celui-ci est alimenté par l’entropie comme nous l’avons amplement illustré. Pourtant, l’exemple des chutes du Niagara nous a clairement montré que l’énergie ne produit rien si elle est laissée entièrement libre. Elle ne contribue à structurer le monde que si elle se heurte à des contraintes. Dès l’Antiquité, on a compris comment faire travailler l’eau qui coule (figure 16). Il suffit d’en capter une fraction en amont et de la 24.  Cette constante sert à établir une proportionnalité entre l’échelle des molécules et celle des masses et des volumes usuels. Elle dit que dans une mole de carbone (12 grammes), il y a 6,0 × 1023 atomes. 97

Partie 2. La nature fabrique le complexe à partir du simple

dériver avec une faible pente jusqu’à un endroit en aval où elle pourra tomber. Là, une seconde contrainte sera ajoutée : une roue à aubes.

Figure 16 | Le moulin hydraulique contraint la descente d’une partie de l’eau.

Toutes les machines fonctionnent ainsi. Dans celles à vapeur, on force le gaz chaud à passer dans un cylindre pour pousser un piston. Dans les moteurs électriques, on force l’électricité à passer dans des fils, puis dans des électro-aimants. Les ordinateurs sont des circuits dans lesquels on force le passage des électrons à travers des portes logiques. Dans une centrale nucléaire, on place les atomes dans une situation forçant la réaction en chaîne contrôlée au sein d’un volume fermé, afin de récupérer une forte chaleur. L’art de concevoir les machines est celui d’élaborer des contraintes. Il en va de même au niveau du cosmos. Si l’énergie du Big Bang s’était dissipée sans obstacle, le monde se serait immédiatement effondré sous forme de trous noirs. C’est d’ailleurs ce que l’on observe en simulant des univers-jouets par informatique. Il s’agit de reproductions artificielles (un genre de « complexoscope ») servant à tester différentes valeurs des quatre forces de la nature et de quelques autres paramètres. Certains de ces mondes hypothétiques se transforment très vite en trous noirs. Au contraire, notre univers est particulièrement riche, car la faible entropie initiale se piège en permanence dans de multiples contraintes dont nous allons parler. Nous en avons déjà mentionné un exemple : le disque d’accrétion qui ralentit l’effondrement de la matière lors de la formation d’une étoile. 98

L’Univers millefeuille

Comment émerge la complexité ?

Au niveau de l’être vivant, la meilleure illustration est le métabolisme. Il s’agit d’un ensemble extrêmement sophistiqué de plusieurs milliers de réactions chimiques, pour la plupart très improbables. Elles ont lieu grâce à l’énergie canalisée par les contraintes de l’organisme. Elle est d’abord piégée par la membrane de la cellule sous forme de molécules ou d’ions. Ensuite, elle est convertie en ATP (adénosine triphosphate) et stockée. Cette molécule, présente dans tous les êtres vivants, transporte l’énergie partout où elle est nécessaire. Par ailleurs, les enzymes forcent la plupart des réactions chimiques du métabolisme et utilisent l’ATP lorsqu’un apport d’énergie est requis. Dans l’ensemble, la cellule impose à l’énergie chimique de passer à travers ce réseau de contraintes extrêmement complexe, fait de transformations, de stockages et de goulots d’étranglement. À l’issue de ce parcours du combattant plein de chicanes et d’obstacles, l’énergie finit par « obtenir ce qu’elle voulait » : se dissiper en chaleur (entropie). Que sont ces contraintes poussant l’énergie à travailler et aboutissant à la complexité ? Nous allons en distinguer trois familles. D’abord, à tout seigneur tout honneur, nous commencerons par celles produites par les lois de la nature. Elles définissent ce qui est possible et ce qui est interdit. Puis, nous verrons que tout système fabrique lui-même ses propres contraintes : la rivière creuse un lit qui, ensuite, s’impose à elle comme un chemin obligé. Enfin, nous reviendrons sur ces êtres grands et autonomes qui s’auto-organisent à partir de composants minuscules, comme le nuage, la créature vivante ou la fourmilière. Nous y découvrirons un troisième type de contrainte : la causalité descendante. LE HASARD EST CONTRAINT PAR LES LOIS DE LA NATURE « Les lois physiques connues pourraient tenir sur le dos d’un T-shirt. » Paul Davies

Pour évaluer avec justesse le rôle des lois physiques, il faut se départir des images anthropocentriques. Nous l’avons dit, la 99

Partie 2. La nature fabrique le complexe à partir du simple

tendance humaine est de rechercher un déterminisme derrière toute chose, simplement parce qu’il est vital pour nous de savoir prévoir. Cependant, le déterminisme parfait n’existe que dans les expériences de la science « désossée » des laboratoires de recherche. Il est beaucoup moins présent dans la « vraie vie » où le hasard peut s’exprimer plus librement. Que dit la physique sur le cours de la rivière descendant de la montagne ? Elle énonce qu’il résulte de la transformation de l’énergie potentielle de l’eau en énergie cinétique. Une fois cela dit, nous ne sommes pas plus avancés pour expliquer le cheminement précis suivi par l’eau. En effet, les aléas sont présents à tout endroit pour le dévier vers la droite ou vers la gauche. La moindre pierre, la moindre racine ou le moindre castor s’en chargeront. Avant Newton, c’était Dieu qui décidait du cours de la rivière. Après les Philosophiae naturalis principia mathematica, ce furent les lois de la nature, ellesmêmes créées par Dieu. L’idée a été tenace pendant plusieurs siècles. Einstein lui-même recherchait les lois profondes de l’Univers en y voyant l’œuvre du Créateur : « Je veux savoir comment Dieu a créé ce monde. Je ne m’intéresse pas à tel ou tel phénomène. Je veux connaître ses pensées, le reste n’est que détails. » Aujourd’hui, sans que cela conduise à rejeter l’existence de Dieu, nous concevons plus les lois de la physique comme des données naturelles ayant probablement émergé à partir d’autre chose, peut-être d’une réalité sousjacente qui nous échappe, située dans des dimensions inférieures à la longueur de Planck. Les quelques lois tenant sur le dos d’un T-shirt ne sont donc pas à confondre avec les dix commandements. Si la pensée scientifique a été profondément influencée par l’idée religieuse, elle reste aussi biaisée par un trait humain peut-être plus profond : comme nous l’avons déjà dit, notre cerveau est construit pour observer, compresser l’information et anticiper. À l’instar de celui de tous les mammifères, notre néocortex analyse continuellement tout ce que nous captons du monde et cherche systématiquement à réduire ces données sous forme de modèles permettant de prévoir. Selon des thèses récentes en neuroscience, le cerveau compare en 100

L’Univers millefeuille

Comment émerge la complexité ?

permanence les perceptions avec les modèles qu’il a forgés et gardés en mémoire. Si l’observation correspond grosso modo aux prédictions, le travail cérébral s’effectue inconsciemment. En revanche, si un écart significatif apparaît entre les deux, alors l’information passe dans le champ de la conscience et appelle une action raisonnée. Par exemple, la plupart des gestes de la conduite auto­mobile se font inconsciemment. C’est pourquoi nous pouvons conduire en conversant ou en écoutant une émission de radio. Néanmoins, si un obstacle se présente en travers de la route, notre conscience « prend le volant ». Ainsi, depuis l’époque où nous avons passé le permis de conduire, notre cerveau inconscient a forgé un modèle sophistiqué de tout ce qui se produit habituellement en roulant. Cela va jusqu’à trouver sans réfléchir la bonne vitesse pour franchir un virage sans être déporté. Nous passons toutes ces situations au crible de nos modèles, tout en sachant qu’ils peuvent parfois être mis en défaut. L’Homme préhistorique se trouvant face à une bête féroce savait que ses modèles ne lui diraient pas si l’animal allait attaquer ou au contraire, fuir. En revanche, ils lui dictaient quoi faire dans un cas comme dans l’autre. Nous avons, bien ancrée en nous, cette croyance en une nature déterministe sauf par exception. L’évolution (l’inné) et notre éducation (l’acquis) ont construit notre cerveau pour nous diriger dans la vie en formant des schémas causaux et en minimisant toute possibilité d’erreur. À force de vouloir éliminer le hasard, notre intellect a fini par sous-estimer la place qu’il tient dans la réalité. Depuis Galilée, Kepler et Newton, les modèles forgés par l’Homme ont pu être considérablement compressés grâce aux mathématiques, au point de se résumer à quelques équations tenant sur le dos d’un T-shirt. De là est née la notion des lois de la physique. Elles ont doté la science d’outils théoriques merveilleux et se montrent rigoureuses en laboratoire. Plus exactement, elles rendent bien compte des systèmes proches de l’équilibre, mais non de ceux qui en sont éloignés. Par exemple, nous avons déjà dit que la mécanique des fluides décrivait bien les états statiques ou les écoulements laminaires, mais non les 101

Partie 2. La nature fabrique le complexe à partir du simple

comportements turbulents. Dans l’Univers, comme l’a bien précisé Prigogine, la majorité des phénomènes se trouve dans des états de déséquilibre. Selon lui, « Pour les systèmes instables, les lois de la nature expriment ce qui est possible et non ce qui est certain. » Nous retiendrons une définition pratique et réaliste des lois physiques s’approchant de ce point de vue : elles définissent les possibles et les interdits. Cette vision des choses ne retire rien à l’importance de ces lois. Elles sont omniprésentes tel un règlement s’imposant, qu’on le veuille ou non. Leur effet est avant tout d’empêcher que le monde ne devienne chaotique. Pour reprendre l’exemple de la rivière, le hasard va orienter son cours vers la droite ou vers la gauche, mais il est sérieusement encadré par les lois de la nature : l’eau ne peut ni remonter la pente ni sauter les obstacles en s’envolant temporairement. Grâce à cela, nous pouvons prévoir en partie son écoulement, en tout cas suffisamment pour trouver l’endroit favorable où placer un moulin hydraulique. En revanche, notre capacité de prévision ne va pas jusqu’à anticiper le cours exact suivi par la rivière. Les lois naturelles agissent comme un guide assurant la régularité du monde. Ce fait se reconnaît dans tous les domaines. Les contraintes des lois de la gravitation et de la transmutation nucléaire impriment aux étoiles une forme bien connue. Elles instaurent un équilibre durant des milliards d’années. Sur Terre, même s’il reste fondamentalement peu prévisible localement, le climat est globalement assez stable pour permettre le développement des espèces. Cette stabilité résulte des contraintes imposées par les lois sur les échanges de chaleur et d’humidité entre la mer, l’atmosphère et la terre. Dans l’arbre, l’écureuil saute où il le souhaite d’une branche à l’autre en respectant avec maestria la gravitation newtonienne. Grâce aux lois physiques, nous savons suffisamment prévoir pour mener notre vie de façon stable malgré les nombreux aléas. En allant au marché, nous trouvons un nombre limité de fruits et de légumes parmi lesquels nous allons choisir. Nous savons aussi qu’il ne faut 102

L’Univers millefeuille

Comment émerge la complexité ?

pas ramasser n’importe quel champignon dans la forêt. Ces lois imposent un comportement répétitif et compréhensible à tout ce que nous voyons. Ce sont les règles chorégraphiques suivies par les phénomènes naturels au cours de leur grand ballet infini et aléatoire. Ainsi, nous pouvons retoucher l’idée généralement admise disant que la nature est organisée par des lois, quelque peu perturbées par le hasard. En vérité, elle semble plutôt s’organiser par le hasard, luimême contraint par des lois physiques. LE HASARD EST AUSSI SUJET AUX CONTRAINTES QU’IL CRÉE LUI-MÊME Un second type de contraintes oblige l’énergie à travailler et à construire la complexité : ce sont les obstacles que les systèmes s’imposent à eux-mêmes. Nous disions que la rivière creuse son lit, lequel devient ensuite un chemin obligatoire. Poursuivons cette analogie avec l’exemple anecdotique d’un fleuve espagnol : l’Èbre. Il trouve sa source en Cantabrie dans le nord du pays, à 40 kilomètres de l’Océan Atlantique. Pourtant, il a creusé son lit sur plus de 900 kilomètres pour aller se jeter dans la Méditerranée près de Tarragone. Pourquoi ? Dans un massif montagneux, un ruisseau passe parfois sur la crête d’un talus. De là, il peut tomber d’un côté ou de l’autre. Les aléas du terrain, une pierre, une branche d’arbre tombée, l’obligent à « choisir » un côté. D’une façon similaire, lorsque vous êtes face à une bifurcation de la route, vous êtes forcé d’opter pour une des deux directions. Les lois physiques se limitent à dire que les deux versants sont des chemins possibles pour le cours d’eau. Une fois que le hasard a poussé l’eau d’un côté, elle va poursuivre sa route et creuser les reliefs dont elle sera prisonnière, jusqu’à rencontrer une autre bifurcation. On pourrait dire que c’est le relief qui impose le dessin du lit de l’Èbre. Pourtant, ce n’est pas tout à fait vrai : on observe le même phénomène en terrain presque horizontal et dépourvu de relief. Dans ce cas, une rivière forme d’elle-même ses propres méandres. Dans la 103

Partie 2. La nature fabrique le complexe à partir du simple

partie externe des virages, l’érosion par l’eau est maximum, ce qui tend à déplacer les lacets. À ce jeu, les parties courbes en rejoignent d’autres, modifiant à chaque fois le lit substantiellement. La figure 17 représente les traces d’anciens méandres observables à l’infini, là où passe le Mississipi aujourd’hui. Le fleuve fabrique et modifie en permanence son lit, c’est-à-dire la contrainte s’imposant à son propre écoulement.

Figure 17 | Le lit du Mississipi croisant ses anciens méandres.

L’analogie avec les rivières ne nous a-t-elle pas égarés vers des choses insignifiantes et fort éloignées de nos préoccupations concernant l’Univers ? Certainement pas : l’exemple de la rivière élaborant ses propres limites se retrouve dans les fondements de… la relativité générale. Que nous dit Einstein ? Le fait que tous les corps tombent de la même façon dans le vide, indépendamment de leur masse, laisse fortement penser que la gravitation n’est pas une propriété des corps eux-mêmes. Elle semble plutôt se rattacher à l’espace-temps dans lequel ils évoluent. Effectivement, pour le savant, la force de gravitation entre corps massifs n’existe pas en tant que telle. En revanche, selon ses équations, toute masse « creuse » l’espace. Ce terme est 104

L’Univers millefeuille

Comment émerge la complexité ?

difficile à saisir, car l’esprit humain se représente les courbures en une ou deux dimensions, c’est-à-dire sur les lignes ou les surfaces, mais non dans les volumes et encore moins dans l’espace-temps à quatre dimensions. Une fois une telle « dépression » formée, les autres masses tendent à y tomber naturellement, d’où l’impression de force à distance. Bien sûr, ces dernières creusent aussi le tissu de l’espace autour d’elles. De tout cela résulte ce qui ressemble à des forces d’attraction sans l’être vraiment. Le théoricien de la relativité John A. Wheeler résumait la gravitation d’Einstein en disant : « La matière dit à l’espace comment il doit se courber, et l’espace dit à la matière comment elle doit se mouvoir. » En d’autres termes, la rivière dit où il faut creuser le lit, et le lit dit à la rivière où elle doit passer ! Grâce à ce principe très général, la gravitation modèle l’ensemble de l’Univers, ses galaxies, ses étoiles, ses planètes et ses nuages. En courbant l’espace, tous ces objets célestes créent des contraintes s’imposant à eux-mêmes et aux autres. En se perdant dans ces nombreux méandres, le cosmos résiste à sa tendance naturelle à s’effondrer en trous noirs. Il oblige l’énergie faiblement entropique du Big Bang à travailler pour engendrer la complexité. Pour continuer sur ce thème, reprenons un exemple déjà cité plus haut : celui de la formation du Système solaire. À vrai dire, les lois de la physique nous renseignent fort peu sur l’origine des planètes. Pour les comprendre, il faut remonter avant leur naissance, à l’époque très reculée où une ou plusieurs supernovas s’étaient produites dans notre région de la Voie lactée. Ces explosions avaient disséminé de l’hydrogène et de l’hélium dans l’espace interstellaire, mais aussi des éléments lourds : oxygène, carbone, métaux, etc. Sous l’action des lois de la gravitation, cette matière a commencé à s’agréger, mais ces lois n’expliquent en rien pourquoi cette zone de l’espace était riche en éléments légers ou lourds, ni pourquoi l’agrégation a commencé à se faire en tel ou tel endroit. Quand cette matière a alimenté la croissance du disque d’accrétion à l’origine du Système solaire, un environnement sophistiqué et fertile s’est constitué. Il a élaboré les 105

Partie 2. La nature fabrique le complexe à partir du simple

nombreuses contraintes ayant joué sur l’apparition des planètes. Au cours de leurs multiples chocs, ces astres naissants ont grossi et ont fusionné. Parfois, ces protoplanètes se sont désagrégées lors des collisions. Dans ce ballet essentiellement mû par le hasard, une contrainte majeure a été la présence fortuite d’une grosse planète gazeuse, Jupiter. Nous l’avons déjà vu, elle a sérieusement perturbé le Système solaire en formation. Elle a déplacé les orbites de ses planètes sœurs, ce qui a finalement abouti à la position favorable où se trouve la Terre. Ces mouvements chaotiques montrent bien que le Système solaire n’est pas un mécanisme d’horlogerie parfaitement huilé comme on le pensait jusqu’à la fin du xixe siècle. Certes, les lois de Newton ont joué un rôle important en fixant quelques règles chorégraphiques, mais nos planètes résultent d’abord et avant tout d’un jeu complexe où toute partie du système a imposé des contraintes aux autres. Grâce à cela, les masses de gaz et de poussières réunies dans cette région de la Galaxie n’ont pas formé un trou noir, mais ont travaillé pour élaborer une étoile et de magnifiques planètes. Un autre exemple déjà abordé est celui de la cellule vivante. De par sa construction, elle présente de nombreuses contraintes forçant les molécules et l’énergie à emprunter des chemins hautement improbables. La première est imposée par sa paroi : elle lui permet d’isoler dans son cytoplasme, un milieu concentré et favorable. On y trouve de multiples membranes formant des organites (réticulum endoplasmique, appareil de Golgi, vésicules de toutes sortes, etc.). Ces contraintes internes guident l’élaboration des protéines. À leur tour, ces dernières construisent de nouveaux obstacles. Certaines s’assemblent en un exosquelette, système mobile qui donne une forme à la cellule et assure le transport de différentes substances ou composantes d’un endroit à l’autre. D’autres protéines, les enzymes, contraignent sévèrement les réactions chimiques. En observant ce monde complexe25, nous 25. Dans Une Visite guidée de la cellule vivante (1987), le prix Nobel Christian de Duve, grand spécialiste de la cellule, décrit le voyage fictif d’un scaphandrier qui serait parvenu à entrer dans une cellule. 106

L’Univers millefeuille

Comment émerge la complexité ?

comprenons qu’il n’a pas été conçu comme un mécanisme d’horlogerie, mais plutôt comme une succession hallucinante de méandres, d’obstacles, de chicanes et d’accidents de terrain, qui obligent l’énergie et la matière à travailler pour faire vivre la cellule. Les contraintes élaborées par les êtres vivants sont créatrices : les Anglo-Saxons parlent d’enabling constraints. D’où viennent-elles ? Elles sont mises en œuvre par les protéines, lesquelles sont définies par les gènes. Et ceux-ci, d’où viennent-ils ? De la sélection naturelle. Et d’où vient la sélection naturelle ? Elle naît de la confrontation de chaque individu d’une espèce avec… une autre contrainte : celle de son environnement. Ainsi, l’ensemble de la biosphère s’est construite comme un labyrinthe de contraintes à travers lequel l’énergie libre est obligée de passer, à l’image du relief de la montagne contrariant sans cesse l’écoulement de l’eau. Ces jeux complexes et intriqués de chicanes de toutes sortes ne peuvent être décrits par la physique, car ses lois supposent de fixer les conditions aux limites. En effet, la méthode traditionnelle réductionniste simplifie excessivement le système étudié et lui donne un cadre fermé et fixe. Or la nature passe son temps à changer ce que nous appelons les conditions aux limites. Roberto Mangabeira Unger, homme politique et philosophe brésilien très féru de sciences, exprime cette idée en parlant de dépendance du chemin. Il dit qu’à l’instant t, un phénomène est déterminé non seulement par les lois physiques, mais plus encore, par une longue chaîne d’évènements passés. Par exemple, la formation d’une roche résulte d’un historique ancien et varié d’enfouissements dans le sous-sol, de compressions, d’échauffements, d’infiltrations d’eau, de résurgences, d’érosion, etc. Ce chemin compliqué, largement tracé par le hasard, provient aussi d’une succession de contraintes dont celles que la roche elle-même a fait naître. Après avoir décrit le rôle des lois physiques, nous venons de voir un second type de contraintes : celles que les systèmes complexes fabriquent d’eux-mêmes. Comme tout interagit dans l’Univers, ils 107

Partie 2. La nature fabrique le complexe à partir du simple

les imposent aussi aux autres phénomènes adjacents. Aussi pouvonsnous parler plus généralement de contraintes environnementales. Il nous reste maintenant à en découvrir un troisième type. Plus élaboré, il est à l’origine des structures les plus sophistiquées, qualifiées d’émergentes. LA CAUSALITÉ DESCENDANTE Nous avons déjà amplement décrit les systèmes émergents. Ils proviennent du comportement collectif d’un grand nombre de particules ou de composants élémentaires : atomes, molécules, cellules, insectes, neurones, citoyens dans une société, etc. Nous voyons se dégager un phénomène macroscopique tendant à devenir autonome. Le tout paraît être plus que ses parties, car nous ne pouvons plus le décrire à partir de la seule conduite de ses constituants. Nous allons maintenant poursuivre ce raisonnement un cran plus loin : une fois le tout formé, il impose ses propres contraintes à ses composants. C’est ce troisième type qu’il nous reste à voir. L’exemple de l’étoile26 est très représentatif. Le point de départ est simple : c’est le gaz issu du Big Bang, presque exclusivement fait d’hydrogène et d’hélium. Dans ce milieu homogène, des grumeaux apparaissent, car la gravitation tend à effondrer la matière sur elle-même. Ces surdensités s’accumulent en certains endroits et se mettent à tourner. Au centre de ces disques d’accrétion, le gaz se concentre et chauffe. Une fois allumée, l’étoile devient une boule en équilibre entre deux forces : la gravitation qui cherche à l’effondrer en trou noir, et les réactions nucléaires qui lui opposent une pression inverse. Il est heureux que cette situation reste stationnaire pour longtemps, car nous lui devons la vie. Une fois formée, l’étoile laisse se dérouler les réactions nucléaires à « petit feu ». Ce « mijotage » convertit une petite partie du gaz en éléments lourds. L’explosion atomique n’a pas lieu, car l’astre lui oppose une forte contrainte : la gravitation 26.  cf. LES CLÉS. Page 168. 108

L’Univers millefeuille

Comment émerge la complexité ?

l’enferme dans ce qui ressemble beaucoup à la cuve d’une centrale nucléaire. Michel Cassé, grand spécialiste des étoiles, résume cela en une phrase : « Le Soleil est un réacteur nucléaire à confinement gravitationnel fonctionnant sur le mode de la fusion nucléaire. » Cet exemple met en lumière deux causalités : – la première, montante, provient des lois de la physique animant les molécules du gaz. Elle est à l’origine de la formation de l’astre ; – la seconde, descendante, est imposée en retour auxdites molécules par l’étoile elle-même. Elle joue le rôle d’une enceinte empêchant l’explosion. Ainsi, l’astre se trouve maintenu dans l’état juste sous-critique. Dans la plupart des systèmes complexes émergents, nous retrouverons cette double causalité. Elle a été dépeinte de manière générale par Christopher Langton (figure 18), spécialiste de l’intelligence artificielle et de la simulation de la vie par ordinateur. Nous ne pouvons comprendre l’étoile si nous nous limitons au flux montant ; il faut aussi intégrer les contraintes que le tout exerce sur ses parties.

Figure 18 | Causalité montante, causalité descendante dans l’étoile.

Nous allons en voir de nombreux exemples relevant de toutes les échelles et de tous les domaines de la nature. 109

Partie 2. La nature fabrique le complexe à partir du simple

Déjà au niveau le plus élémentaire, celui des particules, nous voyons apparaître la causalité descendante avec le phénomène de la décohérence. De quoi s’agit-il ? Depuis les années 1920, la mécanique quantique nous enseigne que les particules obéissent à des lois étranges : elles sont ondes et corpuscules à la fois, elles revêtent plusieurs états en parallèle, elles sont capables d’actions à distance, etc. Pourtant, elles font émerger le monde classique, celui qui nous est familier, où aucune de ces caractéristiques bizarres ne se manifeste. Comment se fait le passage de l’état quantique à l’état classique ? Cette question a fait couler beaucoup d’encre, notamment avec l’image mythique du Chat de Schrödinger reprise plus loin. Aujourd’hui, nous savons d’où vient ce changement : dès que les particules sont en nombre important, ou bien tout simplement dès qu’elles interagissent avec un objet macroscopique, elles perdent leurs propriétés quantiques. Ce faisant, elles obéissent aux règles classiques auxquelles nous sommes habitués. Ainsi, dans un laboratoire, en l’absence d’une isolation très poussée, la simple présence de lumière, d’air et de chaleur dans la pièce, les dénature en un milliardième de seconde : on dit qu’elles décohèrent. Ce phénomène a été décrit sur le plan théorique et il est observé dans tous les laboratoires. Nous pouvons l’assimiler à une causalité descendante venant du macroscopique vers le microscopique. En effet, dans l’état quantique (flou), les fonctions d’ondes des particules s’enchevêtrent et forment des interférences (état cohérent). Au contraire, si leur nombre dépasse un certain seuil, cela noie les interférences et nous entrons dans le comportement classique (état décohéré). C’est donc la quantité de particules environnantes qui force une transition : si elles sont en nombre suffisant, elles constituent un tout qui impose des contraintes descendantes au niveau microscopique. Aujourd’hui, les pionniers cherchant à construire les premiers ordinateurs quantiques se battent tous les jours contre cette causalité.

La Terre nous donne un autre exemple. Tous les êtres vivants, et la chimie complexe qu’ils ont développée, ont profondément changé la 110

L’Univers millefeuille

Comment émerge la complexité ?

surface de la planète. En certains endroits, tout ce que vous percevez autour de vous résulte de l’activité de la vie : la flore et la faune, l’oxygène de l’air provenant de la photosynthèse, les pierres calcaires dues aux êtres monocellulaires marins, l’asphalte de la route, un reste fossile de la végétation florissante du Carbonifère, etc. Ainsi façonnée par la vie, la planète a acquis un comportement autonome en symbiose avec elle. En 1970, cela a poussé l’écologiste James Lovelock à la comparer à un super-être vivant baptisé Gaïa, du nom de la divinité mère des dieux en Grèce antique. Grand spécialiste de l’atmosphère, il avait étudié comment les mécanismes physiques et biologiques concouraient à former une atmosphère stable. Il voyait en notre planète un être en interaction avec les espèces de la biosphère. Ses théories ont été décriées pour leur parfum ésotérique. Néanmoins, il en reste que la Terre est bien un objet complexe qui se maintient avec stabilité (en homéostasie) et impose une causalité descendante à la biosphère. Si nous continuons à aggraver l’effet de serre, nous en découvrirons avec amertume une fâcheuse illustration. La vie est aussi née d’un mécanisme du type de celui décrit par Langton. Nous pouvons supposer que dans les océans de la Terre primitive, probablement dans les cheminées hydrothermales, une chimie extrêmement riche s’est développée. Un évènement essentiel dans l’apparition de la vie a été l’encapsulation de cette activité dans une membrane. On sait que ces dernières se forment spontanément dans un milieu suffisamment varié chimiquement. Enfermée dans une telle enceinte, la chimie pouvait évoluer avec de fortes concentrations et s’enrichir comme le bon vin élabore des arômes complexes en vieillissant dans la bouteille close. En triant ce qui peut entrer ou sortir, la cellule imposait aussi de fortes contraintes sur le métabolisme. Ainsi, à l’intérieur pouvaient se produire des réactions chimiques inenvisageables à l’extérieur. Aujourd’hui, après 3,8 milliards d’années d’évolution, la cellule nous apparaît tel un être autonome imposant ses règles à ses parties. Au cours des générations successives confrontées à l’environnement, cette causalité descendante s’est progressivement 111

Partie 2. La nature fabrique le complexe à partir du simple

inscrite dans le génome. Elle est devenue tellement tyrannique que pratiquement toutes les réactions chimiques dans la cellule, qui se comptent en milliers, sont forcées par des enzymes, elles-mêmes répliquées à partir de l’ADN. Trois milliards d’années après la première bactérie, ont émergé les êtres multicellulaires. Ces organismes ont contraint si fortement les cellules, qu’ils les ont converties en simples rouages d’une grande mécanique. Une sorte de « contrat » a été passé entre eux et elles : chaque cellule exécute sa fonction en obéissant aux règles du tout, en échange de protection et de nourriture. Cette organisation s’exprime dans le langage complexe des molécules : ADN, ARN, protéines, enzymes, hormones, etc. Si d’aventure, certaines cellules ne respectent pas le « contrat » et jouent cavalier seul, c’est le début d’un cancer. De là vient l’idée que cette maladie est probablement aussi ancienne que la vie multicellulaire. Les espèces d’insectes eusociaux tels les termites, les abeilles et les fourmis, nous donnent d’autres exemples de causalité descendante forte. Ces animaux, organisés en colonies, se distinguent par quelques caractéristiques communes : – une division du travail : seuls certains individus assurent la reproduction, les autres se spécialisant sur différentes tâches productives  ; – une coopération dans les soins apportés aux plus jeunes ; – une forte cohésion des membres grâce à des échanges intenses. Cela rappelle quelque peu l’organisation des cellules dans l’être multicellulaire. À juste titre, nous pouvons considérer ces sociétés comme de super-organismes illustrant le mécanisme de Langton. Par exemple, un facteur externe affectant la ruche, comme une température excessive, déclenche un réflexe chez les insectes : ils battent des ailes pour ventiler. Ce comportement collectif de thermostat et de climatiseur est né de mutations de l’espèce, visant à améliorer l’adaptation de la colonie. En voici une seconde illustration : pourquoi les abeilles enfumées ne piquent-elles pas ? Curieusement, la réponse ne se trouve 112

L’Univers millefeuille

Comment émerge la complexité ?

pas chez l’individu : agressé par la fumée, sa tendance naturelle est de se défendre et de piquer. Elle réside plutôt dans le groupe. En effet, l’intérêt général de la ruche veut qu’au cas où elle rencontre des conditions hostiles comme la fumée, elle cherche un autre endroit pour s’établir. Alors, chez toutes les abeilles, s’exprime un même gène induisant une réaction grégaire et une propension à essaimer. Dans cette disposition, pris dans ce comportement collectif, l’individu cesse de se défendre ou d’être agressif, car sa priorité est de partir avec la reine pour installer la colonie ailleurs. Ainsi, quand l’apiculteur enfume une ruche pour ne pas se faire piquer en retirant le miel, il déclenche un phénomène de groupe modifiant la conduite des abeilles : il exploite temporairement la pression de la colonie sur ses membres, une caractéristique inscrite dans leur génome. Nul doute que ces espèces eusociales sont organisées de façon performante. La somme des informations échangées dans la ruche ou la fourmilière excède de loin celle que les individus traiteraient s’ils vivaient seuls. On estime que plus des deux tiers de la masse d’insectes occupant la forêt vierge sont constitués de fourmis. L’apparition de la conscience dans le cerveau humain est un autre exemple intéressant. Nous commençons timidement à élucider ce qu’elle peut être. Nous avons décelé des structures de neurones se ramifiant de façon à pénétrer l’ensemble de l’encéphale. Il semble que ces réseaux servent à centraliser et à interpréter des informations venant de toutes ses parties, puis à forcer certaines pensées ou actions. Ces réseaux de neurones paraissent s’être approprié le rôle de surveiller et de contrôler les autres. Sachant qu’un cerveau humain contient près d’une centaine de milliards de neurones, le fait que certains s’intéressent aux autres n’a en soi rien d’étonnant. Une fois apparue, la conscience impose ses volontés à la communauté neuronale, comme une causalité descendante. Ce serait la principale différence entre notre cerveau et celui du singe. Voici maintenant un dernier exemple concernant la société. Dès les stades les plus primitifs de la vie en groupes organisés, les individus 113

Partie 2. La nature fabrique le complexe à partir du simple

ont défini un partage des rôles et ont conféré des pouvoirs spéciaux à certains d’entre eux. Dans les démocraties, cela prend des formes particulièrement sophistiquées avec l’exécutif, le législatif et la justice. La meilleure illustration de la causalité descendante est le corpus législatif. Les représentants que nous élisons au parlement écrivent les lois qui, ensuite, s’appliqueront à nous. Le principe de Langton se reflète parfaitement dans la question suivante : les institutions fontelles les lois ou bien les lois font-elles les institutions ? Les deux bien sûr : d’une part, les institutions démocratiques sont créées conformément aux politiques voulues par les électeurs (flux montant) et, d’autre part, une fois en place, elles élaborent les lois s’imposant à tous (flux descendant), dont celles destinées à définir ou à rectifier les institutions elles-mêmes. De nos jours, de nombreux mouvements de citoyens remettent en question cette contrainte en retour, ce qui tend à affaiblir les démocraties. Ces multiples exemples montrent comment tout système un tant soit peu complexe se trouve traversé de courants de causalité orientés dans les deux sens. Pourtant, seul le courant montant est légitime aux yeux des physiciens les plus réductionnistes. Cela tient à leur philosophie consistant à toujours donner la primauté aux particules et jamais aux ensembles qui en émergent. Comme expliqué au chapitre 2, ils ne reconnaissent qu’un seul niveau de réalité fondamental, celui des particules élémentaires. Dès lors, ils n’accordent pas de réalité autonome aux niveaux supérieurs déjà cités : la matière décohérée, l’étoile, la Terre ou Gaïa, la cellule, l’être monocellulaire, la fourmilière, la conscience, la société. Bien sûr, ils acceptent que de telles entités puissent se former, mais sur un plan ontologique, ils ne leur confèrent pas d’autre statut que celui d’agrégats de particules. Dès lors, l’idée de causalité descendante est clairement en contradiction avec les conceptions les plus réductionnistes. Nous avons passé en revue les trois types de contraintes obligeant la matière à stocker de l’énergie faiblement entropique et à la faire travailler vers la complexité : 114

L’Univers millefeuille

Comment émerge la complexité ?

– les contraintes des lois de la physique ; – celles de l’environnement (dont certaines fabriquées par le système lui-même) ; – enfin, la causalité descendante apparaissant dans les phénomènes émergents les plus sophistiqués. Quand l’abbé Lemaître, l’inventeur du Big Bang, dit « le monde se fait, et il se fait au hasard », il faut y voir un hasard fortement canalisé. D’une manière générale, les flux causaux montants engendrent des systèmes chaotiques, tandis que ceux qui redescendent tendent plutôt à imposer de l’ordre. Cette considération sera reprise dans le chapitre suivant, en découvrant une propriété essentielle de l’Univers : il est finement ajusté entre l’ordre et le chaos. LE MILLEFEUILLE HIÉRARCHISÉ Nous pouvons généraliser la notion de causalités montantes et descendantes en constatant que l’Univers millefeuille se hiérarchise selon différents niveaux dans les échelles. Nous allons maintenant naviguer entre ces strates en mettant en lumière, d’une part, leur relative autonomie et, d’autre part, les causalités verticales qui les lient. Dans les phénomènes usuels sur Terre, le cosmologiste George F. R. Ellis recense neuf grands niveaux relativement autonomes, dont chacun est décrit par des disciplines scientifiques différentes : –  les particules ; –  le noyau atomique ; –  l’atome ; –  les cristaux, les macromolécules ; –  les cellules vivantes, les composants mécaniques ou électroniques  ; –  les organes, les sous-ensembles mécaniques ou électroniques ; –  les êtres vivants, les machines ; –  la société (sociologie, économie, politique, etc.) ; –  l’environnement terrestre. Chaque couche du millefeuille est nouvelle et contribue à structurer l’Univers. Plus que cela, chacune crée ses propres lois. Dès lors, 115

Partie 2. La nature fabrique le complexe à partir du simple

la relative autonomie de ces strates nous a obligés à élaborer des disciplines différentes pour les décrire. Je parle de relative autonomie, car des liens de causalité verticaux s’établissent entre elles et les contraignent, comme cela apparaît sur la figure 19. De là vient en grande partie la complexité du monde et l’impossibilité de l’expliquer par une théorie unifiée. Plus haut, nous avons vu que les physiciens les plus réductionnistes n’admettent pas que ces niveaux du millefeuille soient dotés d’une certaine autonomie. À ce sujet, les spécialistes du vivant, Eric Smith et Harold J. Morowitz27, soulignent une contradiction : si la méthode réductionniste (analyser ce qui se passe dans des sousparties du système) est si fructueuse, c’est précisément parce que les phénomènes émergents tendent à s’organiser en couches. Alors, cette méthode permet de trouver, au moins partiellement, des éléments d’explication dans les strates inférieures.

Figure 19 | Causalités verticales dans l’Univers millefeuille.

27.  The origin and nature of life on earth. The emergence of the fourth geosphere. E. Smith et H. Morowitz. 2016. 116

L’Univers millefeuille

Comment émerge la complexité ?

L’autonomie des niveaux se comprend mieux à l’aide de la notion de multiréalisation. C’est l’idée qu’un tout puisse rester identique même si l’on change un grand nombre de ses parties. En voici un exemple extrême. Vous serez peut-être étonné d’apprendre que tout ce qui constitue une cellule de votre corps (sa membrane, son cytosquelette, ses organites, etc.) se détruit continuellement et se reconstruit aussitôt. Ces composants sont dégradés par autophagie et sont très vite remplacés. Seul l’ADN est préservé, car il commande le processus. Pour les cellules du foie, très sollicitées par les agents chimiques, le renouvellement des organites est à peu près complet sur un cycle très court : une semaine. Pour les autres cellules, il faut quelques semaines. Cela implique un brassage constant des atomes : une grande partie se recycle dans la reconstruction des organites, les autres quittent l’organisme. Après une dizaine d’années, ils ont tous été renouvelés : votre corps ne comprend pratiquement plus un seul de ceux qui le composaient auparavant. Pourtant, à juste titre, votre organisme vous donne l’impression d’être intègre et stable dans le temps, au vieillissement près. Plus étonnant encore : les parties immatérielles de votre être, comme vos souvenirs, se conservent à travers ce chamboulement permanent. On parle de multiréalisation parce qu’il existe des milliards de milliards de façons d’assembler les atomes ou les cellules pour composer autant de copies fidèles de vous-même. Elles sont toutes équivalentes. À l’inverse, si vous changez un tant soit peu la forme ou le positionnement d’un seul rouage dans une montre, elle cesse de fonctionner. Cette propriété de multiréalisation en explique une autre, ­l’homéostasie, c’est-à-dire une capacité à rester stable malgré les aléas de l’environnement. Une personne à qui l’on a enlevé une partie du foie survit, car même amputé, cet organe, continue de remplir ses fonctions. Le cerveau est aussi un organe particulièrement plastique : les connexions entre neurones (les dendrites et les synapses) se font et se défont à tout instant selon les expériences vécues. Cette qualité permet à certaines personnes de survivre à un accident ayant détruit 117

Partie 2. La nature fabrique le complexe à partir du simple

une partie de leur cerveau. De même, si l’on tue la moitié des abeilles d’une ruche, elle survivra à la mésaventure si la reine est toujours là. Enfin, voici un dernier exemple de multiréalisation, concernant la société. Dans une entreprise comme Renault ou IBM, il existe un turnover permanent : des employés la quittent et d’autres sont recrutés. Si les départs se font à un rythme supportable compatible avec la formation des nouveaux entrants, le constructeur conserve parfaitement ses capacités. Si nous regardons l’entreprise au niveau des individus, nous pouvons dire qu’il existe des milliards de façons de la faire survivre en remplaçant tel collaborateur par tel autre, choisi parmi de multiples candidats. Si nous la considérons au niveau collectif, toutes ces configurations sont équivalentes : Renault reste toujours Renault, même quand ses employés ont été renouvelés. Cette forme de résilience est probablement la raison pour laquelle nous voyons tant de phénomènes émergents autour de nous. Elle est aussi au centre de la vie. Si nous revenons plus précisément sur les niveaux du millefeuille dans le cas particulier du vivant, nous en trouvons huit : – la molécule : à l’origine de la chimie et du métabolisme ; – la macromolécule : protéine, ADN, ARN. La génétique exerce une causalité descendante pour commander le niveau précédent ; – la cellule : il en existe un peu plus de 200 espèces chez l’Homme, chacune spécialisée pour un type de tissu ou de fonction. Chez l’être multicellulaire, une cellule unique, l’œuf fécondé, donne naissance à toutes les autres par divisions successives et différenciation ; – le tissu : en général, il rassemble des collections de cellules d’un même type ; – l’organe : il réunit les tissus pour assurer une fonction donnée ; – l’organisme entier : il est un phénomène émergent provenant de l’auto-assemblage des cellules. Comme les autres niveaux, son organisation résulte essentiellement de la causalité du génome et des contraintes forgées par les cellules elles-mêmes en se multipliant et en s’accumulant serrées les unes contre les autres ; 118

L’Univers millefeuille

Comment émerge la complexité ?

– l’esprit : dans le cas du cerveau humain, la conscience fait apparaître un niveau supplémentaire, immatériel, se limitant à traiter de l’information ; – la société : les hommes se réunissent et s’organisent selon des règles sociales sophistiquées. À un stade primitif, nous retrouvons cette huitième strate chez les animaux grégaires comme les primates et les insectes eusociaux. Chacun des huit niveaux émerge du précédent. Ils agissent avec autonomie, tout en étant reliés par de nombreuses boucles de rétroaction. Nous mesurons la complexité du travail des biologistes, obligés de sauter en permanence d’une couche de ce millefeuille à l’autre s’ils veulent comprendre les phénomènes. En voici un exemple de la vie quotidienne montrant comment le médecin jongle habilement avec toutes les strates. Imaginons simplement ses réflexions face à un patient souffrant de brûlures d’estomac (les huit niveaux sont rappelés entre parenthèses) : « – M. Dupont (organisme) me dit soigner ses brûlures gastriques avec du bicarbonate de sodium. Cette médication antiacide (chimie) n’est pas recommandable, car elle peut stimuler la sécrétion acide de son estomac (dans les cellules) et entretenir ses brûlures. Je vais plutôt lui prescrire une enzyme (protéine) bloquant la sécrétion d’acide. – Je dois vérifier s’il n’a pas d’ulcère (tissu) ou de hernie hiatale (organe). – Je vais aussi l’interroger sur sa condition psychique, car, dans un passé récent, il était très stressé au travail (société). Je me souviens qu’il pratiquait le yoga pour se détendre (psyché). » En une seule minute de réflexion, le praticien a touché les huit niveaux ! On comprend l’intérêt de disposer d’un bon médecin généraliste. Il peut ainsi faire une synthèse pertinente de votre personne.

119

Partie 2. La nature fabrique le complexe à partir du simple

CHAQUE NIVEAU DU MILLEFEUILLE FORGE SES PROPRES LOIS J’ai vu qu’il n’y a pas de Nature, Que Nature n’existe pas, Il y a collines, vallées, plaines, Il y a arbres, fleurs, herbages, Il y a rivières et pierres, Mais qu’il n’y a pas un tout dont cela fasse partie, Qu’un ensemble réel et véritable Est une maladie de nos idées. Le gardeur de troupeau. 1946, Alberto Caeiro

Le poète portugais voit la nature comme faite de parties plutôt que d’un tout. Les biologistes ou les médecins admettent cela comme une évidence, même si leur métier les conduit à s’intéresser à un autre tout : l’être humain. Cependant, son idée heurte les conceptions de beaucoup de physiciens théoriciens qui poursuivent l’idéal de l’unification. Ce n’est pas le cas du prix Nobel Robert B. Laughlin, déjà cité. Spécialiste de la matière, il constate différents niveaux dotés de lois distinctes : ceux de l’électron, de la chimie et de la thermodynamique, de la cristallisation, de la rigidité et de la plasticité, de la technologie. Les lois valables à un niveau peuventelles chaque fois se déduire de celles de la strate inférieure ? Oui et non selon le cas. Au chapitre 2, nous avons vu que c’était largement vrai pour la thermodynamique. Maxwell et Boltzmann ont expliqué la plupart des lois macroscopiques touchant à la température, à l’entropie, etc. Ils l’ont fait par agraindissement, c’est-à-dire en assimilant les particules à de petites billes s’entrechoquant de façon élastique, puis en les considérant de loin et en les décrivant à l’aide de calculs statistiques. Quand on peut ainsi déduire les lois du niveau N de celles du niveau N-1, on parle d’émergence faible. C’est aussi le cas de la physique des cristaux. Pour autant, c’est loin d’être une règle générale. En biologie, ce n’est jamais vrai. On parle alors 120

L’Univers millefeuille

Comment émerge la complexité ?

d’émergence forte. Ainsi, en physique du solide, l’étude des métaux et des semi-conducteurs ne peut dériver directement de celle des particules. Il ne s’agit pas d’une simple limite de nos analyses ou de nos mathématiques, mais d’une autonomie plus fondamentale touchant aux lois elles-mêmes et à des comportements collectifs mal appréhendés. En voici une autre illustration : deux idées fausses concernant les rapports entre les lois de Newton et de la mécanique quantique. La première consiste à présenter les lois classiques comme fondamentales. Comme évoqué un peu plus haut, le monde classique émerge du domaine quantique par la décohérence, un phénomène d’organisation collective des particules, survenant dès qu’elles sont présentes en nombre suffisant. Dans ce sens, les lois newtoniennes sont plus émergentes que fondamentales. La seconde confusion consiste à voir dans la mécanique classique une approximation des lois quantiques. À titre d’exemple, ce principe est vrai s’agissant d’une autre théorie, celle de la relativité restreinte. En effet, lorsque la vitesse relative des corps tend vers zéro, la théorie d’Einstein tend asymptotiquement vers les lois classiques. Pour autant, est-ce vrai de la mécanique quantique ? Certes, en concevant cette nouvelle physique, ses pionniers avaient le souci qu’elle se raccorde bien à la science traditionnelle. En élaborant le premier modèle quantique de l’atome, Niels Bohr avait appelé cela le principe de correspondance. Cependant, quand, un peu plus tard, Heisenberg et Schrödinger ont formulé la mécanique quantique d’une façon radicalement nouvelle et exacte, il n’existait plus de lien avec la théorie classique. Depuis, on n’a jamais démontré que cette dernière se déduisait du domaine quantique par approximation. Bien au contraire, l­’effondrement de la fonction d’onde observé lors des mesures au niveau des particules est un phénomène largement incompris marquant une discontinuité profonde entre les deux théories.

121

Partie 2. La nature fabrique le complexe à partir du simple

Le plus souvent, malheureusement ou heureusement, les lois de la nature valables à une échelle ne peuvent se déduire de celles des niveaux inférieurs. À ceux qui le croiraient encore, nous pourrions rétorquer comme Shakespeare dans Hamlet : « Horace, il y a plus de choses au paradis et sur Terre, que dans les rêves que vous inspire votre philosophie. »

122

L’Univers millefeuille

5 À la frontière entre l’ordre et le chaos

« Dieu a induit un art secret dans les forces de la Nature, de façon à lui permettre de se façonner à partir du chaos en un monde parfait. » Emmanuel Kant

Nous avons vu que le moteur de l’Univers résidait dans la faible entropie initiale et l’expansion. Ensuite, nous avons dit que l’énergie travaillait quand elle se piégeait dans un tissu de contraintes freinant sa descente inéluctable vers l’entropie maximum. Ce mécanisme fait apparaître des structures hiérarchisées à toutes les échelles : c’est l’Univers millefeuille. Dans le présent chapitre, nous allons voir comment cela peut mener spontanément aux phénomènes les plus complexes. Dans un premier temps, nous verrons qu’ils n’apparaissent pas n’importe où : généralement, ils se forment en des zones bien particulières, dans une frange entre l’ordre inerte et le chaos. Ces endroits sont favorables, car 123

Partie 2. La nature fabrique le complexe à partir du simple

ils représentent un optimum entre un excès de régularité et un excès de diversité. LA COMPLEXITÉ SE DÉVELOPPE À LA MARGE Qu’appelons-nous chaos ? Nous entendons par là une situation où tout nous paraît changeant, imprédictible, voire indescriptible. Ce peut être la mer lors d’une tempête, la fournaise du centre des étoiles, ou bien un espace cosmique truffé de trous noirs. Tout ce qui pourrait se construire en ces lieux serait appelé à disparaître aussi vite qu’il s’est formé. Au contraire, nous entendons par ordre, une situation inerte ayant trouvé son optimum – une énergie minimale – et restant figé dans cet état. Un cristal est l’exemple le plus souvent cité. Les atomes y sont ordonnés dans un état stable. En général, il est dur, ce qui traduit bien sa faible propension à changer. Dans le cosmos, cela peut être une planète rocheuse telle Mercure, un cadavre stellaire telle une naine blanche ou, encore, un astéroïde perdu dans la ceinture de Kuiper. Entre ces deux extrêmes, le cosmos produit des entités évolutives comme les nuages cosmiques, les galaxies, les étoiles, etc. Les plus complexes se trouvent à la frange entre l’ordre et le chaos. Située au bon endroit, entre la fournaise du Soleil et le froid sidéral, la Terre en est un exemple remarquable où la complexité a pu monter jusqu’à la vie et l’être conscient. Pour illustrer ces concepts, nous allons commencer par observer un petit oiseau vivant sur les grandes plages de Vendée : le gravelot. À peine plus gros qu’un passereau, il possède des pattes très rapides lui permettant de suivre le flux et le reflux des vagues. Quel intérêt ? Il se trouve qu’en descendant, le reflux d’une vague découvre nombre de petits vers et mollusques cachés dans le sable. Ainsi, en suivant habilement le retrait de l’eau, l’oiseau accède à une nourriture abondante et facile à capturer d’un coup de bec. En descendant la grève, l’oiseau arrive face à la vague suivante et il lui faut aussitôt repartir en sens inverse pour lui échapper prestement, d’où l’intérêt de ses pattes très rapides. 124

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

Cet animal se nourrit donc essentiellement dans une petite frange de quelques mètres entre ce que nous pourrons appeler l’ordre et le chaos, sous un angle alimentaire. Pour lui, la plage sèche est inintéressante, stérile et figée : une forme d’ordre. À l’inverse, la mer représente le chaos : son anatomie ne lui permettrait pas d’y survivre. Il s’est donc spécialisé pour exploiter une petite frange de quelques mètres entre les deux. Il est intéressant de noter à quel point cette zone est étroite : elle sépare des milliers de kilomètres d’océan d’un côté et autant de terre de l’autre. En dehors des gravelots, elle est très fréquentée par toutes sortes d’animaux marins pour d’autres raisons : les zones intertidales, recouvertes au rythme des marées, sont particulièrement fertiles. Un écosystème complexe s’y développe en profitant de l’alternance de l’eau, de l’air et du soleil. Les périodes découvertes favorisent la concentration de minéraux et l’apport d’énergie solaire. La marée haute apporte l’eau et d’autres nutriments. Ainsi, les petits vers ou mollusques capturés par le gravelot sont aussi des animaux venus profiter de cette frange entre l’ordre et le chaos. Ce n’est pas un hasard si proies et prédateurs viennent se rencontrer là : la frange entre l’ordre et le chaos est toujours l’endroit où se passent les choses les plus nombreuses, les plus complexes et les plus intéressantes. Elle fait aussi le plaisir des pêcheurs venant à marée basse ramasser crustacés et mollusques. Cet exemple peut nous inspirer une expérience de pensée. Imaginons que nous nous trouvions dans une fusée à destination d’une exoplanète. Le but de la mission est d’étudier l’habitabilité de l’astre. En l’approchant, nous constatons que l’hémisphère tourné vers l’étoile est très chaud et totalement embrasé. À l’inverse, l’autre est intégralement gelé. Entre les deux, existe une frange très étroite bordée par le feu d’un côté et la glace de l’autre. Où se trouve la région méritant le plus d’être observée ? La frontière entre les deux milieux bien sûr ! Nous recueillerons rapidement des informations globales de température et de composition chimique sur l’hémisphère chaud et la même chose sur le froid. Cela fait, nous ne tarderons pas à nous placer en orbite au-dessus de l’endroit le plus intéressant : la frange 125

Partie 2. La nature fabrique le complexe à partir du simple

entre les deux. Vue de plus près, cette zone étroite crée une sorte de banquise mélangeant la glace, l’eau liquide, la vapeur et probablement des minéraux abondants provenant du sous-sol. Elle est animée de mouvements de convection complexes, de geysers, de vortex et de nuages de toutes sortes, affectés d’éclairs. Alors que la composition chimique des hémisphères chaud et froid est simple et homogène, celle de la frange est éminemment sophistiquée. L’analyse spectrographique montre une grande richesse de molécules et de réactions. Sans aucun doute, si la vie existe sur cette planète, c’est là qu’il faut la chercher ! La complexité émerge à la marge entre l’ordre et le chaos. Nous connaissons de très nombreux exemples de cela. Dans le cosmos, tout se répartit entre l’ordre (une galaxie, un nuage froid, une planète gazeuse) et le chaos (l’intérieur de l’étoile et ses réactions thermonucléaires, la supernova, le trou noir dévorant tout ce qui l’entoure). Dans cette immensité, la Terre est une minuscule frange finement ajustée pour favoriser une chimie du carbone particulièrement riche et subtile. Nous pouvons illustrer cette idée en termes de températures. Celles du cosmos s’étagent aujourd’hui entre des millions de degrés au centre des étoiles ou dans certains nuages cosmiques, et un froid sidéral de 2,7 K ailleurs. Au contraire, à la surface de notre planète, tout se situe dans un intervalle extrêmement étroit de moins de 100° d’amplitude, permettant la présence d’eau liquide et l’éclosion de la vie. Cette dernière est probablement apparue dans une autre frange entre l’ordre et le chaos : les cheminées hydrothermales. Il s’agit d’endroits au fond des fosses océaniques où affleurent des roches magmatiques liquides. À la frontière entre l’eau glacée et la roche incandescente, se forment des cheminées de plusieurs mètres de haut dans lesquelles s’écoule un flux constant de gaz chauds, d’eau à toutes températures et de minéraux. Il s’y développe une foule considérable de bactéries, de vers, d’arthropodes… On a calculé qu’une seule cheminée engendrait 2,5 kg de biomasse par heure, répartis dans la pyramide des espèces. 126

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

Pourquoi la complexité tend-elle à se déployer dans ce type d’endroit ? Langton, spécialiste de la vie artificielle et des automates cellulaires (ce sont des « complexoscopes »), a montré que la création d’information est maximum à la frange entre l’ordre et le chaos. Il a constaté cela en étudiant, par ordinateur, des systèmes que l’on pouvait rendre plus ou moins ordonnés ou chaotiques en réglant différents paramètres et en cherchant la position optimale des curseurs (figure 20). Laissons-lui la parole : « Pour moi, la frontière du chaos se situe à l’endroit où surgit l’information et où celle-ci prend le pas sur l’énergie. Dans la zone de transition entre l’ordre et le chaos, on contrôle de façon très fine la situation – petite cause, grand effet – et l’on pressent que le traitement de l’information constitue l’un des éléments importants de la dynamique d’un système. »

Figure 20 | L’information est maximum à la frange entre l’ordre et le chaos.

Nous pouvons considérer l’Univers lui-même comme ajusté entre l’ordre et le chaos. Certes, il est difficile d’énoncer un tel principe alors que notre monde est unique et que nous ne disposons d’aucun moyen de comparaison. Cependant, le « complexoscope » vient de nouveau à notre secours : en simulant toutes sortes d’univers différents, où les constantes et les valeurs du modèle standard des particules varient, nous 127

Partie 2. La nature fabrique le complexe à partir du simple

obtenons des univers-jouets avec lesquels nous pouvons enrichir notre compréhension du cosmos. Qu’y voyons-nous ? La plupart s’avèrent stériles. Les uns sont chaotiques : une soupe de particules chaudes ne formant aucune structure. Au contraire, les autres sont trop ordonnés : la matière s’organise en un cristal inerte ou, encore, les atomes sont tous chimiquement inactifs, voire ne se forment même pas. D’autres observations montrent combien notre univers est ajusté avec une précision inimaginable. À titre d’exemple, si l’on modifiait de quelques pourcents l’intensité de la force électromagnétique, la chimie deviendrait extrêmement pauvre ou, bien au contraire, tout interagirait et se dissoudrait. Ce qui est vrai de cette force, l’est aussi des autres (gravitation, forces nucléaires) ainsi que de tous les grands paramètres définissant notre univers. Nul doute qu’il n’est pas quelconque : il est finement ajusté ! Cette constatation soulève l’un des plus grands mystères métaphysiques de l’époque : pourquoi notre monde est-il ainsi fait ? Pour les uns, c’est incontestablement l’œuvre d’une puissance supérieure (principe anthropique fort). Pour d’autres, notre univers ne serait qu’un parmi une multitude formant un multivers28. Nous aurions éclos dans l’un de ceux possédant les propriétés idoines (principe anthropique faible). LES SYSTÈMES AUTO-ORGANISÉS MAINTENUS LOIN DE L’ÉQUILIBRE On pense volontiers que la vie est d’une nature totalement distincte du monde minéral. Son extrême complexité résiste irrémédiablement à la physique et nous laisse perplexes tellement elle nous dépasse. Quand j’ai terminé mes études de mathématiques et de physique, je pensais naïvement avoir appréhendé les disciplines les plus sophistiquées. Plus tard, en me lançant dans la biologie, j’ai découvert ce qu’était vraiment la complexité. Sur un plan scientifique, décrire l’apparition de la vie est bien plus difficile qu’expliciter le déroulement du Big Bang ! 28.  cf. LES CLÉS. Page 458. 128

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

Dans ce chapitre, nous allons découvrir un continuum entre les systèmes les plus simples, ceux auxquels s’appliquent les équations de la physique fondamentale, et les plus sophistiqués, ceux du monde vivant. Pour cela, nous allons en décrire différents types en partant des plus élémentaires. Notre approche sera empirique et s’inspirera davantage de la biologie que de la physique. De nombreux exemples montreront la propension de la nature à construire des systèmes complexes. En voici la liste par ordre croissant : –  les systèmes fermés, les systèmes ouverts ; –  les systèmes ouverts proches de l’équilibre ou éloignés de l’équilibre ; –  les systèmes dynamiques dotés d’attracteurs ; –  les états critiques auto-organisés ; –  les systèmes complexes adaptatifs. Ne soyez pas effrayés par ces termes rébarbatifs : la complexité a tellement envahi la planète et l’humanité que nous n’aurons aucun mal à les illustrer par des exemples familiers tirés du cosmos, de la vie et des sociétés. Comme cela a été évoqué au chapitre 2, la physique s’applique avec succès aux systèmes fermés, c’est-à-dire bien délimités et isolés de toute influence extérieure. C’est le cas des expériences où l’on enferme des particules dans une enceinte close, ou bien de l’étude de la dynamique du Système solaire, considéré comme isolé dans le vide interstellaire. Dans toute la mesure du possible, le physicien cherche toujours à se ramener à ces cas simples, quitte à pratiquer différentes approximations. Cependant, nous avons vu qu’il s’agit d’une idéalisation : en réalité, nous sommes entourés de systèmes ouverts, soumis à de continuelles influences extérieures. Ils sont infiniment plus difficiles à traiter, car en général, ils se maintiennent dans une situation de déséquilibre. Par exemple, la Terre reçoit le rayonnement du Soleil et émet le sien. Ainsi se trouve-t-elle en déséquilibre thermique entre la chaleur de son étoile et le froid sidéral. De même, l’être vivant reçoit de l’énergie qu’il dégrade 129

Partie 2. La nature fabrique le complexe à partir du simple

chimiquement. Il peut alors effectuer un travail en restituant de l’entropie à l’environnement. Il est le siège de réactions chimiques entretenues par le déséquilibre entre l’énergie chimique consommée (faiblement entropique) et la chaleur dégagée (hautement entropique). Tous ces systèmes ouverts rappellent le skieur qui, tout au long de la descente, se trouve en déséquilibre permanent entre la force de gravité (son poids) et la résistance d’un terrain accidenté. C’est pourquoi l’on parle de systèmes ouverts éloignés de l’équilibre. Au contraire des systèmes fermés en équilibre qui ne créent rien, ils sont aptes à engendrer des structures spatio-temporelles complexes : reliefs terrestres, vortex dans l’eau, nuages, orages, aurores boréales, êtres vivants, sociétés, etc. Leur stabilité est souvent étonnante. Par exemple, la Grande Tache rouge de Jupiter, un vortex de 25 000 km dans l’atmosphère de la planète, tourne sans arrêt au même endroit au moins depuis sa première observation par l’astronome JeanDominique Cassini en 1665. Ces systèmes stables et pourtant dynamiques donnent souvent l’impression d’être immuables. Nous avons déjà dit que les composants des cellules du corps humain se renouvelaient entièrement en quelques semaines. Pourtant, j’ai le sentiment d’être un individu intègre physiquement et ne changeant pas à court terme. Ce principe rappelle une pensée d’Héraclite : « On ne se baigne jamais deux fois dans la même rivière. » Il entendait par là que son eau change en permanence : le cours semble toujours être le même et, pourtant, il est renouvelé à chaque instant. Pour le scientifique, il s’agit d’un système ouvert (en amont, il est alimenté par des ruisseaux ou de la neige), éloigné de l’équilibre (la pente l’entraîne vers l’aval). Les systèmes ouverts, omniprésents dans la nature, sont pourtant très difficiles à décrire par la physique. Il y a plusieurs raisons à cela. D’abord, il est impossible de les arrêter pour voir comment ils fonctionnent. Nous ne pouvons pas figer un ouragan pour analyser sa structure, ou bien interrompre le rayonnement solaire le temps d’observer l’effet produit sur la Terre, ou encore arrêter Internet pour 130

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

examiner qui est en ligne à un instant précis. Nous sommes condamnés à observer des flux, de surcroît, souvent changeants. Une autre raison pour laquelle ces systèmes échappent largement à la physique tient aux limites de la méthode cartésienne. Celle-ci consiste à les décomposer en sous-systèmes plus simples à étudier. Or ici, nous parlons de phénomènes complexes, difficiles à disséquer et faits de multiples sous-parties en interaction. L’exemple le plus extrême est celui de l’écologie. Le jour où nous croyons avoir compris l’influence d’un courant océanique tel le Gulf Stream sur le climat, nous découvrons d’autres effets susceptibles de compliquer les choses. Par exemple, le même courant marin modifie le développement du plancton. Or ce dernier joue un rôle important sur l’enfouissement du CO2 dans le calcaire au fond des océans. Il affecte donc l’effet de serre et par conséquent… le climat ! Ainsi, les nombreux liens de causalité entre sous-parties limitent considérablement l’approche réductionniste de la science traditionnelle. Néanmoins, Prigogine a étudié les systèmes maintenus loin de l’équilibre et a conçu des clés pour mieux les comprendre. Il dit y avoir découvert une grande richesse : « J’aime à dire que la matière à l’équilibre est aveugle, chaque molécule ne “percevant” que les premières molécules qui l’entourent. Par contraste, le non-­équilibre conduit la matière à “voir”. Une nouvelle cohérence émerge alors. La variété des structures de non-équilibre que l’on découvre progressivement est un sujet de perpétuel étonnement. Ces structures montrent le rôle créateur fondamental des phénomènes irréversibles, donc de la flèche du temps. » Comme tous ces systèmes tendent à faire émerger des structures sophistiquées, nous les qualifions volontiers d’auto-organisés. Le cosmologiste Smolin s’est aussi intéressé à ces phénomènes en raison de leur universalité. Il en donne la définition suivante (nous illustrons ses propos en prenant l’exemple du cyclone) : – il s’agit d’une collection de matière disposant d’une frontière claire (un nuage circulaire en forme de spirale, bien visible depuis un satellite) ; 131

Partie 2. La nature fabrique le complexe à partir du simple

– cet ensemble est traversé d’un flux d’énergie et généralement aussi de matière (le cyclone est alimenté en chaleur et en vapeur d’eau par l’océan) ; – il se maintient dans une configuration stable, loin de l’équilibre, sur une longue période par rapport à la durée de ses cycles internes (le cyclone conserve sa structure pendant une ou deux semaines ; pourtant, en son sein, les mouvements des courants d’air prennent quelques heures et ceux des molécules sont infiniment plus rapides) ; – sa stabilité est garantie par de nombreuses boucles de rétroaction (dans le cyclone, l’air chauffé par l’océan monte, puis il se refroidit en altitude pour redescendre, etc.). En cette définition de Smolin, nous reconnaissons facilement les êtres vivants, la biosphère dans son ensemble, l’Homme et la société. Cependant, elle s’étend aussi très largement au domaine minéral : galaxies spirales, étoiles et planètes. Sur Terre, la tectonique des plaques et les cheminées hydrothermales en sont d’autres exemples. La nature n’a pas attendu la vie pour engendrer la complexité. LES ATTRACTEURS PEUVENT EXTRAIRE DE L’ORDRE DU CHAOS La physique n’est pas totalement démunie face à ces systèmes complexes. Certains mathématiciens, tel Poincaré, ont conçu des outils pour les appréhender. En particulier la notion essentielle d’attracteur. Elle est difficile à expliciter sans entrer dans des mathématiques avancées. Nous allons tout de même nous y atteler, à partir d’un exemple naturel. L’idée de départ est de représenter dans un espace abstrait toutes les configurations que peut prendre un système. Cet espace représente donc tous les états qu’il est susceptible de revêtir. Voici un exemple simple : le pendule. Pour représenter tous ses états, il suffit de considérer sa position (sur un cercle) et sa vitesse. Ces deux nombres suffisent à décrire toutes les situations possibles : leurs valeurs forment un espace de configuration. La position et la vitesse du pendule à un 132

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

moment donné se représentent par un point dans cet espace à deux dimensions29. Si nous considérons un pendule double, c’est-à-dire un pendule suspendu à un autre (figure 21), les choses se compliquent. D’une part, l’espace de configuration passe à 4 dimensions, car il faut 4 nombres pour le caractériser, et, d’autre part, son mouvement devient chaotique. Si nous ajoutons un troisième pendule, il passe à 6 dimensions et le système devient encore plus chaotique. Il se trouve que le pendule quadruple correspond grosso modo à l’ossature de la jambe d’un cheval.

Figure 21 | La jambe du cheval est un pendule quadruple.

Son espace de configuration présente 8 dimensions. Si l’on considère les quatre membres de l’animal, l’ensemble est 4 fois plus complexe avec 32 dimensions. On imagine à quel point il peut être chaotique ! Dans la nature, la vérité est encore plus compliquée, car les articulations peuvent aussi travailler latéralement, voire en légère torsion, et elles présentent des butées. Pourtant, à la naissance de son poulain, la jument le pousse à se mettre debout en quelques minutes. Dès son premier jour, il a appris à marcher. Si 29.  Pour être plus exact, l’espace des positions et des quantités de mouvement est appelé espace des phases en mécanique classique (Lagrange, Hamilton). 133

Partie 2. La nature fabrique le complexe à partir du simple

l’on imagine le nombre des configurations possibles de ses quatre jambes, de surcroît avec des mouvements par nature extrêmement chaotiques, on se demande comment le poulain peut trouver aussi vite son équilibre et les gestes de la marche. La réponse tient à son anatomie : parmi les très nombreuses positions possibles de ses membres, seul un petit nombre correspond à un équilibre global et à un confort musculaire. Autrement dit, l’espace de configuration des quatre jambes est immensément grand (32 dimensions infinies), mais les états probables (des points dans cet espace) en représentent une part infime. En mathématiques, ces points privilégiés sont appelés des attracteurs, car le système tend à y tomber naturellement. Sur un plan théorique, cela peut se résumer à la figure 22. Le diagramme de gauche représente un espace de configuration simplifié, à deux dimensions. Celui de droite comporte, en plus, un axe vertical où l’on porte l’énergie. Un attracteur simple est un endroit où elle présente un minimum. Quel que soit son état, si le système n’est pas trop éloigné de ce point, il aura tendance à y tomber et y rester.

Figure 22 | Un attracteur dans un espace de configuration à deux dimensions (positionvitesse).

Dans l’exemple du cheval, les attracteurs proviennent de la forme des os et des muscles du poulain, ainsi que de son système nerveux, 134

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

des caractères hérités de millions d’années de sélection naturelle. Les positions réellement fonctionnelles étant finalement en très petit nombre, les stimulations de la jument envers son nouveau-né lui permettent de les trouver rapidement tout seul. Elles s’inscrivent aussitôt dans son cerveau dès ses premières heures d’existence. On retrouve cette notion en analysant les allures du cheval adulte. Parmi le nombre quasi infini des positions possibles de ses jambes, seuls trois mouvements types sont utilisés selon sa vitesse : le pas, le trot et le galop. Ces trois allures représentent trois attracteurs dans l’immense espace des modes de déplacement. Il en existe quelques autres : en dressant le cheval, on peut le pousser vers des allures dites artificielles tels le piaffer ou le pas espagnol. Une fois qu’il a appris ces allures particulières, le cavalier peut le faire basculer de l’une à l’autre en lui communiquant un simple signal par un mouvement du corps. Les courses de trot sont un autre exemple où l’on déplace la cinétique du cheval vers un attracteur non naturel : on l’incite à trotter à une vitesse élevée correspondant normalement au galop. Ces exemples montrent comment une myriade d’états finit par se résumer à quelques états types que l’on peut compter sur les doigts d’une main. Il est heureux qu’il en soit ainsi, car si le poulain devait essayer toutes les configurations de ses jambes pour trouver les bonnes, il y passerait sa vie. De cette manière, beaucoup de systèmes dynamiques complexes ont tendance à se simplifier d’eux-mêmes, c’est-à-dire à s’ordonner plutôt qu’à rester chaotiques. DES EXEMPLES DANS TOUTES LES STRATES DU MILLEFEUILLE La Grande Tache rouge de Jupiter, dont nous avons parlé, est un exemple d’attracteur : parmi tous les mouvements très désorganisés de l’atmosphère perturbée de la planète, il existe en cet endroit un cyclone suffisamment stable pour durer des siècles. Dans l’espace infini des configurations possibles des masses gazeuses turbulentes, il représente une formule simple et durable se détachant du chaos. 135

Partie 2. La nature fabrique le complexe à partir du simple

En Europe, nous profitons généralement d’un climat estival agréable grâce à un phénomène similaire : l’anticyclone des Açores. Il remonte tous les étés vers le nord et nous met à l’abri des dépressions venant de l’Atlantique, lesquelles sont d’autres attracteurs. Ainsi, au lieu d’être totalement chaotique et imprévisible, notre climat se simplifie : des régimes répétitifs apparaissent, nous apportant tantôt la pluie, tantôt le beau temps. Ce n’est pas un hasard si l’un des scientifiques ayant élaboré la notion d’attracteur, Edward Lorenz, travaillait sur les prévisions météorologiques. Un autre exemple nous est donné par les aéronefs. À la fin du xixe siècle, le grand savant Lord Kelvin énonçait avec prétention : « Les plus lourds que l’air ne voleront jamais. » Certes, l’interaction d’un corps avec l’air et la gravité mène à des situations chaotiques. Pour s’en convaincre, il suffit de suivre la trajectoire d’une feuille morte tombant d’un arbre. Pourtant, parmi l’infinité des mouvements possibles, l’aviation a permis de trouver des configurations stables. En raison de sa forme, le déplacement de l’avion présente plusieurs attracteurs : le vol, la chute en décrochage, la chute en vrille, le vol supersonique, etc. En les étudiant de plus en plus finement, les ingénieurs sont parvenus à assurer une très grande stabilité lors du vol en échappant aux attracteurs dangereux. Récemment, un constructeur a connu des accidents graves à la suite d’une modification de la géométrie d’un de ses avions. Pour employer des réacteurs de meilleur rendement, mais plus grands, il avait dû avancer leur position par rapport à l’aile. Comme cela favorisait le basculement vers un attracteur de la chute, il avait conçu des logiciels pour corriger le pilotage et sécuriser l’appareil. Malheureusement, dans certaines conditions, ces corrections se sont avérées insuffisantes et mal comprises par les pilotes. Elles ont conduit à des crashs. Née de la mécanique, la notion d’attracteur est fondamentale en biologie étant donné l’immense complexité des organismes. Pourtant, elle est peu utilisée, car il est rarement possible de simplifier suffisamment les choses pour appliquer des méthodes mathématiques. 136

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

Cette situation risque de changer avec les simulations numériques qui peuvent mettre en évidence les attracteurs des systèmes complexes. Nous évoquerons deux exemples tirés du monde du vivant : ceux du cerveau et de la différenciation cellulaire. À propos du cerveau, nous allons voir comment une pensée peut s’assimiler à un attracteur ! D’abord, il faut rappeler l’extrême sophistication de cet organe, doté de près de 100 milliards de neurones, chacun connecté à plusieurs milliers d’autres. Ces connexions se font par des filaments, des extensions des neurones appelées axones et dendrites. Si nous mettions bout à bout tous les « fils de connexion » d’un seul cerveau, nous obtiendrions une longueur égale à… la distance de la Terre au Soleil, c’est-à-dire 150 millions de km ! Je l’avoue, j’ai dû refaire trois fois le calcul pour me convaincre de cette vérité. Plusieurs fois par seconde, cet immense réseau est traversé par des grappes de décharges électriques passant d’un neurone à l’autre. Selon son état, chacun transmet la décharge ou non. Ainsi, si nous pouvions dresser une carte de tous les neurones à l’instant t, nous en verrions certains en position ON et les autres sur OFF, comme cela se produit dans les transistors d’un ordinateur. Chacune de ces cartes est une configuration particulière. Nous imaginons mal la taille de l’espace de configuration, c’est-à-dire celui réunissant toutes les cartes possibles des 100 milliards de neurones avec tous leurs états individuels et ceux de leurs milliers de connexions. Pourtant, c’est bien dans cet espace abstrait de dimension astronomique, qu’évolue le cerveau. « Nous habitons une jungle qui est dans notre tête. », disait le prix Nobel de médecine Gerald Edelman. Heureusement, dès le stade fœtal, notre machine à penser se construit de façon à ne pas tomber dans le chaos. En effet, certains ensembles de neurones agissent collectivement : pour donner une image, ces groupes adoptent une position fixe (ON ou OFF selon les neurones) pendant que les autres clignotent au cours des décharges. Ces associations stables sont des attracteurs. Ils simplifient le fonctionnement de notre immense intellect et lui permettent de formuler 137

Partie 2. La nature fabrique le complexe à partir du simple

des idées, des émotions, des sentiments, des concepts (ont dit des qualia). Comment se forment-ils ? Lors du développement du cerveau chez l’enfant, de nouvelles connexions sont engendrées par millions chaque minute. Seules celles qui sont stimulées survivent, les autres sont éliminées par un processus darwinien. Un peu comme la marche du jeune poulain se stabilise sur quelques attracteurs parmi les mouvements possibles de ses jambes, le cerveau tend à regrouper des paquets de neurones pour trier l’information utile et l’extraire du chaos. Ainsi peut-il dégager l’essentiel parmi la myriade des stimuli reçus. En observant le visage de sa maman, le nourrisson enregistre ses traits qui progressivement forment un attracteur. À partir de là, s’il voit sa maman, il l’identifie aussitôt, car son cerveau effectue un rapprochement entre l’observation et les circuits déjà enregistrés. En rencontrant d’autres personnes, son père, ses frères et sœurs, ses camarades à la crèche, il crée autant d’attracteurs. Ceux-ci lui permettront de savoir si un visage lui est connu ou bien s’il s’agit d’une nouvelle personne. Ensuite, quand il apprendra à lire, l’enfant associera la forme d’une lettre à un son et plusieurs de ces sons à un mot, lui-même lié à un objet ou à une perception. Tous ces liens consolidés dans les six couches de son néocortex auront ensuite tendance à fonctionner de façon coordonnée. Ainsi, nos pensées n’animent pas l’ensemble des neurones dans un vaste mouvement chaotique, mais d’une manière organisée, car ceux-ci canalisent les flux d’information vers des groupes stables. Même s’il nous paraît très élevé, le nombre de nos pensées reste extrêmement réduit par rapport à l’immensité des états possibles de notre cerveau. Les attracteurs limitent considérablement le nombre d’états probables du réseau neuronal. Ils permettent à notre cerveau de donner un sens précis à certaines choses tout en les distinguant du brouhaha incessant de nos perceptions. Voici un second exemple d’attracteur dans le domaine de la bio­logie : la différenciation cellulaire. Il constitue la première 138

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

découverte historique du « complexoscope », c’est-à-dire l’usage de la simulation numérique pour appréhender la complexité. Une cellule unique se trouve à l’origine de chaque être humain : l’œuf fécondé. Elle se subdivise en cascade pour former l’embryon. Lors de ces différentes reproductions, naissent des cellules différenciées : celles des poumons, du foie, du système nerveux, etc.30 Toutes incluent strictement le même génome, mais parmi leurs gènes, des sous-ensembles entiers sont inhibés selon le type de cellule considéré. On pourrait comparer cela à un mode d’emploi universel préparé pour des militaires combattants, qui comprendrait toutes les instructions nécessaires aussi bien à l’artilleur qu’au pilote d’avion ou au logisticien. Quand le manuel serait distribué à un artilleur, seules les pages le concernant seraient ouvertes et les autres seraient collées. De même, le pilote ou le logisticien n’aurait accès qu’aux pages utiles. Un exemple de cela est l’état larvaire : toutes les cellules de la chenille et du papillon contiennent le même génome, mais, dans chaque cas, un sous-ensemble des gènes est inhibé. Ainsi, le même ADN sert à faire, soit la larve, soit l’insecte adulte, simplement en masquant une partie de l’information. Comment la nature s’y prend-elle pour éditer ainsi des copies de cellules dont le génome est partiellement inhibé ? Pour le comprendre, il faut revenir aux travaux de Jacques Monod et François Jacob sur la régulation des gènes. Ils démontrent que certains, dits régulateurs, agissent sur les autres pour les inhiber ou, au contraire, pour les activer. Il existe donc un tissu complexe de liens de causalité entre gènes, qui n’est pas sans rappeler le réseau neuronal. À l’instar des neurones dans le cerveau, lorsque tous les gènes se régulent entre eux, certaines configurations stables apparaissent, dans lesquelles une partie du génome est inhibée et l’autre active. Ces états stables, au nombre d’environ deux cents, constituent précisément les cellules différenciées. Ce sont des attracteurs. 30.  cf. LES CLÉS. Page 321. 139

Partie 2. La nature fabrique le complexe à partir du simple

Étudiant en médecine, Kauffman lit les publications de Monod et Jacob. Il comprend que si certains gènes en contrôlent d’autres, alors le génome doit être une sorte de grand réseau logique interconnecté, c’est-à-dire un ordinateur ! Il se le représente telle une table électrique faite de fils et d’interrupteurs reliant de petites lampes allumées ou éteintes, qui clignotent sans cesse. Il a l’intuition que, dans un tel réseau, tout ne doit pas clignoter de façon totalement désordonnée. Il devrait s’y produire des cascades de modifications, mais aussi des groupes stables : des îlots d’ordre dans une mer de chaos. Pour en avoir le cœur net, Kauffman entreprend de simuler à la main le comportement d’un génome élémentaire de 3 ou 4 gènes se commandant l’un l’autre. Il commute l’un des gènes sur la position 0 (inhibé) ou 1 (actif), puis il examine les cascades de conséquences induites sur les autres. Il recommence sur de plus grands réseaux, mais il se heurte rapidement à un problème de temps de calcul : si un gène revêt deux états possibles (0 ou 1), un réseau d’une dizaine en présente un millier (210), ce qui devient très difficile à traiter manuellement. À cette époque, au début des années 1960, l’informatique est en plein développement et Kauffman a l’idée de faire réaliser, par un ami informaticien, un programme reproduisant exactement ce qu’il fait à la main avec ses réseaux de gènes. Il s’agit de la première simulation numérique d’un processus biologique. Le savant en herbe vient d’inventer le « complexoscope ». Les gènes y sont représentés tels des interrupteurs ouverts ou fermés (des 0 et des 1) reliés par des portes logiques. En mathématiques, on parle de réseau booléen. Kauffman puise dans ses économies pour acheter du temps machine la nuit, car son université ne dispose pas d’ordinateur. Le résultat de ses calculs confirme tout à fait ce qu’il avait pressenti : tous les gènes du réseau commencent par fluctuer entre les positions 0 et 1 d’une manière chaotique, mais parmi eux, apparaissent très vite des îlots se figeant dans un état régulier. En fait, ces groupes ordonnés au sein du chaos sont les attracteurs du système dynamique formé par les gènes.



140

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

… Dans cette expérience, un ensemble de N gènes peut adopter une multitude de configurations différentes (précisément 2N), mais dans les faits, grâce au principe de l’attracteur, un nombre restreint d’entre elles se manifeste réellement d’une façon stable. Le jeune étudiant observe que, statistiquement, le génome se fige dans un nombre limité de configurations, de l’ordre de √N : par exemple 16 gènes (N) donnent 64 000 états possibles (2N) qui tendent à se concentrer en seulement 4 attracteurs (√N). Qu’en est-il du génome humain ? À cette époque, on connaissait déjà la structure en double hélice de l’ADN, mais on n’avait pas décrypté le génome et on ne savait pas encore combien il contenait de gènes. Aujourd’hui, on les évalue à 22 300. La racine de ce nombre valant environ 150, on en déduit que la cellule humaine présenterait 150 états stables différenciés. La simulation rudimentaire du savant en herbe était tombée sur le bon ordre de grandeur : en effet, on compte, chez l’homme, un peu plus de 200 types de cellules différenciées (de foie, de muscle, de rein… etc.).

Avec cette première simulation historique, Kauffman montre comment une expérience portant sur de simples chiffres binaires explique qu’un génome de 22 300 gènes puisse engendrer naturellement 200 cellules différenciées. En se développant, les êtres multicellulaires ont exploité cette propriété pour spécialiser leurs cellules : une forme d’ordre émergeant spontanément du chaos. Le jeune savant nous offre un nouvel éclairage sur l’évolution darwinienne. La sélection ne crée rien : elle se limite à exercer un tri sur les formes apparaissant d’elles-mêmes par l’auto-organisation de la matière. En l’espèce, les êtres cellulaires ont simplement exploité les attracteurs de la cellule. Ceux qui en ont tiré le meilleur parti ont été retenus par la sélection naturelle. À l’époque, Kauffman est fasciné par sa découverte et, plus encore, par le fait que l’on puisse simuler la complexité du vivant 141

Partie 2. La nature fabrique le complexe à partir du simple

par des modèles informatiques. Il décide d’arrêter ses études de médecine pour se consacrer à la simulation numérique en biologie. Peu après, il rejoint le Santa Fe Institute aux États-Unis, regroupant les plus grands spécialistes des phénomènes émergents et de l’auto-­organisation, les uns physiciens ou mathématiciens, les autres économistes ou bio­logistes. Il réalisera de nombreuses simulations dont une sur l’origine de la vie, abordée plus loin, et d’autres sur le cerveau et sur l’évolution d’espèces en concurrence dans un écosystème, etc. Ses travaux resteront peu connus, car, volontairement ou non, ils sont souvent ignorés par beaucoup de scientifiques pour qui il ne s’agit pas de véritable biologie. Effectivement, l’expérience de Kauffman est parfaitement immatérielle : elle ne porte que sur des chiffres et une combinatoire purement mathématique. À l’inverse, la physique traite d’états de la matière très concrets : des positions dans l’espace-temps, des masses et des énergies. La biologie s’intéresse aux êtres vivants, aux tissus, aux cellules ou aux réactions chimiques du métabolisme. L’approche de Kauffman ne comprend rien de tout cela : seulement des données chiffrées se comportant au hasard ! Pourtant, elle révèle de façon saillante la combinatoire animant l’ensemble du monde physique et de la vie. Est-ce de la science ? Aujourd’hui, nous nous rendons compte du rôle crucial de l’information au niveau du cosmos comme à celui de la vie. Dès lors, ces protocoles totalement dématérialisés acquièrent de plus en plus un statut légitime aux côtés des pratiques scientifiques traditionnelles. LES ÉTATS CRITIQUES AUTO-ORGANISÉS Nous avons parlé des systèmes ouverts et, parmi eux, de ceux qui s’entretiennent loin de l’équilibre. En général, ils sont de nature chaotique, mais ils peuvent parfois adopter des états stables, voire manifester des formes d’ordre. Nous allons maintenant examiner un cas particulier important : certains systèmes s’ajustent d’eux-mêmes sur un état particulier dit critique. 142

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

L’exemple type est celui de l’étoile déjà amplement commenté. La gravitation maintient l’astre juste au-dessous du seuil de l’explosion. Dans les centrales nucléaires, nous obtenons cet ajustement grâce à un asservissement mécanique. Des barres sont descendues progressivement dans la cuve dès que la température augmente. Elles absorbent les neutrons et ralentissent la réaction en chaîne, la mettant ainsi sous contrôle. L’étoile réalise naturellement un tel équilibre par rétroaction : si la température monte, le gaz qui la compose se dilate, mais ce phénomène rencontre la résistance de la force de gravitation. Nous devons la vie à cet équilibre extrêmement stable permettant aux étoiles de ne pas se transformer rapidement en bombes H ou en trous noirs, et de durer des milliards d’années. Le cosmos serait totalement chaotique et stérile si cet équilibre critique ne se formait pas. Ainsi, l’étoile est le meilleur exemple de l’ajustement fin de l’Univers entre l’ordre et le chaos. De façon remarquablement stable, elle stocke la faible entropie du Big Bang pour ensuite relâcher l’énergie à petit feu et favoriser une lente montée vers la complexité. Nous allons voir qu’il existe bien d’autres systèmes critiques auto-organisés. Le physicien danois Per Bak a étudié ce type de phénomène à partir d’un exemple élémentaire : un tas de sable. Il a placé une table sous un sablier laissant tomber un flux continu (figure 23). Que montre ce dispositif ? Au début, le tas prend la forme d’une montagne devenant de plus en plus élevée. À un certain stade, la pente des flancs atteint la limite où le poids des grains équilibre les forces de friction. Dès cet angle maximum dépassé, le sable en excès tombe par les bords de la table, de sorte que l’inclinaison se maintient toujours ajustée sur son angle critique. Ainsi se forme un tas auto-entretenu présentant toujours la même dimension et la même pente. On ne peut imaginer plus simple ! L’intérêt de l’expérience est de voir comment ce système se maintient pile à l’état critique. La régulation se fait par des avalanches de toutes tailles : certaines se limitent à quelques grains, d’autres 143

Partie 2. La nature fabrique le complexe à partir du simple

Figure 23 | Le tas de sable de Per Bak.

relâchent une grande masse de sable. Per Bak mesure minutieusement la dimension et la fréquence de ces avalanches successives. Il observe une loi statistique : il en existe de nombreuses petites, moins fréquemment, d’autres de taille moyenne, et, de temps en temps, une très grosse. Il s’agit d’une loi de puissance : la fréquence des évènements est inversement proportionnelle à leur taille, élevée à une certaine puissance (fréquence = 1/taillen). Intuitivement, nous la comprenons très bien, car, dans la vie courante, nous sommes habitués à subir quotidiennement de petits ennuis, parfois un plus gros et, très rarement, une vraie catastrophe. Le même principe fait qu’en mer, nous observons souvent un peu de houle, de temps en temps, une tempête, et, très rarement, la « tempête du siècle ». Per Bak a découvert que cette loi est toujours observée dans les systèmes critiques auto-organisés. Par exemple, la tectonique des plaques résulte d’un équilibre entre les mouvements de la croûte terrestre et ceux du magma sous-jacent. Dans les zones critiques de recouvrement des plaques, on observe bien un grand nombre de 144

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

petits séismes avant qu’il ne s’en produise de plus grands, et que ne survienne un jour, le Big One. L’expérience de Per Bak avec sa table et son sablier passe facilement pour une invention farfelue de physicien. Pourtant, elle existe bien dans la nature : on la retrouve avec les dunes du désert. Les plus intéressantes sont les barkhanes qui adoptent une forme en demi-lune. Ce sont des entités s’auto-organisant par la loi du tas de sable. Nous allons découvrir leur dynamique et établir une analogie avec… la vie ! Une telle dune n’est pas un objet fixe : sous l’action du vent, elle se déplace régulièrement, typiquement d’une centaine de mètres par an. Lors de ce déplacement, son sable se renouvelle constamment et la dune se maintient dans une forme de croissant (figure 24). La partie extérieure fait face au vent qui apporte quotidiennement du sable nouveau et le pousse vers le sommet. Arrivé en haut, il descend l’autre pente, dans le creux du croissant, en provoquant des avalanches. On y observe une pente critique de 33°. En rencontrant la dune, le vent a aussi tendance à contourner l’obstacle par les côtés. Il déplace une certaine quantité de sable, formant les cornes latérales du croissant. La dune n’est donc pas comparable à une colline qui aurait été formée un jour, resterait stable et subirait une lente érosion. Au contraire, il s’agit d’un objet dynamique en perpétuel renouvellement, maintenu loin de l’équilibre. Elle avance plus ou moins vite sur le sol et adopte une taille variable selon la force des vents. Les grains du sable s’auto-organisent et font émerger un être macroscopique auto-entretenu. Par causalité descendante, ce dernier impose des mouvements aux grains de sable ainsi qu’aux molécules de l’air. Curieusement, on peut établir un parallèle entre la dune et l’être vivant : – d’abord, elle est un objet émergent macroscopique, d’une forme bien déterminée, reconnaissable, cohérente, stable dans le temps et en équilibre dynamique ; 145

Partie 2. La nature fabrique le complexe à partir du simple

Figure 24 | La dune barkhane.

– ensuite, elle est sensible à son environnement : le sol, le vent, l’hygrométrie, les dunes voisines ; – elle naît : cela se produit lors d’un changement de vent ou bien lors de la collision de deux dunes ; – elle se déplace, elle change de taille et peut aussi légèrement changer de forme : elle maigrit en hiver et grossit en été ; – elle se nourrit de nouveaux apports de sable et de l’énergie du vent. Elle se débarrasse d’une partie de sa matière au fur et à mesure de sa progression ; – elle crée de l’entropie : l’énergie apportée par le vent se dissipe en chaleur par la friction des grains ; – sa durée de vie dépend du temps pendant lequel le vent suit un régime à peu près stable ; – elle meurt quand le vent est insuffisant ou excessif, ou encore lors d’une collision avec une autre dune. Dans ce dernier cas, les deux fusionnent et en forment une nouvelle : une sorte de descendance ; – enfin, on notera que ses grains de sable se recyclent en permanence à l’instar des molécules composant un être vivant. Par cette analogie, je n’entends pas considérer la dune comme vivante, mais simplement illustrer comment des précurseurs de la vie existent déjà dans le monde minéral. En biologie, on trouve une multitude d’exemples de systèmes critiques auto-organisés. La vie elle-même est apparue comme un ajustement critique de la diversité chimique. En effet, on imagine que dans un milieu très riche chimiquement, probablement une cheminée hydrothermale, de petites protéines sont apparues spontanément. 146

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

Il s’agit de chaînes d’acides aminés se repliant sous des formes variées. Certaines d’entre elles, les enzymes, sont de nature à catalyser des réactions chimiques (les favoriser, les accélérer). Cela contribue à développer considérablement la richesse en molécules de toutes sortes. Là aussi, Kauffman illustre ce phénomène par les simulations numériques de son « complexoscope ». Il découvre ce fait extraordinaire : à partir d’une certaine efficacité de la catalyse, la diversité chimique devient explosive. De plus en plus de catalyseurs favorisent de plus en plus de réactions qui engendrent de plus en plus de catalyseurs31, etc. Ce point sera repris plus loin. Un autre exemple en biologie concerne le cerveau. Dans le réseau hyperconnecté de nos milliards de neurones, des avalanches se produisent constamment. Il s’agit, de grappes de décharges électriques se propageant à travers le réseau une centaine de fois par seconde en moyenne. Kauffman a simulé ce mécanisme et a montré qu’il s’ajustait finement sur une valeur critique du degré de connexion du réseau. En effet, chacun de nos neurones est connecté à quelques milliers d’autres. Si cette valeur était augmentée significativement, les avalanches deviendraient gigantesques et perturberaient le traitement de l’information. Au contraire, si les neurones étaient plus faiblement connectés, les avalanches seraient trop courtes pour que des données complexes puissent s’organiser. Il se trouve que le cerveau se place naturellement sur le degré de connexion critique permettant un fonctionnement optimal. Comment se réalise un tel ajustement ? Cela tient à la façon dont se font et se défont les liens entre neurones, dits connexions synaptiques. Dans la matière grise, de nouveaux liens se forment en permanence. En parallèle, les moins utilisés disparaissent. Ce processus est extrêmement rapide chez l’enfant. Il explique la vitesse avec laquelle il apprend. D’une façon tout à fait darwinienne, le nombre de connexions se stabilise à la valeur conduisant au meilleur résultat : un traitement optimal de l’information. À l’instar de Per Bak, on a mesuré la distribution statistique 31.  cf. LES CLÉS. Page 258. 147

Partie 2. La nature fabrique le complexe à partir du simple

de la taille des décharges (les avalanches) et on a retrouvé la loi de puissance caractéristique des systèmes critiques auto-organisés. Voici un dernier exemple de nature économique. D’une manière générale, l’économie de marché relève de la même logique. L’équilibre entre l’offre et la demande se maintient spontanément près de l’optimum : les prix s’ajustent de sorte que toute la production s’écoule et que les facteurs rares soient répartis au mieux des besoins de la société. Cet équilibre qu’Adam Smith avait qualifié de main invisible se modifie constamment pour s’adapter à un contexte mouvant : apparition de nouveaux produits, disparition d’autres, évolution des besoins, facteurs déstabilisants dus à la politique, aux conflits, au climat, etc. L’ajustement des prix et des quantités se fait par avalanches plus ou moins fortes. La concurrence entre produits ou services connaît aussi de tels mouvements. Par exemple, en 2007, la sortie du premier iPhone d’Apple a provoqué un tsunami qui a bouté hors du marché les plus gros faiseurs de la téléphonie. LES SYSTÈMES COMPLEXES ADAPTATIFS Nous touchons là aux systèmes les plus complexes. Ils n’existent pas dans le monde minéral, mais ils se retrouvent en nombre chez les êtres vivants et dans tous leurs prolongements : les écosystèmes, les sociétés, l’économie et, récemment, certaines applications informatiques. À ce niveau de sophistication, la physique n’a plus cours sauf à utiliser la simulation numérique (le « complexoscope »). Dès lors, nous parlons biologie, médecine, sciences sociales, économie… Depuis les années 1980, des spécialistes de ces disciplines se sont regroupés au sein du Santa Fe Institute, déjà évoqué, pour mieux appréhender ces systèmes complexes adaptatifs et identifier des approches communes. Pour commencer, quelle définition en donnent-ils ? Il s’agit de phénomènes présentant un très grand nombre de composantes plus ou moins autonomes et en interaction. Ils sont adaptatifs, car de nombreuses boucles de réaction les animent et leur confèrent 148

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

une forte capacité de s’adapter aux aléas de l’environnement. Nous avons déjà parlé de cette propriété de résilience sous le vocable d’homéostasie. Voici un exemple montrant à quel point notre organisme peut s’adapter aux conditions alimentaires. Cette qualité est très probablement à l’origine de l’émergence du genre Homo parmi les Australopithèques dans un contexte de forts changements climatiques. Pour vivre, notre corps a besoin de protéines, de sucres et de lipides. Ces derniers, les nutriments les plus énergétiques, venaient de la viande et donc de la chasse. Quand ces premiers hommes ne trouvaient pas de proie, ils devaient se contenter de la cueillette de fruits et de racines. Ils pouvaient parfaitement survivre avec ce régime glucidique, car dans leur métabolisme existaient des « plans B » transformant les sucres en lipides (aujourd’hui, ces plans B existent toujours : ce sont eux qui nous font stocker un excès de graisse quand nous ingérons trop de sucres !). À l’inverse, nos cousins néandertaliens se nourrissaient exclusivement des protéines et des lipides de la viande. Bien que les glucides fussent absents de leur régime, ils disposaient de beaucoup d’énergie pour combattre le froid et les gros animaux grâce à un « plan C » transformant, cette fois, les lipides en sucres. Notre métabolisme est ainsi fait de plans B, C, D, etc. nous permettant de nous adapter à une large gamme de régimes ou de conditions de vie. Il inclut plus de 5 000 réactions chimiques constituant un tissu complexe de liens de causalité. Son pilotage implique un tiers de notre génome, servant essentiellement à exprimer toutes sortes d’enzymes. Nous allons examiner trois systèmes adaptatifs parmi les plus sophistiqués existants : les « trois cerveaux de l’Homme ». Par cette expression, nous entendons notre génome, notre cerveau et la société. Les trois sont de formidables machines à composer avec les fluctuations de l’environnement. Pourquoi assimiler le génome à un cerveau ? Pour le comprendre, il faut remonter aux années ayant suivi la découverte de l’ADN en 149

Partie 2. La nature fabrique le complexe à partir du simple

1953. Nous avons déjà évoqué l’illusion déterministe née à l’époque. Elle présentait cette molécule comme un jeu de plans censés diriger toute l’activité du corps. Selon cette utopie, cela s’effectuait par un processus linéaire suivant le principe simple : une cause – un effet. Tout gène créait une copie sous forme d’ARN (ARN messager ou ARNm), laquelle était ensuite traduite en une protéine. Enfin, celleci produisait un effet particulier sur l’organisme (le phénotype). Ce mécanisme est représenté dans le schéma de la figure 25.

Figure 25 | Le soi-disant plan génétique de l’organisme illustrant le principe simpliste : un gène – une protéine – un caractère.

Malheureusement, il a fallu vite déchanter : la nature, avec son esprit résolument non cartésien, a tout fait pour nous dérouter. L’expression des gènes ne présente pas du tout cet aspect linéaire : elle résulte d’un inextricable tissu d’influences réciproques.

150

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

La réalité telle que nous la concevons actuellement apparaît en figure 26 où les numéros suivants sont repris. Nous y découvrons tout autre chose : 1. Effectivement chaque gène donne bien des copies identiques sous forme d’ARNm. Par ce processus parfaitement blindé, l’information originale (l’ADN) reste bien protégée dans le noyau de la cellule. Seules des copies (des brins d’ARNm) sont autorisées à en sortir et à circuler. 2. Cependant, un brin d’ARNm ne se traduit pas en une protéine, mais généralement en plusieurs différentes, correspondant à des soussegments : en moyenne, trois protéines distinctes découlent d’un même brin d’ARNm. Elles ont toutes trois des effets totalement différents sur l’organisme, l’une pouvant toucher le cœur, l’autre la pilosité et la troisième la digestion du lactose. 3. Pour compliquer les choses, l’ADN exprime aussi un millier de brins de micro-ARN dont chacun a la capacité d’inhiber la traduction de tel ou tel ARN messager et de commander sa dégradation. Ainsi, le génome crée des contre-pouvoirs venant empêcher la bonne exécution de ses propres ordres ! 4. Le plus troublant est qu’une même protéine ne joue pas sur un seul caractère (tels les yeux bleus), mais typiquement sur une douzaine d’autres touchant le foie, les os, l’estomac… La réciproque est vraie : un trouble de l’organisme n’est généralement pas rattaché à une seule protéine, mais à une douzaine. 5.  En plus de l’ADN, de ses copies (ARNm) et des protéines, un quatrième acteur intervient : le phénotype, c’est-à-dire l’ensemble des caractères du corps. Il joue aussi un rôle capricieux : par exemple tel gène pourra s’exprimer dans une cellule, mais non dans sa voisine identique, simplement parce que dans leur environnement immédiat, l’une perçoit un peu plus d’acidité ou bien l’autre ressent une pression mécanique. 6. Enfin, certaines protéines viennent agir sur le dépliement de l’ADN pour favoriser ou inhiber l’expression de tel ou tel gène.



151

Partie 2. La nature fabrique le complexe à partir du simple

… Essayez donc de vous y retrouver ! Enfin, pour oublier définitivement nos penchants déterministes, il faut ajouter que ce réseau complexe fonctionne de façon probabiliste : une cause n’entraîne jamais un effet, mais une probabilité d’effet !

Figure 26 | Le réseau « anarchique » de l’expression des gènes. Les flèches représentent six types de liens de causalité cités dans le texte.

Ainsi, l’organisme ne peut être assimilé à un régiment où les ordres des supérieurs seraient transmis fidèlement et appliqués sans réserve par la troupe. Il ressemble plutôt à la collectivité des abonnés de Facebook, chacun agissant à sa guise et communiquant avec les autres de façon incontrôlable. Pourtant, cette anarchie apparente confère à notre organisme une résilience exceptionnelle : elle fait de notre génome un véritable ordinateur ou un cerveau. En effet, tous les liens représentés sur la figure 26 sont des liens de causalité, un peu comme les courants électriques circulant entre les transistors de l’ordinateur ou bien entre les 152

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

neurones. Dans les années 1960, nous interprétions l’expression du génome telle une grande photocopieuse répliquant les « plans » de l’ADN. Aujourd’hui, nous découvrons plutôt un grand processeur dont l’ADN n’est qu’une partie. Cette machine complexe organise les réponses de l’organisme aux fluctuations de l’environnement. Au cours de l’histoire naturelle, toutes ces réactions se sont inscrites dans l’ADN par une myriade d’essais et d’erreurs, de sorte qu’elles ont pu se transmettre d’une génération à la suivante. Au cours de quatre milliards d’années d’évolution, les formules ayant le mieux réussi ont persisté et elles s’expriment désormais dans ce tissu inextricable de liens de causalité. Il est intéressant de mentionner ici un paradoxe concernant les plantes : curieusement, elles sont nombreuses à présenter un génome plus complexe que celui de l’Homme. Le riz possède 58 000 gènes et la plupart des plantes à fleurs, plus de 30 000, alors que nous en avons 22 300. Nous commençons à en comprendre la raison : les plantes n’ont ni système nerveux, ni cerveau. Leur « intelligence », au sens de capacité d’adaptation, réside donc exclusivement dans leurs gènes32. Pour réagir aux sécheresses, au manque de soleil, aux plantes concurrentes, aux prédateurs, etc., leur génome est leur seul « cerveau ». En voici un exemple frappant. En Namibie, on a découvert que certains acacias se mettent à sécréter des tanins toxiques lorsque les antilopes viennent manger leurs feuilles. Ils émettent aussi de l’éthylène. Ce signal est perçu par les autres arbres et déclenche chez eux la même sécrétion de tanins à titre préventif. Face à cette stratégie d’intoxication, les antilopes ont développé celle de s’alimenter face au vent. Cet exemple illustre bien la similarité, voire la concurrence, entre un génome et un cerveau. Passons à notre second exemple de système complexe adaptatif : la grande supériorité des animaux évolués a été de se doter d’un système nerveux et pour les plus sophistiqués, d’un cerveau. Cette transformation est déterminante, car si le génome est un magnifique système 32.  Evolution and the emergent self. R. L. Neubauer. 2012. 153

Partie 2. La nature fabrique le complexe à partir du simple

complexe auto-adaptif, il met des millions d’années à évoluer et il n’offre que des réponses stéréotypées aux fluctuations de l’environnement. Au contraire, le système nerveux réagit immédiatement. Nous avons tous été surpris de la rapidité avec laquelle une mouche s’envole si l’on essaie de la frapper. Chez le mammifère, un néocortex composé de six couches de neurones permet d’accumuler de l’expérience, de réagir aux évènements les plus divers et de construire des stratégies. Chez l’Homme, des circuits supplémentaires s’y sont ajoutés pour intégrer les informations de toutes les zones de l’encéphale et faire émerger la conscience. Ainsi est né le système complexe auto-adaptif le plus sophistiqué de l’Univers, pour autant que nous puissions le savoir. Nous avons parlé des « trois cerveaux de l’Homme ». Quel est le troisième ? C’est la culture moderne. Apparue chez Homo sapiens avec le langage, il y a environ 40 000 ans, elle consiste à accumuler l’information non plus dans le génome ou les neurones, mais dans l’échange avec autrui. Cela s’assortit d’un stockage intelligent du savoir dans les traditions, les pratiques, les livres, les textes de loi, les procédures industrielles et, plus récemment, les mémoires des ordinateurs. Ce réseau multiple, intriqué et réparti, nous confère une infinité de nouveaux moyens pour nous adapter. L’exemple de la pandémie de la Covid-19 montre bien comment la société réagit : prescription de règles de comportement par les experts et le pouvoir politique, adaptation efficace des hôpitaux, initiatives des états et du capital pour investir d’urgence des sommes astronomiques dans les vaccins, prouesse technique des vaccins à ARN, accélération des recherches médicales, etc. Cela se complète des réactions de certains pour défendre l’économie et d’autres pour préserver leurs libertés. Au moment où j’écris ces lignes, la pandémie est toujours en cours et nul ne peut dire si l’adaptation définitive est en vue. Quel qu’en soit le résultat, l’exemple montre bien la façon dont toute la société, tous les savoirs, tous les mécanismes sociaux peuvent s’auto-­organiser pour éradiquer le mal grâce à un tissu extrêmement sophistiqué de relations causales. Entre la taille du virus ou de nos anticorps 154

L’Univers millefeuille

À la frontière entre l’ordre et le chaos

(cent nanomètres) et celle des nations (des milliers de kilomètres), ­l’adaptation à ce virus se répartit sur une gamme de 13 ordres de grandeur dans les échelles du millefeuille. Ainsi, la culture est le troisième système complexe adaptatif que j’ai choisi comme exemple. Pour terminer, il me semble important de mentionner un quatrième « cerveau » dont l’émergence a commencé : l’intelligence artificielle. Aujourd’hui, elle en est à ses tout débuts et traite de problèmes restreints et peu nombreux. Elle reste limitée, car elle repose sur une technique mal optimisée : on doit simuler des neurones artificiels en utilisant, à grands frais, les circuits binaires de gros ordinateurs classiques qui n’ont pas été conçus dans ce but. Il est probable qu’un jour prochain, on fabriquera des circuits intégrés fonctionnant à la manière des neurones. Alors, la technologie se miniaturisera et prendra un essor considérable. On peut imaginer un avenir où des intelligences artificielles seront logées un peu partout et interconnectées par Internet. Ainsi émergera un quatrième système permettant à l’Homme de mieux s’adapter aux imprévus de toutes sortes. Il faut simplement souhaiter que ce nouveau « cerveau » reste à sa place et ne nous impose pas son propre agenda par une causalité descendante non désirée.

155

6 Les transitions de phase et les brisures de symétrie

Après être montés très haut dans l’arbre de la complexité, nous allons revenir sur un phénomène plus élémentaire, mais non moins fondamental dans l’histoire de l’Univers. L’évolution n’est jamais un long fleuve tranquille. Que l’on parle du Big Bang, de la cosmologie, de la vie, de l’Homme ou des sociétés, elle passe par des transitions radicales à certains moments. Ces changements importants présentent trois caractéristiques. Ils sont profonds : l’état qui en résulte est très souvent substantiellement différent du précédent. Ils sont entiers : tout le milieu est affecté, rien n’y échappe. Enfin, ils sont brutaux : ils se déroulent en un temps généralement court par rapport à celui des évolutions habituelles. Nous allons voir le rôle capital qu’ils jouent dans la montée vers la complexité. LE CONCEPT EST NÉ EN PHYSIQUE Au sens strict, la transition de phase signifie le passage d’un état de la matière à un autre, par exemple celui de la phase de l’eau liquide 157

Partie 2. La nature fabrique le complexe à partir du simple

à celle de la vapeur. En observant l’ébullition, on retrouve les trois caractéristiques déjà citées : 1.  Le changement est profond : quoi de plus différent que l’eau liquide et la vapeur invisible ? 2.  Le milieu se transforme entièrement. On voit apparaître des bulles en tous endroits. L’eau de la casserole s’évapore intégralement en quelques minutes. Aucune parcelle du milieu n’y échappe. 3.  La conversion est rapide. Sur Terre, l’eau subit des changements de température faibles et sur des périodes très longues. Par rapport à ces durées, la conversion en vapeur (ou en glace) prend peu de temps. En physique, les transitions de phase se produisent au franchissement d’un seuil : en l’occurrence la température de 100° C. Comme l’ébullition se déclenche très précisément à ce seuil, Celsius l’a utilisée pour définir l’échelle des températures. Enfin, le changement s’accompagne souvent d’une brisure de symétrie, un thème développé un peu plus loin. La transition de phase est un phénomène très riche, car elle transforme profondément le milieu en un temps très bref. Généralement, à son issue, le substrat présente de nouvelles caractéristiques imprévisibles. Par exemple, dans le cas de la solidification : dans quelles directions les cristaux de glace vont-ils s’ordonner et quelles seront leurs tailles ? Nous verrons comment les domaines du vivant et des sociétés subissent aussi de tels changements. Nous emploierons le terme de transition de phase au figuré pour désigner toutes ces évolutions à la fois radicales, globales et brutales. Ce fut le cas de la révolution industrielle qui modifia fondamentalement notre société à partir du franchissement d’un seuil technologique, celui de l’invention de la machine à vapeur. Cela se déroula en moins d’un siècle, une durée très courte si l’on pense que, depuis cinq mille ans, la civilisation mondiale utilisait la force humaine, celle des animaux et celle des moulins à vent ou hydrauliques. 158

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

Les transitions de phase restent largement mystérieuses dans leur essence, même si l’on est parvenu à en élaborer des descriptions mathématiques fort utiles en physique des particules et des états de la matière. Pour les comprendre, il faut y voir un phénomène collectif. Les molécules d’eau sont toujours les mêmes, qu’elles soient libres dans le liquide ou bien fixées dans un cristal de glace. En revanche, les liens entre elles changent radicalement d’une phase à l’autre. Il s’agit d’un phénomène émergent provenant des corrélations à longue portée entre elles. On peut formuler cette idée par la notion d’information : une transition peut se produire dès que les molécules acquièrent de l’information sur d’autres situées à distance. Par exemple, dans le cristal de glace, chacune d’entre elles est liée non pas à son voisinage immédiat, mais à un ensemble de très grande dimension spontanément ordonné. À l’inverse, dans l’eau liquide, la molécule n’est sensible qu’à celles qui lui sont adjacentes. Ces transformations peuvent être qualifiées de discontinuités, car, très souvent, l’état après changement ne peut être dérivé de l’état précédent à partir des seules lois de la physique élémentaire. Dans ces cas, il faut se résoudre à rechercher de nouvelles lois pour décrire ces nouveaux états : la théorie cinétique des gaz, la loi de Boyle-Mariotte, celles de la viscosité, de l’élasticité ou de la tension superficielle, en sont des exemples. En raison de cette discontinuité, la transition de phase a souvent pour conséquence de faire perdre la « mémoire » de l’état précédent. Cela explique probablement pourquoi il est si difficile d’imaginer l’apparition de la vie à partir du minéral. Si elle est le fruit de différentes transitions de phase ayant permis le développement d’une chimie complexe, chacun de ces changements a partiellement effacé l’état précédent, rendant ainsi la recherche de nos origines problématique. Par exemple, connaissant la voracité des bactéries, on conçoit bien que toute forme de vie plus élémentaire, ayant pu exister avant elles, ait disparu corps et biens en leur servant d’aliment. Les travaux sur la supraconductivité pendant la première moitié du xxe siècle montrent bien le défi posé par les transitions de phase. 159

Partie 2. La nature fabrique le complexe à partir du simple

En 1908, Heike K. Onnes parvient à liquéfier l’hélium en le refroidissant à 4,2 K. Un de ses élèves constate que le mercure, abaissé à une telle température, ne présente plus de résistance électrique. Le premier corps supraconducteur vient d’être découvert. La résistance électrique de ce type de matériau est si faible que l’on peut y faire tourner en boucle un courant avec une perte de moins de 1 % par millénaire. Avec l’invention de la mécanique quantique dans les années 1920, on pense détenir les équations pouvant éclairer cela. Pourtant, il faudra plus d’une quarantaine d’années de recherches intensives et d’autres moyens pour expliquer la supraconductivité. Une preuve éclatante des limites de l’approche réductionniste. Finalement, en 1957, par une méthode originale, John Bardeen, Leon Cooper et John Schrieffer publient la théorie BCS, offrant enfin une description claire du phénomène. Il provient d’une capacité des électrons à joindre leurs comportements collectivement pour finalement apparaître comme un corps unique. C’est le prototype du phénomène émergent tel que défini plus haut : l’état final ne s’explique plus par ses parties. Pour les physiciens les plus réductionnistes, la théorie BCS n’est pas de nature fondamentale. Ils y voient plutôt une intéressante avancée « technologique ». Pourtant, si elle ne dérive que partiellement des équations de la mécanique quantique, elle rend parfaitement compte de l’état supraconducteur et elle se suffit en tant que représentation. Les mêmes difficultés se rencontrent dans toute la physique du solide. Comme le rappelle Laughlin, on sait que la glace ne présente pas moins de 11 phases de nature différente selon les températures et les pressions auxquelles elle est soumise. On sait décrire celle existant dans les conditions usuelles, la glace de « monsieur tout le monde », mais pas les 10 autres phases. Il semble qu’une fois de plus, on se trouve face à l’oignon dont parlait Feynman : il faut se résoudre à expliquer ses couches une par une. Ce qui est vrai d’un cristal comme la glace, l’est encore plus de matériaux non cristallins comme le verre ou le plastique : ils se 160

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

trouvent dans des états de chaos gelé semi-permanent. Plus généralement, la plupart des matériaux solides connus résultent de transitions de phase. Au niveau atomique, ils obéissent à la mécanique quantique, mais au niveau macroscopique, ils forment des états émergents. Comme tels, ils suivent de nouvelles lois qu’il faut à chaque fois découvrir en retroussant les manches. NOTRE HISTOIRE EST PONCTUÉE DE TRANSITIONS DE PHASE Pour s’en convaincre, il suffit de passer en revue toute l’histoire naturelle du Big Bang à nos jours33. En voici quelques exemples parmi les plus saillants. Le Big Bang lui-même a tout de la transition de phase, mais la science contemporaine ne pouvant remonter au-delà de l’énergie de Planck, on ignore ce qu’a pu être l’état précédent, s’il a existé. En revanche, l’apparition de la matière lors des minutes suivantes a été décrite minutieusement par le prix Nobel Stephen Weinberg34. Les particules sont apparues à des températures très précises, découvertes grâce aux accélérateurs dans nos laboratoires. Leur naissance est attribuée à des transitions de phase successives. La naissance des étoiles à partir du gaz issu du Big Bang est une nouvelle transition qui se déclenche quelques centaines de millions d’années plus tard. Elle résulte de deux évènements. D’abord, il faut que le gaz interstellaire amorce un effondrement sous l’effet de la gravitation. Les facteurs déclenchants sont des accidents tels que les ondes gravitationnelles du Big Bang, les fusions de galaxies, les supernovas ou bien les désordres se produisant autour des trous noirs. Ensuite, il faut que la masse en cours d’agrégation franchisse une température précise. Alors, les réactions thermonucléaires s’allument et l’astre naît. Bien plus tard, sa mort cataclysmique ne prendra que quelques secondes. 33. Cette histoire est précisément l’objet de mon ouvrage Les Clés secrètes de l’Univers. 2021. 34.  Les trois premières minutes de l’Univers. S. Weinberg. 1978. 161

Partie 2. La nature fabrique le complexe à partir du simple

Sur notre planète, l’apparition de la vie est probablement due à une série de transitions de phase dont la nature reste encore mystérieuse. L’une d’entre elles a dû résulter du franchissement d’un seuil dans la variété chimique. Dans un premier temps, le Big Bang a produit une diversité très faible : en raison de l’expansion rapide, il n’a eu le temps de produire que de l’hydrogène et de l’hélium. Ensuite, ce gaz s’est comprimé et a formé les étoiles. En leur cœur, ces atomes fusionnent et engendrent les autres éléments : le carbone, l’oxygène, le fer, etc. En mourant, elles disséminent dans l’espace toute cette matière dont la variété chimique se monte désormais à 92 éléments stables. Ensuite, la force électromagnétique intervient pour combiner ces atomes en molécules. On en compte environ 200 dans la chimie des nuages cosmiques (H2O, CO2, CH4, alcools, etc.). Dans un milieu favorable comme celui de la Terre, la diversité des molécules minérales va bien au-delà : plusieurs milliers. En certains endroits très particuliers de la planète, tels les cheminées hydrothermales ou les cratères d’anciens volcans, de fortes concentrations et la présence d’un flux régulier d’énergie permettent à la variété chimique de se développer plus avant. Un seuil important est franchi naturellement dès que certaines molécules s’assemblent en chaînes (polymères) comme les protéines ou les acides nucléiques. L’apparition de ces macromolécules, change totalement la donne, car les combinaisons possibles étant en nombre gigantesque, la diversité chimique tend vers l’infini. À ce stade, une transition de phase se serait produite de façon explosive grâce au phénomène de la catalyse : offrant un grand nombre de formes différentes, ces nouvelles molécules sont capables de catalyser de nombreuses réactions, c’est-à-dire de les accélérer considérablement. Alors, il se serait déclenché un effet boule de neige : plus de variété entraîne plus de catalyseurs qui favorisent plus de réactions et donc plus de variété, etc. Ce mécanisme, dit d’autocatalyse, n’est certainement pas suffisant pour expliquer l’origine de la vie, mais il semble avoir joué un rôle central. Kauffman, l’inventeur du « complexoscope », l’a simulé par ordinateur. Il a montré 162

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

l’existence d’une transition de phase très brutale au franchissement d’un certain seuil d’efficacité de la catalyse35. Si ces considérations sont exactes, on peut s’attendre à ce que d’autres formes de vie soient apparues ailleurs dans le cosmos, là où les conditions de concentration et d’apport d’énergie pouvaient favoriser la diversité chimique. Nous reviendrons plus loin sur cette séquence ayant permis de passer du monde minéral à celui du vivant. À son tour, la vie a entraîné une transformation très profonde de la planète. Un jour lors d’une promenade dans les Préalpes, je me suis rendu compte qu’autour de moi, tout avait été forgé par la vie : la faune et la flore bien sûr, mais aussi la terre, les roches calcaires de la montagne et l’asphalte de la route. L’oxygène que je respirais venait aussi de la vie. Au total, cette modification par la biosphère a pris 3,8 milliards d’années. Les phénomènes géologiques et l’évolution naturelle sont en général très lents. Cependant, comme nous allons le voir, l’histoire de la vie est ponctuée de transitions rapides (figure 27).

Figure 27 | Les transitions majeures depuis l’apparition de la vie.

35.  cf. LES CLÉS. Page 258. 163

Partie 2. La nature fabrique le complexe à partir du simple

Pendant plus de 2 milliards d’années, la vie s’est résumée aux bactéries (procaryotes). L’apparition de la photosynthèse a provoqué la catastrophe de l’oxygène, une conversion fondamentale déjà évoquée : la surface de la Terre s’est radicalement transformée chimiquement en passant de réductrice à oxydante. Une évolution profonde du vivant devait s’ensuivre. Ainsi est apparue, il y a 1,5 milliard d ­ ’années, une forme de cellule beaucoup plus grosse et complexe que la bactérie : l’eucaryote, qui constitue aujourd’hui l’ensemble des êtres multicellulaires (végétaux, champignons et animaux). Il présente une membrane plus souple permettant d’absorber les aliments et de les digérer intérieurement (phagocytose), un coffre-fort préservant l’ADN (le noyau), et des organites servant à faciliter l’élaboration des protéines, l’assimilation de l’oxygène, etc. Le saut de complexité du procaryote à l’eucaryote est tel que, pour certains biologistes, il est encore plus improbable que l’émergence de la vie. Cette deuxième transition en a favorisé une troisième : la naissance de l’être multicellulaire, il y a environ 800 millions d’années. Il est frappant de constater l’extrême improbabilité de ces deux derniers évènements. Après l’apparition relativement rapide de la vie sur Terre, il a fallu plus de 3 milliards d’années pour passer de la bactérie à l’être multicellulaire. On éprouve le vertige en pensant au nombre de réplications cellulaires qui se sont déroulées pendant une telle durée. Cela illustre deux faits : l’évolution naturelle est très lente, mais si elle dispose de beaucoup de temps, elle est capable de créations extrêmement improbables. On peut rapprocher cela du débat ayant opposé les tenants du gradualisme à ceux de l’équilibre ponctué. Les premiers, dont les darwinistes, considéraient que l’évolution se faisait par petits pas progressifs : « la nature ne fait pas de saut » (natura non facit saltus). À l’inverse, les autres, Stephen Jay Gould en tête, voyaient plutôt en l’évolution, de longues stases ponctuées de sauts radicaux (saltationnisme). Le débat a perdu de la vigueur, car les deux thèses sont probablement vraies. Cela peut s’expliquer par la théorie des systèmes critiques auto-organisés de Per Bak évoquée 164

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

plus haut. Les espèces sont de tels états maintenus dans une configuration critique par la sélection naturelle. Que dit Per Bak sur ces systèmes ? Il énonce que les changements s’y déroulent sous forme de multiples avalanches : de nombreuses petites, parfois de plus grandes et rarement de très grosses. Leurs tailles se répartissent selon une loi de puissance. Appliquée ici, cette loi de la nature dit que le bruit de fond des améliorations (Darwin) s’assimile aux petites avalanches fréquentes, tandis que les grandes transitions (Gould) sont simplement les évènements exceptionnels prévus par la loi de puissance. Par exemple, celle qui a permis de passer du dinosaure terrestre à l’oiseau a été précédée d’une lente évolution incluant de multiples progrès élémentaires dont l’apparition des plumes, des dizaines de millions d’années avant celle du vol battu. L’émergence de la conscience chez Homo est probablement une transition déclenchée par le franchissement d’un seuil dans les capacités du cerveau. On a découvert un réseau complexe de connexions neuronales pénétrant toutes les zones du cortex. Bien moins développé chez les autres mammifères, ce système semble jouer un rôle intégrateur entre toutes les parties du cerveau humain. Il serait à l’origine de la conscience. Il est probable qu’il exerce une surveillance et une causalité descendante sur son ensemble. Cette évolution chez Homo a provoqué une nouvelle transformation importante à l’échelle de la planète avec l’apparition de l’Homme moderne et de la culture. Il y a 40 000 ans, on voit apparaître simultanément une sophistication des outils et des armes, les premières formes d’art (peintures rupestres, statuettes, bijoux) et les premiers instruments de musique. La suprématie de l’espèce s’affirme définitivement avec la généralisation de l’agriculture 30 000 ans plus tard. L’histoire de l’humanité est ponctuée de transitions qui, chaque fois, modifient la société en profondeur : l’imprimerie à caractères mobiles de Gutenberg, la machine à vapeur, le passage à la démocratie, la numérisation, la révolution d’Internet et, bientôt, celle de 165

Partie 2. La nature fabrique le complexe à partir du simple

l’intelligence artificielle. Malheureusement, une autre plus fondamentale et moins réjouissante s’annonce dans les dizaines d’années à venir : le changement inéluctable des conditions environnementales avec le réchauffement planétaire. Il provient au moins en partie de notre dépense énergétique : dans les pays avancés, avec 10 kW par tête, chacun d’entre nous consomme autant qu’un homme riche de ­l’Antiquité entouré d’une centaine d’esclaves. Ce besoin commence à devenir significatif par rapport à l’entropie naturelle de la planète, mais surtout, un levier vient amplifier son impact. Le problème est que ce luxe a été obtenu en puisant dans les ressources fossiles à fort impact sur l’effet de serre. Il en résulte une montée des températures qui risque fort de réunir les caractéristiques des transitions de phase : rapidité et difficulté à les modéliser. Comment cela ­s’applique-t-il à la biosphère ? Comme tout système complexe adaptatif, elle présente de très nombreuses boucles de rétroaction (l’effet d’un phénomène rétroagit sur ses propres causes). Certaines de ces boucles, dites négatives, ont tendance à freiner les évolutions. Par exemple, l’augmentation de CO2 dans l’atmosphère favorise le développement des plantes, lesquelles agissent à l’inverse en consommant du CO2. Malheureusement, d’autres rétroactions sont positives, c’est-à-dire susceptibles d’accélérer considérablement les évolutions et de provoquer des effets boule de neige. Un emballement de ce type a fait dégénérer l’effet de serre sur Vénus, rendant la planète inhabitable, alors qu’à ses origines, elle était aussi accueillante que la nôtre. Voici quelques-unes des multiples boucles de rétroaction positives pouvant rendre la transformation du climat divergente : – la fonte des neiges rend la surface de la Terre moins réfléchissante (diminution de l’albédo), renforçant ainsi l’absorption d’énergie solaire ; – la fonte du permafrost en Sibérie entraîne la fermentation d’une énorme biomasse ancienne et libère beaucoup de méthane, un gaz dont l’impact sur l’effet de serre est 28 fois supérieur à celui du CO2 ; 166

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

– l’acidification des eaux des océans diminue la masse de plancton et, par conséquent, la production de calcaire et l’enfouissement du carbone au fond des mers. Sachant que le réchauffement climatique est majoritairement provoqué par l’Homme, la question est de savoir si nous parviendrons à le maîtriser et si nous ne serons pas submergés par une transition de phase si nous tergiversons trop longtemps. LES TRANSITIONS DE PHASE PROVOQUENT DES BRISURES DE SYMÉTRIE « De l’asymétrie vient le déséquilibre, du déséquilibre vient le changement, du changement vient la transformation, l’émergence d’une structure. » Marcelo Gleiser

Les transitions de phase jouent un rôle fondamental dans la structuration de tout ce qui nous entoure. Elles contribuent très largement à l’organisation de l’Univers en millefeuille. En effet, elles font émerger des états collectifs à des échelles supérieures, constituant de nouvelles strates autonomes. Cette relative indépendance des différents niveaux provient souvent de brisures spontanées de symétrie. Précédemment, nous avons vu que les lois de la nature s’exprimaient principalement sous forme de symétries. L’exemple déjà évoqué des changements de phase de l’eau illustre comment les transitions brisent la symétrie. Partons de la vapeur d’eau. Les molécules de ce gaz se déplacent librement dans l’air. Elles présentent une symétrie maximum dans la mesure où chacune peut se mouvoir librement dans toutes les positions, dans toutes les directions. En se refroidissant, la vapeur devient liquide. Alors, ses molécules présentent une symétrie réduite : elles ne peuvent plus se déplacer autrement que collées à leurs voisines. Ainsi émerge un nouvel état macroscopique radicalement différent. À son tour, il créera de nouvelles strates du millefeuille dont celles de la vie en milieu aquatique. Enfin, en 167

Partie 2. La nature fabrique le complexe à partir du simple

descendant au-dessous de 0° C, la symétrie se brise de nouveau : les molécules s’immobilisent dans un cristal doté d’une symétrie très simple. Elles se rangent géométriquement dans des directions imposées. Chacune de ces transformations a fait apparaître un nouvel état par brisure de symétrie. Un autre exemple classique est celui de l’aimantation. Dans un aimant, les moments magnétiques des atomes sont alignés comme les paillettes de limaille de fer que Faraday utilisait pour matérialiser les champs. Encore un phénomène collectif. Cependant, s’il est porté au-dessus d’une température dite de Curie, l’alignement se brise. Les moments magnétiques élémentaires tournent dans un désordre total et l’aimantation disparaît. Si l’on revient en arrière en abaissant de nouveau la température (figure 28), l’alignement se reconstitue : les atomes passent d’un état hautement symétrique où toutes les orientations magnétiques sont possibles, à un état moins symétrique où une direction est privilégiée. Cet alignement rétablit l’aimantation. Il est intéressant de noter que l’orientation des moments magnétiques se fige spontanément dans une direction nouvelle et de façon aléatoire. En d’autres termes, les lois de la physique disent qu’ils doivent s’orienter collectivement, mais elles n’indiquent aucunement dans quelle direction : elles laissent ce choix au hasard. Il en va souvent ainsi : les symétries prévues par les lois de la nature se brisent spontanément en donnant un résultat aléatoire. L’astrophysicien Smolin souligne l’importance de ce phénomène : « La brisure spontanée de symétrie est le moyen adopté par la nature pour résoudre le dilemme entre unification et diversité. » Cela rejoint un thème évoqué plus haut : les lois définissent les possibles et le hasard choisit parmi eux. En l’occurrence, elles assurent l’unification du monde, tandis que la brisure spontanée de symétrie introduit l’aléatoire et donc la variété. D’une manière générale, si les équations mathématiques expriment généralement des symétries, il est aussi fréquent que leurs solutions les brisent. On peut y voir une illustration parfaite de l’équilibre entre le hasard et la nécessité. 168

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

Figure 28 | La brisure spontanée de symétrie. En-dessous de la température de Curie, une direction est privilégiée et l’aimantation apparaît.

Un autre exemple de symétrie brisée est tout simplement à l’origine de toute la matière autour de nous. Avant la quatorzième seconde suivant le Big Bang, les particules existaient sous deux formes symétriques : l’électron et l’antiélectron, le quark et l’antiquark, le proton et l’antiproton, etc. Dans un tel milieu, une transition de phase devait se produire. En effet, en dessous d’une certaine température, quand une particule rencontre son antiparticule, les deux s’annihilent dans un grand flash de lumière. Pendant ses toutes premières secondes, l’Univers était trop chaud pour cela. Cependant, avec l’expansion et le refroidissement, au franchissement de températures précises, les frères ennemis ont commencé à s’annihiler deux à deux. Une transformation dramatique s’est amorcée. Si la symétrie entre matière et antimatière avait été parfaite, l’annihilation se serait terminée sans laisser le moindre combattant sur le champ de bataille. Autrement dit, il n’y aurait aujourd’hui que de la lumière et rien de matériel ! Nous devons notre salut à une infime asymétrie : il se trouve que le Big Bang avait fabriqué 1 000 000 001 particules pour 1 000 000 000 antiparticules. Après l’annihilation massive de la matière et de l’antimatière, à 14 secondes du Big Bang, ce minuscule solde d’une particule par milliard a survécu, tandis que tout le reste s’est converti en lumière. 169

Partie 2. La nature fabrique le complexe à partir du simple

Aujourd’hui, cet infime surplus constitue toute la matière du cosmos. L’origine de cette asymétrie salutaire demeure mystérieuse. Elle n’est pas inscrite dans les lois de la physique, lesquelles sont symétriques. Si nous sommes ici et, plus généralement, si la matière existe dans cet univers, cela ne résulte pas directement des lois fondamentales, mais plutôt d’un défaut dans leur application ! La brisure spontanée de symétrie, si fondamentale dans le cosmos, rappelle une partie de tennis36. Les règles du jeu imposent une symétrie rigoureuse entre les joueurs. Le terrain de jeu est divisé en deux parties parfaitement égales. À chaque set, la permutation des joueurs entre les deux côtés évite que le vent ne favorise l’un des deux. Les arbitres sont là pour traiter les litiges avec la plus grande équité. À partir de là, tout le jeu des deux adversaires va consister à briser cette symétrie à leur avantage tout en respectant les règles. Le gagnant y parvient par une meilleure stratégie, de plus grandes aptitudes, ainsi qu’une bonne dose de hasard faisant tout le piquant du match. Dans la nature, les particules (ou les atomes) doivent aussi appliquer un règlement symétrique. Elles ne possèdent ni intelligence ni stratégie, mais le hasard leur permet d’échapper aux symétries, ce qui garantit que le monde soit divers, évolutif, créatif, fécond, complexe… et si beau. On retrouve une brisure de symétrie dans les fondements mêmes de la vie : celle opposant les matières hydrophiles et hydrophobes. À l’origine de cela, une propriété exceptionnelle de la molécule d’eau. La figure 29 en donne trois représentations. La première, dite classique, montre trois atomes : deux hydrogènes liés à un oxygène. L’hydrogène est électropositif (il tend à perdre son électron) et l’oxygène est électronégatif (il tend à accaparer deux électrons), d’où l’assemblage particulièrement solide des trois atomes. La deuxième image, la version quantique quelque peu simplifiée, offre une vue plus précise. En raison de la forte électronégativité de l’oxygène, les nuages électroniques sont déformés par rapport 36.  cf. LES CLÉS. Page 106. 170

L’Univers millefeuille

Les transitions de phase et les brisures de symétrie

au triangle des trois noyaux positifs : la probabilité de présence des électrons est plus grande du côté de l’oxygène que des hydrogènes. Comme chaque électron est porteur d’une charge négative, la molécule prend la forme d’un Y dont une branche (O) est chargée négativement et les deux autres (H) positivement. Sur un plan électrique, on peut donc représenter la molécule d’eau comme un dipôle (à droite de la figure).

Figure 29 | La polarité de la molécule d’eau : elle présente un côté chargé négativement et l’autre positivement.

Cette propriété, la polarité, explique les caractéristiques singulières de l’eau et, en particulier, son rôle dans l’émergence du vivant. Elle induit une brisure de symétrie du fait que les autres molécules réagissent différemment à sa polarité. La plupart sont attirées, ce qui fait d’elle un solvant très efficace favorisant grandement l’activité chimique. Au contraire, les molécules non polaires, tels les lipides, sont repoussées par les charges électriques dissymétriques de l’eau. Il en résulte une dichotomie entre substances hydrophiles (les premières) et hydrophobes (les secondes). On constate aisément cette différence si l’on se salit la main avec une tartine. S’il s’agit de confiture, il suffit de passer le doigt sous l’eau un bref instant pour l’éliminer (les glucides sont hydrophiles). S’il s’agit de beurre, il est plus difficile de s’en débarrasser (les lipides sont hydrophobes). Il faudra utiliser du savon pour le diluer. La brisure de symétrie entre molécules hydrophiles et hydrophobes joue un rôle primordial dans le vivant. La vie a pu apparaître en 171

Partie 2. La nature fabrique le complexe à partir du simple

milieu aqueux par différentes transitions de phase lorsque les réactions chimiques du métabolisme primitif ont pu s’encapsuler dans des vésicules faites de lipides37. Nous en avons parlé dans le chapitre précédent : à l’intérieur de ces « sacs d’eau », les macromolécules (protéines, acides nucléiques) ont pu se développer, abritées par la membrane, tandis que les petites molécules (nutriments) présentes dans l’environnement pouvaient la franchir et pénétrer à l’intérieur. Ainsi est apparue une nouvelle brisure de symétrie : une dichotomie entre les milieux intérieur et extérieur. Il est intéressant de noter qu’absolument toutes les formes de vie connues reposent sur la compartimentation dans une membrane lipidique. On note aussi que la plupart des organites figurant dans les cellules eucaryotes (chez tous les végétaux, les champignons et les animaux) sont essentiellement faits de membranes servant à contraindre les réactions chimiques, l’élaboration et l’affinage des protéines, etc. Les nombreux exemples détaillés dans ce chapitre montrent le rôle essentiel des transitions de phase souvent accompagnées de brisures de symétrie. Elles sont à l’origine de la structure en millefeuille de l’Univers. Elles expliquent aussi que chaque niveau dans les échelles acquière une certaine autonomie par rapport aux couches inférieures. À l’extrême, elles peuvent même effacer les états précédents, c’est-àdire le passé ! Un problème majeur dans les recherches sur l’origine de la vie.

37.  cf. LES CLÉS. Page 248. 172

L’Univers millefeuille

7 L’échappement dans le possible adjacent

« (…) nous faisons tous partie d’une gigantesque symphonie qui, chaque matin, dans une étincelante cacophonie, improvise sa survie. » Jean-Paul Dubois38

Cette notion a été introduite par Kauffman, le champion de l’étude numérique du vivant. Elle a été relativement peu formalisée mathématiquement. Cependant, elle présente une grande valeur explicative. Elle illustre comment la nature chemine au hasard tout en respectant les lois physiques. Elle montre clairement pourquoi les phénomènes sont si réfractaires aux prévisions. En parcourant ces lignes, vous aurez peut-être le sentiment que la science est démunie face aux systèmes les plus complexes. Pourtant, à défaut de prévoir, elle peut au moins nous aider à comprendre. 38.  Tous les hommes n’habitent pas le monde de la même façon. J-P. Dubois. 2019. 173

Partie 2. La nature fabrique le complexe à partir du simple

UN PRINCIPE DE PORTÉE UNIVERSELLE Nous expérimentons quotidiennement l’échappement vers le possible adjacent. Sous le vocable de possible, nous entendons « ce que permettent les lois physiques ». Dans l’exemple de la promenade en ville déjà cité, le possible est l’ensemble des rues, des trottoirs, des escaliers, et plus généralement de tous les espaces publics. Le domaine du possible est immensément grand, car les lois ne sont pas déterministes : elles se limitent à offrir un cadre général. Nous désignons comme adjacents, les possibles accessibles à un moment donné, en un point de l’espace : lors de ma flânerie en ville, je peux choisir à tout instant de m’engager dans telle ou telle rue. De plus, des portes peuvent s’ouvrir çà et là vers de nouveaux espaces dont j’ignorais l’existence. En passant devant une église, je découvre une petite entrée donnant sur un cloître. Je m’y engage et je découvre une merveille architecturale dont je ne soupçonnais pas l’existence. Nous pouvons nous représenter le possible adjacent tel un cercle délimitant ce qui est immédiatement accessible autour de nous (figure 30). Au-delà, s’étend le vaste domaine du possible : à 500 mètres se trouve une terrasse avec un beau point de vue, mais mon parcours aléatoire ne m’y mènera peut-être pas, car beaucoup d’autres opportunités se présenteront à moi en cours de route. Toute notre vie se déroule à l’image de cette promenade en ville. À tout moment, des bifurcations se présentent devant nous. Certaines sont anecdotiques, d’autres sont particulièrement importantes. Au moment où un jeune décide de ses études ou choisit un partenaire, il détermine largement la suite de sa vie : sa profession, sa famille, son style de vie, etc. Ces bifurcations résultent tout autant de nos actes passés que du contexte présent, de notre volonté et du hasard. Chaque fois que nous nous engageons dans une voie du possible adjacent, nous induisons un changement de situation qui va mener vers d’autres embranchements : l’existence repart toujours vers de nouvelles opportunités et de nouveaux risques. Cela rend le cours de notre vie fondamentalement imprévisible. Paul Valéry pensait 174

L’Univers millefeuille

L’échappement dans le possible adjacent

Figure 30 | Parmi le possible (permis par les lois physiques), le possible adjacent est immédiatement accessible.

peut-être à ces sauts dans l’inconnu en écrivant : « Nous tombons dans l’avenir en reculant. » Bien que la nature ne dispose ni d’un cerveau, ni du libre arbitre, elle chemine instant après instant selon un processus similaire, et non en appliquant simplement et mécaniquement les lois de Newton, d’Einstein ou de Schrödinger. En permanence, elle voit s’ouvrir devant elle de nouveaux possibles adjacents assortis de nouvelles contraintes et de risques imprévisibles. Unger exprime cela en disant : « Plus de là-bas sont accessibles depuis les ici. » Pour voir plus précisément comment cela affecte les phénomènes naturels, rappelons-nous que le moteur de l’Univers est l’entropie. L’énergie libre (faible entropie issue du Big Bang) ruisselle partout où elle le peut vers les états les plus entropiques (désordonnés). Nous avons illustré cela par un parallèle avec l’eau dévalant une pente : elle « cherche » toujours les endroits adjacents dont la pente est maximale. Sur un sol rugueux, elle s’étend un peu dans toutes les directions. À la périphérie de la flaque, la force de gravité lutte contre les tensions de surface et les frictions. Dès qu’un chemin s’ouvre vers une zone creuse, l’eau s’y engouffre pour la remplir. Ces mouvements se renouvellent sans cesse à la frontière de la nappe d’eau, rappelant un processus 175

Partie 2. La nature fabrique le complexe à partir du simple

de diffusion. D’une façon similaire, la tache d’encre sur le buvard se répand par ses contours en cherchant localement l’entropie maximum. Par ce mécanisme, le hasard s’exprime dans les phénomènes naturels sous la contrainte des lois physiques et du contexte. Il rend notoirement imprévisibles les systèmes ouverts, au contraire des systèmes fermés où les lois peuvent s’exprimer d’une manière plus déterministe. DEUX PROPRIÉTÉS IMPORTANTES On remarquera que, le plus souvent, le passage dans le possible adjacent se réalise par l’ouverture d’une porte, généralement de façon peu probable et contingente. En d’autres termes, de grandes conséquences peuvent découler d’un évènement anodin, ce qui n’est pas sans rappeler l’effet papillon évoqué précédemment. Pour le prix Nobel Christian de Duve, spécialiste de la cellule, les grandes étapes de l’évolution sont souvent dues à la coïncidence temporelle entre deux faits : – un changement radical existait potentiellement (dans le possible adjacent) ; – les conditions environnementales à un moment donné deviennent favorables à sa réalisation (la porte s’ouvre). À titre d’exemple, au Crétacé supérieur, les mammifères pouvaient potentiellement gagner toutes les niches occupées par les dinosaures. De nombreux avantages distinctifs les destinaient à cela : une intelligence plus développée grâce à leur néocortex, des sens très aiguisés, l’homéothermie, une fourrure pour s’isoler thermiquement, une capacité à éduquer la progéniture sur de longues durées, etc. Ce domaine du possible adjacent n’attendait qu’un évènement pour devenir accessible. Une météorite et quelques très gros volcans s’en sont chargés. Beaucoup d’animaux ont disparu, particulièrement tous ceux mesurant plus de 20 ou 30 cm, laissant d’immenses niches disponibles. À défaut de ce genre de cataclysme, d’autres aléas auraient probablement déclenché le remplacement des dinosaures par les mammifères, comme par exemple un changement climatique altérant la gigantesque masse végétale de l’époque. 176

L’Univers millefeuille

L’échappement dans le possible adjacent

L’échappement vers le possible adjacent induit une propriété importante de la nature : elle a rarement le temps de parcourir entièrement les nouveaux territoires qu’elle pénètre. Dès que l’un d’eux est envahi, d’autres portes s’y ouvrent, menant à de nouvelles étendues, alors qu’elle n’a exploré qu’une infime partie des précédentes. Ainsi, Kauffman qualifie la nature d’immensément non ergodique. L’ergodicité est une hypothèse utilisée en mécanique statistique. Elle consiste à supposer que le système va parcourir tous les états possibles. Par exemple, dans un vase clos, nous pouvons supposer qu’en raison de l’agitation thermique, une molécule occupera, tour à tour, tous les emplacements existants. Cette hypothèse est indispensable pour mener à bien beaucoup de calculs probabilistes. Au contraire, selon Kauffman, la vie n’explore jamais qu’une faible portion de chaque nouveau domaine du possible s’ouvrant à elle. À chaque fois, le contexte change et apporte d’autres opportunités que la nature exploite. Nous pourrions résumer ces différentes propriétés en disant que « la nature a horreur du vide » et, de plus, qu’« elle est extrêmement curieuse ». Nous allons maintenant les illustrer par quelques exemples tirés de l’histoire du cosmos, de la vie et des sociétés. DEUX EXEMPLES DANS LE MONDE MINÉRAL Le premier concerne la création du Système solaire. Bien avant sa formation, une étoile a explosé dans cette région du cosmos en disséminant sa matière dans l’espace. Ce faisant, elle engendrait un nouveau possible adjacent : l’apparition d’une ou de plusieurs nouvelles étoiles et de nouvelles planètes à partir de cette matière et des gaz environnants. Cela s’est produit plus tard avec la genèse du Système solaire. Pour que ce possible adjacent devienne accessible, il fallait qu’une porte s’ouvre. En effet, en l’absence de facteur déclenchant, le gaz et les poussières peuvent mettre très longtemps à entamer leur effondrement. Le hasard a probablement fait qu’une supernova proche ou bien un trou noir (le trou noir galactique était actif à l’époque) 177

Partie 2. La nature fabrique le complexe à partir du simple

a ébranlé le gaz et a provoqué son agrégation à l’endroit du cosmos où nous sommes. À partir de cet évènement, la matière a convergé vers un centre trouvé aléatoirement. Nous connaissons la suite : elle a commencé à tourner sous forme d’un disque d’accrétion. Le Soleil s’est assemblé en son centre et ce qui restait du disque en rotation a donné naissance aux planètes. Toute cette région de l’espace s’est structurée et a pris une forme nouvelle, celle du Système solaire. À son tour, ce bouleversement en a déclenché d’autres en cascade, notamment l’émergence de la vie et de l’Homme. Cet exemple montre comment, mue par l’entropie, la nature se fraie un chemin dans les possibles adjacents au gré d’accidents contingents. Le second exemple, tout à fait caricatural, concerne la mer Méditerranée. Il y a 6 millions d’années, la région était une vaste dépression située 2 000 mètres plus bas que l’océan Atlantique et séparée par la barrière rocheuse de Gibraltar. Pour l’océan, la cuvette méditerranéenne représentait un domaine du possible adjacent. Il ne manquait que l’ouverture d’une porte pour qu’il devienne accessible. De l’eau s’est infiltrée en quantités progressivement croissantes. Ce barrage naturel a fini par céder, peut-être à l’occasion d’une secousse sismique, et l’eau de l’océan s’est engouffrée de façon cataclysmique : le détroit s’est ouvert, la Méditerranée venait de naître. Grâce à des fossiles d’algues typiques des zones littorales, on a pu reconstituer ce scénario. On a estimé qu’à un moment, les eaux montaient de dix mètres par jour. On imagine le désastre écologique qui s’ensuivit. Comme beaucoup de catastrophes dans l’histoire du vivant, celle-ci fut aussi une énorme opportunité pour la diversification de la faune et de la flore. Une fois ce possible adjacent envahi, tout est devenu différent dans la région, y compris le climat. Un phénomène du même type serait à l’origine du déluge mentionné dans l’Ancien Testament, le Coran et certaines religions asiatiques. Des observations géologiques ont permis d’identifier une immense inondation consécutive à l’ouverture soudaine du détroit du Bosphore, survenue il y a 7 500 ans à 5 300 ans. 178

L’Univers millefeuille

L’échappement dans le possible adjacent

L’ÉCHAPPEMENT DANS LE POSSIBLE ADJACENT EST AU CŒUR DE L’ÉVOLUTION NATURELLE Darwin était convaincu que le moteur de l’évolution était ­l’apparition aléatoire de variations à chaque génération d’individus. Aujourd’hui, grâce à la génétique ainsi qu’à des études récentes, on comprend mieux comment naît cette diversité et l’on ne peut qu’admirer la qualité de visionnaire du savant. Commençons par rappeler que l’organisme et son métabolisme sont animés par des protéines. Il s’agit de longues chaînes d’acides aminés dont la séquence est une information codée dans un gène. On appelle traduction l’opération par laquelle les gènes expriment cette information pour synthétiser les protéines. Bien avant la plus simple bactérie et depuis lors, toute l’évolution se résume à une sophistication croissante des protéines sous l’action de la sélection naturelle. Elle a abouti à des molécules incroyablement complexes et d’une efficacité inimaginable. Un bon exemple est l’hémoglobine, cette protéine faite de 500 acides aminés, qui véhicule l’oxygène dans notre corps. Dans les années 1970, les partisans du dessein intelligent avaient choisi cette molécule pour illustrer l’idée que l’évolution serait obligatoirement guidée par Dieu. L’argument consistait à montrer qu’une telle protéine était bien trop improbable pour avoir été trouvée par hasard. Elle devait résulter d’un « coup de pouce » divin. Cette thèse reposait sur un calcul de probabilité très simple : – l’hémoglobine est une chaîne de 500 acides aminés assemblés dans un ordre précis. On peut la comparer à un collier de perles de 20 couleurs constitué selon une séquence donnée : par exemple, rouge-bleu-vert-rouge-violet-gris-vert, etc. ; – sachant que les perles sont de 20 couleurs différentes, il y a 20 façons de choisir la première perle, 20 fois plus d’en regrouper deux, soit 400 (ou 202), 8 000 façons d’en assembler trois (ou 203), etc. Pour les 500 acides aminés de l’hémoglobine, le nombre de possibilités devient plus qu’astronomique : 20500, soit immensément plus que le nombre de particules de l’Univers observable ! ; 179

Partie 2. La nature fabrique le complexe à partir du simple

– si cette protéine existe aujourd’hui dans notre corps, la sélection naturelle a dû trouver sa formule parmi 20500 autres. Même en considérant les 3,8 milliards d’années de l’évolution et le nombre gigantesque des réplications réalisées par tous les êtres vivants pendant cette durée, la probabilité de l’évènement (1/20500) est tellement infime qu’il ne pourrait raisonnablement pas être survenu sans l’aide d’une puissance supérieure. L’argument ne colle pas à la réalité pour la raison suivante : il suppose implicitement qu’il existerait une immense « urne » (l’espace de configuration) contenant toutes les protéines de 500 maillons possibles, et que la nature y effectuerait des tirages au hasard. Cependant, une telle urne n’existe pas et, surtout, l’évolution ne procède pas par simples tirages dans l’ensemble des possibilités. Elle avance de proche en proche en répétant une martingale qui tromperait n’importe quel croupier au casino : à chaque fois, elle ne retient que les meilleurs tirages et elle part de là pour exécuter les suivants. Par ce procédé cumulatif, comme un tricheur au casino, elle constitue une cagnotte sans cesse croissante, quoi qu’il arrive39. En termes savants, elle exécute un algorithme, une pratique interdite sur les tables de jeu. Pour progresser dans l’évolution, cette méthode organisée est infiniment plus efficace qu’une simple succession de tirages se faisant dans le plus parfait des hasards. Aujourd’hui, des milliers d’espèces de mammifères, de reptiles, d’oiseaux, d’insectes et même de plantes utilisent diverses formes d’hémoglobine pour fixer et transporter l’oxygène. Toutes ces molécules sont différentes. Chacune possède sa propre histoire dans l’évolution, faite d’essais et d’erreurs. Elles n’ont en commun que la petite chaîne d’une quinzaine d’acides aminés définissant leur site de fixation de l’oxygène. Si l’on voulait calculer la probabilité d’existence de l’hémoglobine, il faudrait le faire sur cette séquence de 15 maillons et non sur les 500 de la molécule utilisée par l’Homme aujourd’hui. De surcroît, il faudrait évaluer le nombre de combinaisons de 15 acides aminés capables de fixer l’oxygène, et il y en a certainement beaucoup. 39.  cf. LES CLÉS. Page 297. 180

L’Univers millefeuille

L’échappement dans le possible adjacent

Un concept évoqué plus haut permet de mieux comprendre l’algorithme de la sélection darwinienne : la non-ergodicité de la nature (Kauffman). Elle ne parcourt qu’une infime partie de l’espace de configuration de toutes les protéines possibles. Au lieu de s’aventurer au hasard dans une telle immensité, elle se limite à explorer le possible immédiatement adjacent. Voyons concrètement comment elle procède. Les tirages sont des mutations. La plupart d’entre elles consistent simplement en un changement d’un seul acide aminé dans la chaîne de la protéine (une erreur ponctuelle dans la reproduction de l’ADN). Beaucoup plus rarement, une nouvelle protéine apparaît par la scission d’un gène en deux ou, au contraire, par l’aboutage de deux autres (ligation). De même, les échanges de gènes entre bactéries ou le brassage génétique dans les espèces sexuées permettent de temps en temps de grands sauts au-delà du possible adjacent. François Jacob qualifiait de « bricolage du vivant » cette façon de créer le neuf à partir de l’existant. Le « complexoscope » confirme l’efficacité de l’algorithme darwinien. Les simulations numériques40 montrent bien comment le processus des tâtonnements pas à pas dans le possible adjacent suffit pour que les formes de protéines les plus efficaces soient trouvées naturellement et relativement facilement. Ce phénomène se rapproche de l’effet petit monde découvert en 1960. On a montré qu’au sein de la population des États-Unis, deux individus choisis au hasard pouvaient entrer en contact l’un avec l’autre de proche en proche par l’intermédiaire de six autres personnes en moyenne (« je connais Dupont, qui connaît Durand, qui…, qui vous connaît »). Ce principe est largement exploité par Facebook ou LinkedIn. De façon identique, on peut passer d’une protéine à une autre par un chemin assez court en procédant à chaque fois par une succession de modifications élémentaires d’un acide aminé, c’est-à-dire en se limitant à des changements dans le possible immédiatement adjacent. Aujourd’hui, ce mode d’évolution des protéines fait l’objet de beaucoup d’études, car il est au centre des sciences du vivant.

40.  Arrival of the fittest. Solving evolution’s greatest puzzle. A. Wagner. 2014. 181

Partie 2. La nature fabrique le complexe à partir du simple

QUELQUES EXEMPLES DANS L’HISTOIRE DU VIVANT Nous avons retenu quelques cas d’importance historique où l’ouverture d’une petite porte a donné accès à un domaine gigantesque. En général, celui-ci a été envahi très rapidement, induisant une transition de phase majeure. Le franchissement des barrières d’espèces par les virus est un exemple d’actualité au moment où j’écris ces lignes. Un virus peut infecter une espèce pendant des dizaines ou des centaines d’années, puis, un jour, passer à une autre, à l’Homme par exemple. Ainsi, celui du sida nous est venu d’un singe en Afrique à l’occasion d’une morsure ou de blessures lors d’un dépeçage. Un virus très proche de celui de la Covid-19 est présent chez les chauves-souris, ce qui rend peu envisageable l’éradication complète de cette maladie. Quand bien même nous y parviendrions, nous serions toujours sous la menace d’un franchissement de la barrière d’espèce et d’un retour de l’épidémie avec un nouveau variant. Si une espèce est infectée, celles ayant des contacts avec elle représentent autant de possibles adjacents dans lesquels le virus peut s’échapper. Pour cela, encore faut-il que deux portes s’ouvrent : une mutation lui permettant d’infecter la seconde espèce et, de plus, une occasion de contact. C’est pourquoi, chaque été, les producteurs de vaccins contre la grippe visitent les bassescours dans certains pays asiatiques où la promiscuité Homme-animal est très forte, pour y prélever les nouvelles souches du virus. Les premières bactéries devaient compter sur les nutriments du milieu pour trouver leur énergie (autotrophie). Pour exploiter l’énergie solaire, il suffisait d’une molécule, la chlorophylle. Le jour où les aléas de l’évolution darwinienne ont permis sa synthèse, le monde du vivant s’est échappé dans un vaste domaine adjacent. Comme déjà évoqué, la fabrication d’oxygène a radicalement transformé la surface de la Terre en la rendant oxydante. Certaines bactéries (dites aérobies) se sont adaptées à cette nouvelle situation en découvrant une nouvelle forme de métabolisme, bien plus efficace. De là sont nés la cellule eucaryote et, dans la foulée, les êtres multicellulaires. 182

L’Univers millefeuille

L’échappement dans le possible adjacent

Chacune de ces transitions s’est produite lors de mutations favorables survenues de façon contingente. Les nouveaux domaines adjacents se sont révélés immenses, au point de transformer radicalement le monde du vivant et le milieu terrestre. L’évolution des êtres multicellulaires a été ponctuée de grandes extinctions provoquées par des cataclysmes planétaires. On les considère comme des catastrophes, car elles ont chaque fois détruit entre 60 et 90 % des espèces. Pourtant, elles ont aussi représenté de formidables opportunités en ouvrant un immense possible adjacent aux espèces survivantes. En général, la pénétration de toutes les niches rendues disponibles s’est traduite par une radiation évolutive, c’est-àdire un foisonnement de nouvelles espèces. On remarque aussi qu’en ces occasions exceptionnelles, des types d’animaux très différents ont pu apparaître, dotés de nouveaux plans corporels (baupläne). Ces changements audacieux ne seraient pas survenus dans un écosystème saturé, contrôlé et régulier. En résumé, on peut considérer les grandes extinctions comme des accélérateurs de l’évolution. La dernière extinction massive a démarré avec l’hégémonie de l’espèce humaine. Cette fois, elle ne sera suivie d’une radiation évolutive que si l’Homme vient à disparaître de la planète. La sortie de l’eau des premiers êtres vivants est un autre exemple frappant. Pendant plus de 3 milliards d’années, la vie s’est développée exclusivement dans les océans. Sur la terre sèche, le rayonnement UV du Soleil détruisait toute forme de vie osant s’aventurer hors de l’eau. Pourtant, les continents représentaient un possible adjacent d’une dimension considérable pour les espèces marines. Il fallait qu’une porte s’ouvre pour qu’elles puissent les coloniser. Elle s’est ouverte quand les bactéries se sont mises à fabriquer massivement de l’oxygène par la photosynthèse chlorophyllienne. Pendant longtemps, cet oxygène n’était pas libre : il se piégeait au fond des océans en oxydant le fer présent en grande quantité. Une fois tout le fer oxydé, la concentration en oxygène d’origine bactérienne a crû de façon importante dans l’eau, mais aussi dans l’atmosphère 183

Partie 2. La nature fabrique le complexe à partir du simple

par évaporation. Cette Histoire d’O, comme certains l’appellent, a eu une autre conséquence. On sait qu’en haute altitude, l’oxygène O2 se convertit en ozone O3, le constituant de la couche protectrice contre les UV nocifs. L’apparition de la couche d’ozone a été la porte ouverte vers le possible adjacent de la vie continentale. Il y a un peu plus de 400 millions d’années, différentes espèces ont commencé à s’y engouffrer : en premier, des bactéries et des algues formant des mousses, puis des vers plats, des mollusques, des arthropodes et des poissons. Une fois la barrière franchie, ces quelques pionniers ont créé toutes les souches terrestres actuelles. Plus tard, un nouveau possible adjacent s’est présenté pour les animaux continentaux : retourner dans l’eau de manière opportuniste ! Ce mouvement rétrograde a été exploité par des reptiles, des cousins des dinosaures, des tortues, des serpents, et, plus tard, par les cétacés, les loutres, les pinnipèdes (morses, otaries et phoques) et 2 000 espèces d’insectes et d’araignées. De ces exemples découle un principe universel : la biosphère maximise systématiquement sa dimensionnalité. Pour Kauffman, cette règle ne se limite pas au monde du vivant. Il l’observe plus généralement dans l’Univers : tout système thermodynamique ouvert émergent maximise sa diversité. Sachant que le moteur du cosmos est l’entropie, certains relient cela à un hypothétique « quatrième principe de la thermodynamique » : tout système maximise la dissipation d’énergie. DES EXEMPLES DANS LA SOCIÉTÉ L’évolution de la société est ponctuée d’évènements cruciaux ouvrant de nouveaux domaines du possible, lesquels sont rapidement exploités par une réaction en chaîne. Sur le plan géographique, le premier territoire a été la savane, à l’époque où des singes ont progressivement cessé de se nourrir dans les forêts de type équatorial. D’importants changements climatiques survenus il y a 7 millions d’années ont favorisé l’apparition des singes bipèdes, les hominines. Ils incluent principalement les Australopithèques et les 184

L’Univers millefeuille

L’échappement dans le possible adjacent

Hommes primitifs. Pour leurs prédécesseurs, primates arboricoles, un possible adjacent se présentait avec la vie au sol. La porte qui s’est ouverte sur cette opportunité se résume à quelques mutations favorisant la bipédie. Non seulement celle-ci leur permettait de vivre dans la savane, mais elle leur conférait un avantage distinctif sur les quadrupèdes qui en occupaient déjà toutes les niches. En effet, le bipède est plus endurant à la course que le quadrupède, car son centre de gravité se trouve à la verticale de ses pieds. Au contraire, le quadrupède court dans une position en porte-à-faux et se fatigue plus vite. Les qualités d’Homo en endurance lui ont permis d’être le premier à accéder aux charognes après les vautours. Ensuite, en ayant acquis une bipédie parfaite, il pouvait chasser des mammifères en les épuisant à la course, comme cela se pratique toujours dans la chasse à courre avec les chevaux, aussi très endurants. En pénétrant le domaine adjacent de la vie au sol, Homo a pu s’orienter vers une nourriture lipidique, plus riche et propre à favoriser le développement de l’encéphale (le cerveau dissipe à lui seul 20 % de l’énergie consommée par le corps humain). Chez l’Homme préhistorique, une porte, en apparence insignifiante, mais aux conséquences importantes, s’est ouverte : une mutation a provoqué la descente partielle du larynx chez Homo erectus. Avant ce changement, l’Homme archaïque émettait probablement quelques sons comme beaucoup d’animaux. Ce registre très restreint limitait la communication à des messages très simples : avertir de la présence d’un prédateur, exprimer la colère, l’amour ou la douleur. La transformation du larynx a permis une variation des sons bien plus large et a favorisé la communication entre hommes. Le cerveau déjà très élaboré d’Homo erectus lui permettait d’échanger des d’idées avec ses proches, mais cette faculté était bridée par le registre limité des sons qu’il pouvait produire. Ce potentiel ne demandait que l’ouverture d’une petite porte pour se révéler. Grâce à une mutation anodine, la culture est née par la transmission de l’expérience entre les hommes. 185

Partie 2. La nature fabrique le complexe à partir du simple

L’agriculture est un autre exemple : le possible adjacent était tout simplement constitué par les terres fertiles prêtes à accueillir les espèces végétales propres à nourrir les humains. L’ouverture s’est produite simultanément en plusieurs endroits du monde, notamment en Anatolie, où les chasseurs-cueilleurs ont découvert l’avantage d’obtenir leur alimentation en domestiquant la nature. Cette nouvelle opportunité s’est répandue dans toute l’Europe en quelques milliers d’années seulement, un temps record. Cela rappelle l’envahissement du bassin méditerranéen par les eaux quand le détroit de Gibraltar s’est ouvert. L’invention de l’imprimerie à la fin du xve siècle a eu un effet similaire sur la culture en permettant l’accumulation du savoir et en nous affranchissant de la laborieuse recopie des livres. Contrairement à ce que l’on enseignait à l’école primaire, Gutenberg n’est pas l’inventeur de l’imprimerie. En effet, en Asie, la gravure sur bois était pratiquée depuis le septième siècle de notre ère. Elle permettait de reproduire des textes en quantité, mais pour graver le bois, l’investissement en temps était décourageant. L’innovation de Gutenberg a consisté à assembler un Lego de caractères métalliques mobiles pour composer les textes, au lieu de sculpter des tables. En popularisant les livres, son invention a ouvert un possible adjacent considérable pour le développement de la culture. Nous retrouvons des conséquences aussi importantes avec la révolution industrielle née de l’invention de la machine à vapeur, ou bien avec Internet apparu parallèlement aux ordinateurs individuels. Une petite porte s’ouvre un jour et toute la société se transforme. La rapidité avec laquelle ces changements gagnent la Terre entière est stupéfiante. Sans aucun doute, la prochaine révolution se déclare de nos jours avec l’intelligence artificielle. Nous sentons bien l’immensité du possible adjacent qui se dessine, dès lors qu’aujourd’hui, des machines dépassent déjà l’Homme pour diagnostiquer le cancer du sein, ou bien pour traiter la myriade de données astronomiques engendrée par un grand télescope et y déceler des phénomènes intéressants. La petite 186

L’Univers millefeuille

L’échappement dans le possible adjacent

porte d’accès à ce nouveau domaine s’est déjà ouverte : des logiciels imitant la structure du cerveau humain et capables d ­ ’apprendre une tâche intellectuelle (apprentissage profond), de la répéter et de l’améliorer. La société s’engouffrant irrémédiablement dans toute opportunité nouvelle, il est important de se préparer à cette révolution dès aujourd’hui plutôt que se laisser prendre de vitesse. Ce fut l’objet d’un appel lancé en 2015 par Bill Gates, Stephen Hawking, Elon Musk et un millier d’intellectuels. Il sera évoqué plus loin. LE POSSIBLE ADJACENT ET LA PHYSIQUE Selon le mythe créé par Newton et son invention du calcul intégral, les évènements seraient prédictibles au moyen des équations différentielles. Tout évènement aurait une cause rationnelle et surviendrait de façon déterministe. Comme déjà évoqué, cette thèse conduit au réductionnisme, c’est-à-dire à l’idée que tous les phénomènes puissent se ramener in fine, soit au comportement des particules, soit à celui de champs tel celui de la gravitation (on notera que c’est la même chose, car les particules sont décrites par des champs concentrés en un point). Les équations différentielles se sont avérées très fructueuses puisqu’elles ont permis de créer l’électronique et l’informatique, de révolutionner la chimie et d’envoyer des humains dans l’espace. Cependant, le mythe newtonien s’accommode mal d’une nature qui s’échappe en permanence dans de nouveaux possibles adjacents : 1.  Les théories dites fondamentales ne peuvent décrire qu’une infime minorité des phénomènes réels : ils doivent être suffisamment simples, réduits à quelques particules ou à des champs clairement définis. Pour étudier de plus grands nombres de particules, il faut introduire de nouvelles hypothèses, des raisonnements probabilistes ainsi que de nouvelles lois et constantes. 2.  Ces théories sont effectives si nous les appliquons à des systèmes fermés, c’est-à-dire assimilables à des boîtes noires insensibles à l’environnement extérieur. Cependant, la plupart des phénomènes 187

Partie 2. La nature fabrique le complexe à partir du simple

usuels sont ouverts et, de plus, éloignés de l’équilibre. Par exemple, l’être vivant échange en permanence avec le milieu pour y trouver sa nourriture et son énergie, pour y prélever de l’information et pour créer de l’entropie. 3.  Enfin, au chapitre 2, nous avons vu à quel point l’incertitude frappait la physique : flou quantique, systèmes dynamiques non intégrables, chaos déterministe, etc. La notion de possible adjacent vient y ajouter une nouvelle incertitude majeure. Elle renforce le caractère imprédictible, non calculable et non algorithmique de la nature (en dehors de l’« algorithme » très élémentaire de la sélection darwinienne). Cela confirme que les lois de la physique définissent le champ des possibles et laissent toute latitude aux phénomènes pour en exploiter l’immensité. Tout système ouvert est en permanence confronté à des choix, des bifurcations introduisant le hasard. À chacune d’entre elles, le choix qui est fait change les circonstances. Autrement dit, le système façonne lui-même, pas à pas, un environnement nouveau et imprévisible. L’Èbre, ce fleuve espagnol né près de l’Atlantique, mais se jetant en Méditerranée, est un exemple concret déjà évoqué plus haut. Ce chemin surprenant résulte probablement de quelques bifurcations rencontrées près de sa source : des talus sur lesquels il pouvait descendre par un flanc ou par un autre. Les choix qu’il a faits en ces endroits étaient en partie déterminés par la topologie du terrain, ellemême résultant de milliers d’autres choix que l’eau avait déjà faits en ruisselant depuis la nuit des temps. Selon Kauffman, la notion d’échappement dans le possible adjacent pose aussi des questions fondamentales en mécanique quantique. Contrairement à une idée répandue, le comportement d’une particule suit une loi déterministe tant que nous ne la mesurons pas. En effet, sa fonction d’onde est guidée par l’équation de Schrödinger, laquelle n’incorpore pas le hasard. Le malheur – si j’ose dire – est que ce déterminisme s’effondre dès que nous effectuons une



188

L’Univers millefeuille

L’échappement dans le possible adjacent

… mesure, par exemple celle de la position de la particule. À ce moment, celle-ci doit « choisir » entre différentes positions selon des probabilités découlant de l’équation mentionnée. Ainsi pouvons-nous dire qu’entre deux mesures, le comportement de la particule est déterminé, sans intervention du hasard. En revanche, lors de chaque mesure, cette évolution déterministe s’interrompt et il apparaît un résultat aléatoire. En termes d’interprétation, cette discontinuité est l’aspect le plus insatisfaisant et problématique de la mécanique quantique, irrésolu depuis près d’un siècle. Certes, lors de la mesure, nous obtenons une connaissance objective de la position de la particule, mais le prix à payer est que cette nouvelle donnée modifie l’état des choses. La suite obéit à une fonction d’onde différente de la précédente et tenant compte du choix qui vient d’être fait. Ainsi, le cadre change à chaque mesure en fonction des choix pris au hasard ici et là par le système étudié. Cela révèle une contradiction majeure en mécanique quantique : la particule est décrite par une équation différentielle, laquelle exige de préciser les conditions aux limites, or celles-ci changent à chaque mesure.

De tout cela, faut-il déduire que la physique arrive à un plafond ? Certainement pas. Jusqu’à présent, nos équations ont été très fertiles et elles continueront de l’être chaque fois que la réalité pourra être simplifiée d’une façon pertinente. De plus, comme nous le verrons plus loin, la science parvient à appréhender les phénomènes complexes grâce à la puissance de l’informatique : simulation numérique et intelligence artificielle. Pour saisir les enjeux de ces évolutions, il convient de porter un jugement réaliste sur les limites de la « toute puissante » physique fondamentale. Un chercheur vous expliquera toujours ce que la science sait faire et ce qu’il a trouvé lui-même. Il vous dira bien plus rarement ce qu’elle ne peut pas faire ou ce qu’il n’a pas trouvé. Dans ce livre, je cherche à offrir une vision équilibrée de l’état de notre 189

Partie 2. La nature fabrique le complexe à partir du simple

savoir, tout en exprimant le plus grand respect pour nos éminents scientifiques. L’existence d’incessantes bifurcations brisant le cours des choses est une sérieuse limite dans notre compréhension du monde. Face à cela, certains théoriciens ont cherché à décrire, non pas les intervalles de temps pendant lesquels tout est régulier, mais les singularités se présentant ici et là comme des accidents de terrain. Ainsi, la théorie des bifurcations offre un cadre mathématique pour comprendre comment un système peut se trouver face à un choix et ce que cela induit. Par exemple, nous pouvons décrire la bifurcation faisant passer l’écoulement de l’eau d’un robinet, du régime laminaire au régime turbulent ou vice-versa (chapitre 2). Une autre théorie, reposant en partie sur la précédente, est celle dite des catastrophes, inventée par les mathématiciens René Thom et Erik Christopher Zeeman dans les années 1970. Au contraire de la mécanique classique, elle ne s’intéresse pas aux plages de temps pendant lesquelles l’évolution est régulière et continue, mais plutôt aux discontinuités entre elles, c’est‑à-dire à ces moments plus chaotiques où un choix se fait, souvent déterminant pour la suite. Ces chercheurs ont identifié et décrit sept types de discontinuités. Ils les ont baptisées catastrophes d’une façon un peu exagérée. La théorie a été critiquée pour être excessivement permissive (elle expliquait un peu tout) et ne pas être falsifiable (elle ne permettait pas de faire des prédictions vérifiables expérimentalement). Cependant, gageons qu’à l’avenir, les mathématiciens ou les physiciens théoriciens approfondiront cette voie de recherche afin de mieux appréhender les incessants zigzags de la nature.

190

L’Univers millefeuille

8 Le monde s’organise comme une combinatoire

Nous avons vu que, mû par l’entropie, l’Univers fabrique la complexité à la frange entre l’ordre et le chaos et nous avons décrit quelques-uns des mécanismes permettant cette sophistication croissante. Nous avons attribué au hasard le premier rôle, encadré par les lois physiques et contraint par l’environnement. Tout cela était un discours plutôt descriptif. Il nous faut maintenant entrer plus profondément dans l’intimité de l’Univers pour nous approcher au plus près du pourquoi. Dans ce chapitre, nous allons voir que le monde est fait d’un emboîtement de plusieurs « jeux de Lego », engendrant une combinatoire. De là émerge la complexité, entre l’ordre et le chaos. De là vient aussi la vie. LA COMPLEXITÉ DU MONDE VIENT DE LA SIMPLICITÉ DE SES INGRÉDIENTS Dès le Big Bang, le cosmos possédait les qualités essentielles pour évoluer vers la complexité. C’est ce que Reeves exprimait en disant : 191

Partie 2. La nature fabrique le complexe à partir du simple

« L’Univers possède depuis les temps les plus reculés accessibles à notre exploration, les propriétés requises pour amener la matière à gravir les échelons de la complexité. » Cela commence par trois caractéristiques primordiales pouvant paraître triviales, mais qui sont loin de l’être. Sans elles, le monde aurait été, soit chaotique (telle une soupe de particules obéissant aux lois quantiques, mais incapable de former des structures stables), soit ordonné à l’excès (tel un cristal). S’il est intelligible, trois propriétés en sont les causes : 1.  La séparabilité : il est fait d’objets bien définis et distincts, par exemple des atomes, des molécules, des cristaux, etc., et non d’un nuage ou d’une soupe indifférenciée. 2.  La localité : ces objets se disposent clairement dans un espace. 3.  La temporalité : il est possible de définir un temps et d’y voir se dérouler les phénomènes dans un ordre non ambigu. Nous remarquerons que ces propriétés s’appliquent à notre monde usuel, dit macroscopique et non au monde microscopique. Elles apparaissent lorsque des particules réunies en nombre suffisant perdent leur spécificités quantiques et décohèrent (cf. chapitre 4). Si cette transition n’existait pas, l’Univers resterait quantique et il ne présenterait pas les trois spécificités mentionnées. Plus précisément : – la séparabilité n’est pas universelle en mécanique quantique, car cette théorie suppose un principe contradictoire : l’indiscernabilité. Par exemple, si deux électrons bien identifiés interagissent, après leur échange, nous ne pouvons plus les rattacher précisément aux deux particules du début. Ils sont parfaitement interchangeables sur le plan théorique ; – s’agissant de la localité, nous savons que la mécanique quantique est non locale : une particule peut se manifester comme une onde s’étalant dans l’espace entier ; – enfin, la temporalité est mal définie, car les équations sont réversibles dans le temps. Ainsi, un même phénomène peut se décrire 192

L’Univers millefeuille

Le monde s’organise comme une combinatoire

par le mouvement d’une particule dans le sens du temps, ou bien par celui de son antiparticule remontant le temps. À l’inverse, dans le monde classique, la propriété de temporalité émerge grâce au deuxième principe de la thermodynamique : de la croissance de l’entropie, provient la flèche du temps qui nous est familière. Pour résumer, les trois caractéristiques dont nous parlons n’existaient pas au moment du Big Bang si ce n’est potentiellement. Grâce aux transitions de phase dues à la décohérence et au deuxième principe, il apparaît un monde macroscopique stabilisé dans une configuration suffisamment simple pour être intelligible. Simple, car il dispose des trois propriétés citées, et intelligible, car notre cerveau s’est développé dans un tel contexte et il s’est modelé pour le décrypter. Dans ce chapitre, nous allons voir comment cette simplicité provient d’une architecture en Lego hiérarchisés. Nous entendons par là, que toute la matière s’organise en quatre jeux de pièces standard, emboîtés l’un dans l’autre à des échelles distinctes. Nous reconnaissons la structure en millefeuille de l’Univers, chaque strate émergeant de celle du dessous (figure 31). Il s’agit de : 1er Lego : les particules. 2e Lego : les atomes. 3e Lego : les molécules minérales. 4e Lego : les macromolécules (protéines, ARN, etc.).

(10 pièces) (92 pièces) (2 000 pièces) (Une infinité de pièces)

Nous retrouvons aussi ce principe déjà explicité, selon lequel : – les lois physiques imposent des règles : ici, un jeu limité de pièces de Lego et leur combinatoire, c’est-à-dire la façon dont elles peuvent s’assembler ; – le hasard engendre la complexité en construisant tout ce qui existe, dans le respect des règles du jeu. On peut y reconnaître l’idée de Démocrite, déjà évoquée, disant que tout dans le monde est le fruit du hasard et de la nécessité. 193

Partie 2. La nature fabrique le complexe à partir du simple

Figure 31 | Quatre Lego hiérarchisés dans des échelles différentes du millefeuille.

La nature intime de l’Univers est ainsi faite : un jeu de particules très restreint (une dizaine aux faibles énergies) permettant un nombre infini de combinaisons. Pour nous convaincre de l’immensité des possibilités ouvertes au hasard, évoquons une combinatoire bien connue : celle du jeu d’échecs. Parmi les 32 figurines situées sur l’échiquier, si nous nous limitons aux trois premiers déplacements de pions des deux joueurs en début de partie, il existe déjà 9 millions de possibilités. Pour 40 déplacements, le nombre des jeux possibles dépasse le nombre de particules du cosmos. Si l’Univers présente une infinité de combinaisons possibles, et qu’aucun architecte ou artisan n’est là pour sélectionner et manipuler les pièces, comment la nature peut-elle s’organiser à partir des quatre jeux de Lego ? Les règles du jeu (les lois physiques) résident dans les quatre forces déjà vues au chapitre 1. Elles tendent à agréger les 194

L’Univers millefeuille

Le monde s’organise comme une combinatoire

pièces entre elles spontanément. Cet auto-assemblage rappelle certains jeux de construction conçus pour les très jeunes enfants, d’un à deux ans. Comme ils ne sont pas encore capables de réaliser des constructions par eux-mêmes, on leur offre des jeux faits de pièces allongées munies d’aimants à chaque extrémité. Il suffit alors de les manipuler maladroitement pour qu’elles forment des triangles, des tétraèdres, des chaînes, etc. La simple action de brasser le tas de pièces fait déjà naître des structures. La nature procède de la même façon, non pas en utilisant l’aimantation, mais en exploitant les quatre forces. Quant au brassage, il s’effectue tout simplement par l’agitation thermique. Un milieu tel que l’eau le favorise au point d’avoir permis l’apparition de la vie. En passant en revue les quatre niveaux de Lego et leur combinatoire, nous nous référerons à ces « pièces aimantées », une image pour simplifier le langage. Cette structure en jeux de Lego faits de pièces standard et capables de combinaisons infinies explique une propriété essentielle de ­l’Univers : comme nous l’avons vu au chapitre 5, il se situe sur un équilibre harmonieux entre la régularité (l’ordre) et la diversité (le chaos). Curieusement, nous sommes tellement habitués à cet ajustement que nous n’y voyons rien d’exceptionnel. Si nous nous dirigeons vers une forêt, au premier regard, elle nous paraît un milieu homogène : vus de loin, tous les arbres se ressemblent. Pourtant, en nous y promenant, nous découvrons de nombreux détails différents d’un arbre à l’autre, une grande variété de végétaux, des animaux ayant trouvé leur niche ici et là, etc. Chaque espèce vivante est ellemême finement ajustée entre la régularité (une forme et un génome communs) et la diversité (différents allèles pour chaque gène, constituant le pool génétique de l’espèce). Cet équilibre assure sa constance à travers les âges, mais aussi sa résilience aux maladies ou aux changements environnementaux. La régularité empêche que l’Univers devienne chaotique sous l’impulsion du hasard. Elle fait la joie des physiciens qui peuvent la codifier et la mettre en équations. La diversité a introduit une dose 195

Partie 2. La nature fabrique le complexe à partir du simple

de chaos dans cet ordre, tout juste de quoi donner un peu de sel à la vie : il se forme une infinité d’astres, de roches, de reliefs, de végétaux, d’êtres vivants, etc. L’harmonie de notre univers réside en cet ajustement fin. Plus nous avançons en cosmologie, plus cet équilibre nous paraît improbable. Nous nous en apercevons en simulant par ordinateur des mondes différents du nôtre, tout simplement en modifiant l’intensité des forces ou bien la masse des particules. Toutes les versions hypothétiques ainsi engendrées présentent, soit une forme excessivement ordonnée, soit une autre totalement chaotique. L’astrophysicien Smolin y voit un point essentiel : « Toute théorie, suffisamment intéressante pour prétendre expliquer notre univers, doit traiter du rapport entre son unité et sa variété. » En d’autres termes, elle doit rendre compte de sa beauté ! Nous allons examiner plus en détail ces quatre niveaux de Lego imbriqués : les particules, les atomes, les molécules et les macromolécules. À chaque fois, nous nous poserons la question suivante : comment le hasard est-il contraint ? Pour comprendre cette démarche, voici une autre analogie : le jeu des petits chevaux. Ce jeu est apprécié des plus jeunes, car il est essentiellement aléatoire et ne requiert pas de stratégie. Toutefois, le hasard est très encadré par deux contraintes (figure 32) : les règles du jeu et le plateau qui impose un cheminement aux chevaux. On peut y voir, en premier, les lois de la physique et, en second, l’environnement. En examinant les quatre Lego formant notre monde, nous analyserons à chaque fois ces deux types de contraintes : 1.  Quelles règles du jeu s’imposent au déplacement et l’assemblage des pièces ? 2.  Sur quel terrain évoluent-elles ?

196

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Figure 32 | Une combinatoire se développe par le hasard, sous la double contrainte des lois de la physique (la règle du jeu) et de l’environnement (le terrain).

PREMIER LEGO : LES PARTICULES Ce premier Lego est très simple avec seulement une dizaine de pièces : quatre particules de matière et six de force41. Si un chercheur en physique me lit, il risque de sourire en pensant aux tours de force des savants nobélisés qui sont parvenus à décrire ces quelques pièces. Pourtant, au total, nous partons bien d’un Lego fort simple pour commencer le jeu. Pour être plus exact, le modèle standard contient environ 61 particules dites élémentaires. Cependant, pour la plupart, elles n’existent que dans les hautes énergies ou bien elles sont instables. Dès lors, la matière usuelle dont est fait le cosmos, minérale ou vivante, se résume à quatre pièces de Lego. Grâce aux quatre forces en présence, elles sont en quelque sorte « aimantées » et vont pouvoir s’assembler spontanément. Depuis Albert Einstein et Niels Bohr, nous considérons les particules tout à la fois comme des corpuscules et des ondes. Elles s’étalent dans l’espace entier, même si elles peuvent aussi se manifester en 41.  Quatre particules de matière : deux quarks, l’électron et un neutrino. Six particules de force : le photon (force électromagnétique), trois bosons faibles (interaction nucléaire faible), le gluon (interaction nucléaire forte) et le graviton (gravitation) prédit, mais non encore observé. 197

Partie 2. La nature fabrique le complexe à partir du simple

un endroit précis, tel un grain de matière. La nature exacte de la réalité reste encore un sujet de discussion important, un siècle après la découverte de la mécanique quantique. Généralement, nous nous représentons les particules sous forme de champs répartis dans ­l’espace et se matérialisant de façon probabiliste. Pourtant, cela ­n’empêche pas leur assemblage précis à l’image des pièces de Lego. Bien au contraire, les règles de la physique quantique, si elles nous paraissent floues, permettent néanmoins de prévoir parfaitement la nature des 92 atomes que les particules vont construire en se combinant. Examinons maintenant les deux contraintes qui vont s’imposer dans le jeu du hasard : les règles, d’une part, le terrain de jeu, d’autre part. Les règles du jeu. Les lois guidant les particules se résument à la théorie quantique des champs que Laurent Schwartz avait baptisée « théorie cantique des chants ». Répondant aux principes de la mécanique quantique, elle explique toutes les particules, aussi bien de matière (les fermions), que de force (les bosons). Elle permet de décrire le comportement des atomes en très petit nombre et celui des molécules les plus simples. Pour des objets plus grands, les calculs sont vite hors de portée des mathématiques actuelles. À terme, de nouveaux moyens permettront de les mener à bien pour de grosses molécules. Nous misons beaucoup sur les futurs ordinateurs quantiques dont les premiers exemplaires très rudimentaires sont réalisés aujourd’hui en laboratoire. Comme ces calculateurs exploitent les propriétés quantiques des particules, il est naturel de penser qu’une de leurs toutes premières applications sera précisément la simulation numérique des molécules. Cela donnera un essor considérable à la chimie. Grâce à ces règles, comment s’organise le jeu de Lego entre les particules ? Sous l’action des forces nucléaires et électromagnétique, elles s’assemblent en atomes stables : les 92 éléments formant le Lego suivant. Ainsi, du flou de la sphère quantique, émerge le monde macroscopique usuel. En se réunissant, la matière perd collectivement ses propriétés quantiques (décohérence). Alors, en première approximation, les atomes peuvent être considérés comme des grains. 198

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Le terrain de jeu. Au moment du Big Bang, l’environnement est extrêmement chaud. Puis l’expansion de l’espace-temps impose un refroidissement rapide. 380 000 ans après, avec la création des premiers atomes, naît un univers stérile fait d’un gaz d’hydrogène et d’hélium. Quelques dizaines ou centaines de millions d’années plus tard, apparaissent les premières étoiles. Elles vont relancer le jeu. Grâce à leur caractère de système critique auto-organisé (voir chapitre 5), elles créent un nouvel environnement stable et réchauffent les particules à la bonne température pour forger les 90 autres éléments du Lego atomique42. Pour être plus précis, le fer et les atomes plus petits (carbone, oxygène…) se forment tranquillement dans le cœur de l’étoile, alors que les plus lourds (or, plomb…) naissent de façon cataclysmique lors de l’explosion finale de l’astre. Parce qu’ils sont très chauds, le Big Bang, en premier, et les étoiles, ensuite, constituent l’environnement qui favorise et contraint le jeu du hasard animant les particules. DEUXIÈME LEGO : LES ATOMES Le lent travail des étoiles fait apparaître le deuxième Lego composé de ces 92 atomes stables : le carbone, l’oxygène, les métaux, etc. Si vous offrez à un enfant un jeu de construction de 92 pièces différentes, il aura de quoi occuper une bonne partie de sa jeunesse. Dans le cas de l’Univers, les 92 atomes vont s’assembler en molécules, essentiellement en échangeant des électrons. Certains, dits oxydants, ont une propension à attirer des électrons, tandis que les autres, dits réducteurs, tendent à s’en défaire, d’où une combinatoire complexe et potentiellement, une grande variété chimique. Comment s’organise-t-elle ? Les règles du jeu. Les éléments vont se réunir pour construire le Lego suivant, celui des molécules minérales. Les échanges d’électrons dont nous avons parlé sont régis par la force électromagnétique qui joue ici le rôle d’« aimant » entre les pièces. En utilisant les électrons comme monnaie d’échange, les atomes forment entre eux différents 42.  cf. LES CLÉS. Page 162. 199

Partie 2. La nature fabrique le complexe à partir du simple

types de liaisons (covalentes, métalliques, ioniques) et s’assemblent en molécules dont beaucoup sont stables. Le terrain de jeu. Les 92 éléments vivent des destins différents selon l’environnement où ils se trouvent. Si sur Terre, nous les voyons se côtoyer et se combiner en milliers de molécules différentes, il en va autrement dans le cosmos. Après 13,8 milliards d’années d’existence, ce dernier reste encore formé de 99 % d’hydrogène et d’hélium, les deux atomes originels. Où trouve-t-on le 1 % d’éléments lourds capables de s’engager dans une combinatoire complexe ? Beaucoup sont dispersés dans les nuages du milieu interstellaire : molécules seules, poussières, cailloux, etc. D’autres résident à l’intérieur des étoiles. Enfin, une petite partie forme les planètes. Au sein d’un système planétaire, les lois de la physique contraignent le hasard en imposant un tri : les planètes les plus proches du Soleil sont riches en métaux, surtout du fer, atome le plus stable de tous. Ce sont les planètes telluriques (Mercure, Vénus, Terre, Mars). Ensuite, les éléments les plus légers, essentiellement de l’hydrogène, se retrouvent dans les planètes gazeuses (Jupiter, Saturne, Uranus, Neptune). Le Lego des atomes ne peut développer la complexité qu’en ces endroits privilégiés du cosmos. TROISIÈME LEGO : LES MOLÉCULES On a longtemps distingué les molécules minérales et organiques, car on pensait que seule la vie pouvait élaborer les secondes : acides aminés, nucléotides, sucres, etc. Puis, cette distinction s’est avérée sans intérêt. En 1953, dans une expérience célèbre (figure 33), un jeune doctorant de 23 ans, Stanley Miller, a rempli un ballon avec les cinq gaz dont on pensait qu’ils constituaient l’atmosphère primitive : vapeur d’eau, hydrogène, monoxyde de carbone, méthane et ammoniac. En chauffant le récipient et en soumettant le gaz à des décharges électriques, il a constaté la formation spontanée de molécules dites organiques, dont des acides aminés. L’hypothèse concernant l’atmosphère primitive a été révisée depuis, mais les conclusions 200

L’Univers millefeuille

Le monde s’organise comme une combinatoire

de l’expérience ont été confirmées : les « briques » de la vie ont pu se former spontanément à l’époque où la Terre était plus chaude et sujette à de forts orages. Ensuite, les moyens d’exploration du cosmos ont permis de découvrir une chimie complexe dans les nuages cosmiques que l’on pensait être parfaitement stériles en raison des rayonnements puissants les traversant. On y a trouvé plus de 200 molécules dont, de nouveau, des acides aminés, des nucléotides, des sucres et des hydrocarbures. Curieusement, les espèces les plus présentes sont les hydrocarbures polycycliques aromatiques, dont la naphtaline. Ainsi, selon le paléontologue Simon Conway Morris, le cosmos sent partout la naphtaline et, au moins, on peut être sûr d’une chose : il est exempt de mites ! En certains lieux très particuliers (planètes telluriques et parfois lunes de grosses planètes), la diversité moléculaire peut atteindre 2 000 molécules. Voyons maintenant comment s’organise la combinatoire des molécules, c’est-à-dire la chimie.

Figure 33 | L’expérience de Miller reproduit les conditions prébiotiques : les molécules organiques se forment spontanément à partir de gaz atmosphériques.

Règle du jeu. C’est toujours la force électromagnétique qui anime ce troisième Lego, mais d’une façon plus subtile. En se rencontrant, 201

Partie 2. La nature fabrique le complexe à partir du simple

les molécules s’assemblent et se désassemblent pour en former d’autres, soit naturellement en dégageant de l’énergie, soit grâce à un apport d’énergie. La chimie permet de prévoir si une réaction donnée est possible ou impossible, lente ou rapide, réversible ou non, etc. En outre, quand les molécules coexistent, des attractions électriques plus faibles servent aussi d’« aimants » pour les rapprocher et les coller entre elles : ce sont les liaisons hydrogène et celles de type van der Waals. Elles tendent à unir les molécules pour constituer les liquides ou les solides courants. Les phénomènes d’attraction ou de r­épulsion relèvent toujours de la force électromagnétique, mais avec une ­intensité très variable contribuant ­beaucoup à la diversité. Le terrain de jeu. Là où des supernovas ont ensemencé l’espace d’atomes plus lourds, les nuages cosmiques sont des endroits propices au développement d’une chimie élémentaire. Les poussières y jouent un rôle important. À proximité des étoiles, la face des grains de matière située à l’ombre offre un environnement favorable, à l’abri du rayonnement destructeur. En se collant à leur surface, les molécules interagissent avec une probabilité accrue. C’est une première forme de catalyse. Avec une grande variété d’éléments et des températures tièdes, les planètes telluriques sont des endroits très privilégiés. Le carbone, dont l’activité chimique est exceptionnelle, y est très présent. Parmi ces astres, on qualifie d’habitables ceux disposant d’eau liquide, un corps doté de propriétés remarquables. D’abord, l’eau est très stable. Ensuite, elle est un solvant puissant qui rapproche facilement les molécules et favorise une chimie particulièrement riche. L’agitation thermique y provoque un brassage permanent. Une autre qualité très importante tient à la façon dont elle est « aimantée » : comme nous l’avons vu au chapitre 6, la molécule d’eau présente un côté chargé négativement et l’autre positivement. Cette polarité ne laisse aucune autre molécule indifférente. Elle les sépare entre substances hydrophiles et hydrophobes, imposant ainsi une contrainte forte au jeu de la chimie. 202

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Enfin, sur les planètes habitables, le cycle de l’eau entraîne un brassage considérable des minéraux par érosion. Sur certaines planètes, il s’y ajoute une tectonique des plaques permettant l’enfouissement des roches vers des températures et des pressions élevées, puis leur résurgence à la surface par les volcans après transformation. De là provient la richesse des sols. Pour toutes ces raisons, on estime que si la vie existe dans le cosmos, on la trouvera sur des planètes ou des lunes dotées d’eau liquide. Toutefois, on ne peut exclure qu’une chimie complexe se soit aussi développée sur des astres plus froids possédant des océans de méthane. Du troisième Lego, va émerger le quatrième, celui ayant conduit à la vie. La diversité moléculaire va exploser en raison d’un fait essentiel : certaines molécules peuvent s’assembler en chaînes. QUATRIÈME LEGO : LES MACROMOLÉCULES Certaines molécules tendent à s’accrocher l’une à l’autre en ligne comme les wagons d’un train. Elles possèdent l’équivalent de deux « crochets » : mâle d’un côté et femelle de l’autre. Elles forment des chaînes appelées polymères. L’exemple le plus simple est l’hydrocarbure, une chaîne de carbones auxquels se rattachent des atomes d’hydrogène. Le gazole des voitures est fait de telles chaînes allant jusqu’à une quarantaine de maillons. Une immense variété chimique va se développer parce qu’au sein de certaines chaînes, notamment d’acides aminés, des maillons de différente nature peuvent se succéder dans un ordre variable. À titre d’illustration, si nous assemblons cinq perles de couleurs pour faire un collier, nous pouvons adopter la séquence rouge, bleu, rouge, vert, noir, etc., ou bien bleu, noir, rouge, rouge, vert, etc. La variété tend alors vers l’infini. Par exemple, imaginons que nous montions des colliers de plus en plus longs avec des perles de 20 couleurs (le même nombre que celui des acides aminés constituant les protéines). Pour un tout petit collier de trois perles seulement, il existe déjà 8 000 façons différentes de combiner les couleurs. Cela 203

Partie 2. La nature fabrique le complexe à partir du simple

représente une variété quatre fois supérieure à celle des molécules minérales sur Terre. Avec 21 perles, le nombre de possibilités atteint 2 milliards de milliards de milliards de possibilités. Nous imaginons difficilement le nombre de variantes que peut présenter le génome humain avec son milliard et demi de « perles » de 4 couleurs possibles. Par ce mécanisme de polymérisation, le quatrième Lego parvient à une quasi-infinité de pièces, un fait qui est à l’origine de la vie. Nous allons caractériser un peu plus ces macromolécules en nous concentrant sur les deux constituants principaux des organismes vivants : les protéines et les acides nucléiques. Les règles du jeu. Rappelons comment se forme une protéine (figure 34) : il s’agit d’une chaîne d’acides aminés choisis parmi une vingtaine. Celles qui ont pu apparaître spontanément dès les débuts de la vie présentaient une longueur inférieure à 10 maillons. Aujourd’hui, façonnées par l’évolution darwinienne, elles peuvent regrouper des centaines d’acides aminés. La protéine utilise remarquablement les deux types de liaisons électromagnétiques dont nous avons parlé. En premier, les liaisons fortes (covalentes) assurent la cohésion des maillons et leur assemblage en chaîne. De là vient sa solidité. En second, elle est ponctuée de charges faibles négatives et positives, dites résiduelles, qui l’obligent à se replier sur elle-même en formant une pelote. En général, plusieurs formes peuvent émerger, mais dans le cas particulier de la vie, seules ont été sélectionnées les protéines se repliant d’une seule et unique façon. Ainsi, la vie repose sur une correspondance biunivoque entre une séquence d’acides aminés et une forme. Ce nouveau Lego présente une variété infinie de pièces ouvrant la voie à une complexité considérable. Les charges résiduelles subsistant en périphérie sur la protéine repliée sont autant d’« aimantations » sophistiquées qui vont faire entrer ce jeu de Lego dans une combinatoire subtile. Entre macromolécules naissent des liaisons faibles (liaisons hydrogène et forces de van der Waals) permettant une grande richesse d’interactions. À titre d’exemple, dans l’ADN, chaque brin est assemblé par des liaisons 204

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Figure 34 | Une protéine égale une forme servant, soit de « pièce », soit d’« outil ».

fortes. En revanche, l’association des deux brins complémentaires en hélice repose sur des liaisons faibles. Cela permet à l’hélice de se dédoubler facilement pour autoriser, soit l’expression des gènes (la transcription), soit leur reproduction. Le terrain de jeu. Il se situe sur une planète particulièrement favorisée, la Terre, où l’eau liquide est présente en abondance. On considère que les premières protéines ont pu apparaître en des endroits singuliers du globe comme les cheminées hydrothermales. Le développement de macromolécules de plus grande taille est devenu possible lorsqu’elles ont pu s’encapsuler dans une vésicule lipidique comme nous l’avons vu au chapitre 6. Il s’agit d’une « goutte d’eau dans l’eau », séparant son intérieur du milieu extérieur. Cette segmentation 205

Partie 2. La nature fabrique le complexe à partir du simple

du milieu par les membranes omniprésentes dans le vivant forme un terrain de jeu particulièrement contraignant. Un exemple frappant du « Lego aimanté » des macromolécules nous est donné par le mode de pénétration du virus SARS-CoV-2 dans nos cellules. Deux pièces de Lego très ajustées en sont responsables : – la première est une protéine fixée sur la paroi cellulaire, le récepteur dit ACE2. Son rôle est de faire entrer certaines molécules à travers la membrane pour assurer différentes fonctions régulatrices de la cellule (mais non les virus !) ; – la seconde est le spicule du virus, une autre protéine qui, au cours de l’évolution, a épousé la forme complémentaire de celle du récepteur ACE2 et a détourné sa fonction. Grâce à cet ajustement très fin, si un spicule rencontre le récepteur, elle s’y accole immédiatement sous l’effet de sa géométrie et de ses charges de surface. Les deux protéines constituent alors un ensemble soudé qui change légèrement de configuration. Cette déformation a pour effet d’amener la membrane de la cellule en contact étroit avec celle du virus. De la même façon que deux gouttes d’huile se rencontrant tendent à se fondre en une seule, la paroi du virus fusionne avec celle de la cellule. Alors, le matériel génétique du virus, un brin d’ARN, se retrouve dans milieu cellulaire. Ce mécanisme ne tient qu’à une chose : l’adaptation très fine entre la forme de deux pièces de Lego : le spicule et le récepteur. On donne une image de ce genre de processus en parlant du couple « clé et serrure ». Cette profonde similarité entre les deux protéines provient simplement de l’histoire de l’évolution naturelle. Les virus sont très probablement contemporains, si ce n’est antérieurs, aux toutes premières cellules. Ils ont eu près de 4 milliards d’années pour trouver les clés les mieux adaptées aux serrures. LE QUATRIÈME LEGO SE SOPHISTIQUE AVEC LA CATALYSE ET FAIT APPARAÎTRE LA VIE Nous disions plus haut que le Lego des molécules entre naturellement dans une combinatoire, sans l’intervention d’un quelconque 206

L’Univers millefeuille

Le monde s’organise comme une combinatoire

architecte ou artisan. Les assemblages se font spontanément du fait de l’« aimantation des pièces » et du brassage de l’agitation moléculaire. Dans le cas de la vie, cette combinatoire, devenue immensément complexe, ne pouvait se dérouler sans un facilitateur et un accélérateur : la catalyse, brièvement mentionnée au chapitre 5. Nous allons la présenter maintenant comme une prolongation de l’idée du Lego. La catalyse se rencontre déjà dans le monde minéral. L’exemple type est celui des pots d’échappement servant à parfaire la combustion du carburant. Son explosion dans les cylindres du moteur est trop rapide pour que toutes les molécules puissent interagir. Aussi, des imbrûlés subsistent dans les gaz rejetés. Pour y remédier, on les fait transiter dans un pot fait de matériaux alvéolés, présentant une grande surface où l’on a déposé une fine couche métallique. Les molécules indésirables se fixent sur les multiples parois, ce qui favorise leur rencontre avec l’oxygène et donc leur dégradation. En particulier, le CO se convertit en CO2 plus stable et beaucoup moins dangereux. Ainsi, le catalyseur intervient pour accélérer les réactions, sans faire partie lui-même des réactifs. Le pot ne se consume pas. Il reste disponible pour chaque usage de la voiture. De nombreuses substances minérales ont cette vertu de favoriser l’assemblage ou la désagrégation de pièces du Lego moléculaire. Les chimistes les connaissent bien et les utilisent à bon escient. Un nouveau type de catalyseur infiniment plus efficient s’est développé avec les polymères et la vie : les enzymes. Ce sont des protéines spécialisées pour « manipuler le Lego du vivant ». Pour comprendre ce qu’elles sont et comment elles agissent, revenons à la figure 34 : en se repliant, chacune crée une forme, autrement dit, une pièce de Lego hautement spécifique. Le dessin indique deux familles : les protéines de structure et les enzymes. Les premières sont un constituant majeur des animaux, au même titre que l’eau, les os et les membranes. Par exemple, le muscle est un assemblage de fibres, des protéines se contractant quand un courant électrique les traverse. Les enzymes 207

Partie 2. La nature fabrique le complexe à partir du simple

sont d’autres formes jouant plutôt le rôle d’outil : elles sont capables d’attraper des pièces de Lego pour les modifier ou les forcer à interagir. De la même façon que dans un atelier de mécanique, vous trouvez des pièces et des outils, cette distinction se retrouve parmi les protéines de votre corps. Chacun des outils du vivant est caractérisé par une forme bien ajustée et par des charges électriques placées au bon endroit pour attirer certaines molécules et s’y attacher. La catalyse par les enzymes est essentielle pour la vie. Elle remonte très certainement à son origine. Le corps humain fonctionne grâce aux quelques 5 000 réactions chimiques constituant son métabolisme. L’immense majorité de ces réactions ne se feraient pas spontanément, et celles qui se déclencheraient seraient tellement lentes ou partielles que la vie ne pourrait pas s’en accommoder. Pour fonctionner, les réactions du métabolisme sont quasiment toutes forcées par environ 7 000 enzymes dont le seul rôle est de manipuler les pièces de Lego et de les contraindre à se combiner. Plusieurs spécialistes de l’origine de la vie, dont Manfred Eigen et Stuart Kauffman, ont mis en évidence comment la catalyse des macromolécules pourrait bien l’expliquer. La vie serait née d’un cercle vertueux, l’autocatalyse, se formant grâce à deux propriétés remarquables du quatrième Lego : 1.  L’existence d’une quasi-infinité de polymères, principalement des protéines, pouvant se replier sous toutes sortes de formes. 2.  Les propriétés catalytiques de la plupart de ces macromolécules. Cela a dû provoquer une situation explosive, déjà évoquée. Aux tout débuts de la vie, en des endroits privilégiés où régnait une concentration minérale élevée, les premières protéines se sont formées spontanément, mais elles n’atteignaient guère plus de quelques maillons. Parmi elles, certaines ont dû catalyser la formation de protéines plus longues, c’est-à-dire de nouvelles formes constituant à leur tour de nouveaux catalyseurs. Les simulations de Kauffman ont montré qu’il en résultait un effet boule de neige43 développant la diversité 43.  cf. LES CLÉS. Page 258. 208

L’Univers millefeuille

Le monde s’organise comme une combinatoire

moléculaire de façon explosive. Plus les protéines devenaient grandes et variées, plus elles catalysaient les réactions des autres. Plus il y avait de réactions catalysées, plus la taille et la variété des protéines s’accroissait. Ce phénomène, une transition de phase, est probablement à l’origine de la vie. De la même façon, si nous observons les catalogues successifs de la firme Lego au cours du temps, nous constatons que les premières pièces primitives, des parallélépipèdes, ont été progressivement enrichies par une multitude d’autres, comprenant des roues, des moteurs, des ailes d’avion, etc. Comment cette explosion de l’autocatalyse a-t-elle été contenue ? D’abord, il existait une limite dans les quantités de produits chimiques disponibles dans le milieu et les réactions saturaient. Ensuite, des mécanismes de sélection ont commencé à trier finement les macromolécules les plus résilientes et les plus pertinentes, celles assurant la stabilité des êtres vivants. LA CATALYSE EST UNE NOTION UNIVERSELLE Nous venons d’introduire la catalyse, un phénomène essentiel pour animer le Lego des macromolécules, au point qu’elle serait à l’origine de l’apparition de la vie. Avant d’aller plus loin dans l’auto-organisation de l’Univers à toutes les échelles, il est utile de préciser son rôle général d’accélérateur pour escalader le Mont Complexité. En dehors du vivant, nous la retrouvons partout : en amont, dans le monde minéral ; en aval, dans les activités humaines et dans la société. Nous définirons généralement le catalyseur comme un produit D qui favorise une réaction du genre A + B  C sans faire partie luimême de cette transformation. Nous parlerons d’autocatalyse lorsque, dans un milieu, un grand nombre d’éléments tendent à catalyser la formation d’autres, constituant ainsi un réseau de boucles complexes et imbriquées. Au cours des dernières décennies, en étudiant le cosmos avec des instruments de grande sensibilité, nous avons été surpris par la 209

Partie 2. La nature fabrique le complexe à partir du simple

fertilité de la chimie qu’il développe. Dans les nuages de poussière dont nous avons parlé, la surface des petits grains solides favorise l’activité chimique. En s’y collant, les atomes ou molécules se confinent sur un espace à deux dimensions au lieu de trois. Comme nous l’avons vu, cela accroît leur probabilité de rencontre. Ainsi apparaît une chimie élémentaire dont nous avons dit qu’elle pouvait tout de même engendrer une diversité de 200 molécules. Au niveau du cosmos, nous commençons à découvrir le rôle catalytique des trous noirs. Depuis peu, nous savons que la grande majorité des galaxies en abritent un grand en leur centre. Dans ses périodes d’activité, il dévore la matière environnante et provoque des cataclysmes. Ces évènements ébranlent l’espace aux alentours, via des ondes électromagnétiques (rayons gamma et X) et des ondes gravitationnelles. En secouant le gaz interstellaire, le trou noir central y déclenche l’agrégation de la matière qui sera à l’origine des étoiles. À d’autres échelles, les fusions de galaxies ou les supernovas ont des effets similaires. Cela explique que nous trouvions des pépinières d’étoiles naissantes en des endroits du cosmos fertilisés par de tels cataclysmes. L’effet d’un trou noir galactique s’apparente à une catalyse, car il n’intervient pas lui-même dans la composition des étoiles. Il favorise simplement l’agrégation des molécules de gaz. Sur les planètes telluriques, les occasions de catalyse minérale sont multiples, au contact des argiles, des pyrites et plus généralement de tous les matériaux lamellés ou alvéolaires. Si ces derniers se recouvrent de molécules métalliques, leur capacité s’en trouve accrue. L’exemple de l’argile est particulièrement frappant. Il s’agit de cristaux de silicates disposés en feuillets très fins. Un seul centimètre cube de ces lamelles peut développer 1 800 m2 de surface utile, l’équivalent de neufs courts de tennis. On a constaté que les substances chimiques s’immisçaient facilement entre ces feuillets et qu’ainsi contraintes, elles réagissaient de façon catalysée. Les réactions observées vont jusqu’à la polymérisation de petites chaînes peptidiques, c’est-à-dire la formation de protéines élémentaires. 210

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Sur Terre, une fois la vie apparue, elle a progressivement colonisé et façonné la planète. Ce faisant, elle a engendré un environnement très riche, capable de catalyser… la vie. D’une manière générale, l’écosystème est un vaste ensemble autocatalytique où la biosphère (la vie) est en interaction fine avec la lithosphère (la roche), l’hydrosphère (les océans) et l’atmosphère. Nous connaissons très mal les mécanismes animant à l’infini un milieu d’une telle complexité. Le cycle de l’eau y joue un rôle majeur étant donné ses propriétés remarquables de solvant et de catalyseur. Elle s’évapore des océans, circule dans les nuages, tombe en précipitations sur les continents, ruisselle sur les roches, dissout les minéraux et, enfin, retourne dans les océans. En parcourant ce cycle, l’eau n’est pas consommée. Elle circule, elle transporte et elle catalyse. La végétation sur Terre et le plancton dans les mers participent à un autre cycle : celui de l’oxygène et du carbone. À long terme, il passe par une étape d’enfouissement dans les plaques tectoniques, suivie d’une résurgence par le volcanisme. Nous découvrons aujourd’hui les dégâts climatiques que provoque l’altération de cette boucle due à notre consommation excessive des énergies fossiles. Un autre catalyseur affectant directement ou indirectement l’ensemble de la biosphère est la chlorophylle. Quand cette molécule transforme l’énergie solaire en énergie chimique, elle n’est pas détruite dans le processus. Son seul rôle est de favoriser la conversion. Dans la biosphère, les phénomènes catalytiques se retrouvent chez les très nombreuses espèces se plaçant en situation de symbiose. Par exemple, les insectes pollinisateurs interviennent indirectement dans la reproduction d’espèces végétales, sans être consommés eux-mêmes dans le processus. Il en va de même de l’écureuil qui va cacher, ici et là, les graines des arbres, favorisant ainsi leur dissémination. Les exemples sont innombrables, telle la symbiose entre arbres et champignons dans le sous-sol. Les boucles de réaction sont très nombreuses entre toutes les parties prenantes de l’écosystème, au point qu’il est impossible d’en dresser une carte exhaustive. C’est l’un des plus 211

Partie 2. La nature fabrique le complexe à partir du simple

grands défis de l’écologie : comment agir sur un seul paramètre en étant conscient des conséquences sur les autres ? Enfin, la catalyse tient un rôle majeur dans le développement de la culture humaine. En voici quelques exemples historiques : – la maîtrise du feu a modifié profondément la vie préhistorique. Il a joué le rôle d’un catalyseur servant à éloigner les prédateurs et à résister au froid. La cuisson des aliments a été déterminante en rendant de nombreux végétaux comestibles ; – de même, l’invention des outils a catalysé la chasse, puis l’agriculture ; – plus tard, la monnaie a accéléré la circulation des biens en remplaçant le troc par un mode d’échange fluide et universel ; – l’imprimerie développée par Gutenberg (pour être plus précis : l’usage d’un Lego de caractères mobiles) a catalysé le savoir et la culture ; – en favorisant la production et les transports, la machine à vapeur a déclenché la révolution industrielle. Kauffman assimile l’industrie à un vaste ensemble autocatalytique : nous partons d’ingrédients de base (matières premières) et nous les transformons dans nos usines où hommes et machines fonctionnent comme des catalyseurs. Prise dans son intégralité, l’industrie est fortement autocatalytique : les machines permettent de fabriquer des machines ! Tous les secteurs industriels se catalysent mutuellement : l’invention du moteur à explosion a fait exister les camions qui acheminent des pièces vers des usines. Parmi celles-ci, certaines fabriquent les pneus des camions ou les pièces de leurs moteurs, etc. ; – l’ordinateur ne fait rien en lui-même, mais il accélère les processus ou bien il en permet de nouveaux. Le présent livre est écrit avec un Mac, dix fois plus rapidement qu’à l’époque où mon père, lui-même écrivain scientifique, tapait sur sa machine à écrire. Les voyages dans l’espace reposent sur les nombreux calculateurs au sol et embarqués. 212

L’Univers millefeuille

Le monde s’organise comme une combinatoire

Un peu plus loin, nous présenterons Internet comme un gigantesque réseau catalytique agissant au niveau planétaire. De même que le catalyseur met en contact les molécules pour les faire réagir, la toile rapproche les hommes autour de thèmes et d’intérêts divers. Uber ne dispose pas d’automobiles : il se limite à vous mettre en relation avec des chauffeurs qui en possèdent. Wikipédia ne crée aucun contenu culturel. C’est un robot servant à organiser l’interaction entre la population et une communauté d’experts travaillant à titre bénévole. Ces entreprises fonctionnement essentiellement comme des catalyseurs. L’AUTO-ASSEMBLAGE DES ÊTRES VIVANTS Après avoir détaillé les différents Lego, puis le mécanisme universel de la catalyse, nous pouvons aborder l’un des aspects les plus spectaculaires de la combinatoire des macromolécules : l’auto-assemblage des êtres vivants. Pour introduire ce concept, voici une métaphore. Imaginez que vous soyez dans la salle des pas perdus d’une gare et que vous soyez sourd. Vous voyez un grand nombre de personnes debout ou se déplaçant de façon désordonnée. Tout d’un coup, alors qu’à votre insu un haut-parleur vient d’annoncer le quai d’où va partir un train, vous voyez une grande partie de cette foule partir spontanément dans la même direction : le désordre s’est transformé en ordre sans raison apparente. En observant les êtres vivants se développer ou bien vivre, nous éprouvons souvent la même sensation de surprise. Il n’y a pourtant aucun miracle. Dans le cas d’un organisme, le hautparleur est le génome qui diffuse les bons signaux pour introduire l’ordre nécessaire à la vie. Quant au message qu’il émet, il s’agit de l’information génétique affinée par la sélection naturelle depuis la nuit des temps d’une manière cumulative. Comme nous l’avons déjà dit, dans une cellule, tous les organites se détruisent en permanence et se reconstruisent sur un cycle de quelques jours ou semaines. Comment cela peut-il se faire spontanément ? Pour le comprendre, nous pouvons revenir à la métaphore 213

Partie 2. La nature fabrique le complexe à partir du simple

de l’atelier où se trouvent des pièces à assembler et des outils. La première étape pour la cellule consiste simplement à fabriquer les éléments nécessaires, c’est-à-dire des protéines. En exprimant le génome, elle les élabore en quantité et les lâche librement dans son milieu interne, le cytoplasme. Sous l’influence de l’agitation thermique, pièces et outils se déplacent rapidement dans le plus grand désordre. Comme nous l’avons amplement décrit, l’évolution naturelle a finement ajusté la forme de chacun de ces objets. De plus, elle les a dotés d’une « aimantation » faisant que certains, pièces ou outils, vont s’ajuster spontanément avec d’autres. À partir de là, le hasard entre en jeu : inévitablement, à un moment donné, telle pièce rencontrera celle avec laquelle sa géométrie se marie et les deux s’assembleront. Par exemple, si une protéine de structure a pour fonction de ménager un passage à travers la membrane pour laisser passer certains nutriments, dès qu’elle touchera celle-ci, elle s’y fixera par simple attraction électrique. À ce jeu, toutes les combinaisons ne se font pas spontanément. Là, intervient la catalyse. Une enzyme (l’outil) flottant dans le cytoplasme finira par rencontrer une protéine précise (la pièce). Elle s’y attachera, puis, toujours en cheminant, elle finira par rencontrer l’autre pièce à assembler et s’y collera de la même façon. Alors, leur mariage sera forcé. Tout cela se déroule sous l’action des seules forces électriques, dites résiduelles, que toute protéine présente en surface. Si notre société s’organisait de cette manière, un vendeur de contrats d’assurance devrait attendre de croiser par hasard le bon client sur un trottoir pour faire une vente. De là vient notre difficulté à comprendre qu’un mécanisme aussi aléatoire soit si efficient. S’agissant de la cellule, nous nous situons à l’échelle moléculaire où tout est bien plus rapide. Ainsi, le mouvement brownien suffit à rendre les rencontres possibles en très peu de temps. Pour nous en convaincre, examinons le fonctionnement d’une enzyme de notre corps, réputée la plus rapide : l’anhydrase carbonique. Son rôle est un peu l’inverse de celui du pot d’échappement catalytique puisqu’elle combine les molécules d’eau et 214

L’Univers millefeuille

Le monde s’organise comme une combinatoire

de CO2 pour produire de l’acide carbonique. Dès que ces deux molécules se présentent, elle les saisit spontanément et les assemble aussitôt. Elle relâche le produit et recommence avec deux autres molécules. Si les concentrations sont suffisantes, une seule enzyme accomplit ce travail 500 000 fois par seconde ! Si nous parlons de la manipulation de macromolécules, bien plus grosses que celle du CO2, les temps sont bien plus longs, tout en restant courts par rapport au rythme de l’organisme vivant. À titre d’exemple, considérons le processus d’assemblage le plus complexe qui soit : celui permettant aux cellules de construire les protéines à partir de l’information génétique. Ce travail, appelé traduction, est effectué par une machine composée de nombreuses enzymes, le ribosome. Nous allons le schématiser tel une boîte dotée de deux fentes (figure 35) : – dans la première, l’information génétique pénètre sous la forme de brins d’ARN dits messagers (ARNm). Nous pouvons les assimiler à des photocopies des gènes. Ils indiquent au ribosome la séquence à respecter pour mettre bout à bout les bons acides aminés parmi les 20 utilisés par les protéines ; – dans la seconde fente, ces acides aminés entrent (en réalité un petit brin d’ARN se lie à chacun d’entre eux comme une étiquette aidant à le reconnaître). À un moment donné, seul l’acide aminé désigné par la lecture de l’autre ruban peut s’introduire dans la boîte. Il faut donc attendre qu’il s’en présente un exemplaire ; – dès que le ribosome a rencontré le bon acide aminé, il le saisit et le place au bout de la protéine en cours d’assemblage ; – alors, les deux rubans se décalent d’un cran et la machinerie attend que passe l’acide aminé suivant parmi ceux flottant aux alentours. À première vue, ce processus semble particulièrement inefficace : il fait penser à une foule de personnes qui passeraient dans le désordre devant une porte fermée, chacune essayant d’entrer avec sa propre clé. Il y aurait statistiquement une personne sur 20 possédant la bonne clé. Pourtant, le phénomène se déroule suffisamment rapidement pour répondre aux besoins de l’organisme. Dans le ribosome, le 215

Partie 2. La nature fabrique le complexe à partir du simple

ruban de la protéine en formation avance de 5 à 10 acides aminés par seconde. En fabriquer une complète prend environ une minute. Pour accélérer les choses, la cellule fait travailler en parallèle une dizaine de ribosomes sur le même brin d’ARNm. Ainsi, quand un besoin se fait sentir dans notre corps, il suffit de quelques minutes pour que les bonnes protéines s’assemblent et y répondent.

Figure 35 | La traduction des protéines.

Parmi les composants des cellules, le flagelle est un exemple particulièrement intéressant pour illustrer jusqu’où peut aller l’autoassemblage. Beaucoup de bactéries sont dotées d’un cil mobile qu’elles agitent pour se déplacer, à l’image des spermatozoïdes nageant frénétiquement vers leur but. Certains flagelles sont alternatifs et agissent comme une godille. D’autres, plus sophistiqués, sont rotatifs telle l’hélice d’un bateau à moteur. Ils tournent aux environs de 3 000 tours par minute. Nous découvrons que l’homme n’a pas inventé la roue ! La bactérie l’a fait avant lui (figure 36). Elle est allée bien plus loin en réalisant aussi le premier moteur électrique ! Le dispositif comprend une quarantaine de protéines qu’il va falloir apparier dans un certain ordre. Comment une mécanique aussi complexe peut-elle s’auto-assembler ? Quand un enfant construit un 216

L’Univers millefeuille

Le monde s’organise comme une combinatoire

appareil avec les pièces d’un Meccano, il dispose d’un mode d’emploi ou, au moins, d’un schéma global qu’il a imaginé. Il suit une séquence précise pour fixer les pièces l’une après l’autre. Bien que la bactérie ne possède ni un mode d’emploi, ni une procédure pour présenter les 40 protéines dans le bon ordre, elle parvient à les placer par le seul jeu du hasard. Elle commence par les produire et les laisser flotter librement. Ces pièces ont été conçues pour se fixer l’une à l’autre dans un certain ordre. La première est faite pour s’attacher à la membrane. Elle le fait spontanément comme beaucoup d’autres protéines dont le rôle est de faire transiter des substances à travers celle-ci. La seconde vient s’accrocher à la précédente dès que le hasard la fait passer par le bon endroit. L’assemblage résulte simplement du fait que les deux protéines ont exactement la forme idoine et les charges localisées aux bons endroits. Ainsi se construit un stator (partie fixe du moteur). Ensuite un cylindre vient s’y insérer. Sur cette pièce se fixent des protéines sensibles à l’électricité (une circulation de protons) pour constituer le rotor du moteur. Autour, se placent d’autres protéines, donneuses de protons, pour les alimenter. Enfin, le flagelle se monte, solidaire du rotor. À chaque étape, seule la pièce possédant la clé adaptée peut prendre son tour.

Figure 36 | Le flagelle des bactéries, premier moteur électrique.

Cet auto-assemblage se fait spontanément grâce à la géométrie des protéines en jeu et aux charges électriques qui les « aimantent ». 217

Partie 2. La nature fabrique le complexe à partir du simple

Le mode d’emploi, à l’origine codé dans le génome, se retrouve dans ces formes après traduction. Il suffit de produire les bonnes protéines en quantité suffisante et le hasard s’occupe du montage. On peut résumer cela en disant que « la recette de cuisine est inscrite dans les ingrédients » ou, plus scientifiquement, que l’organisation est potentiellement présente dans le substrat. La forme de chaque pièce est héritée de milliards d’années d’évolution pendant lesquelles ont été sélectionnées les meilleures : les protéines disposant des caractéristiques idoines pour se réunir et le faire dans le bon ordre. Pour parler plus crûment, si une bactérie s’avère incapable d’assembler correctement son flagelle et son moteur, elle meurt sans descendance. Voici un dernier exemple d’auto-assemblage au sein de la cellule, particulièrement intéressant, car on est parvenu à le reproduire en laboratoire. Il concerne l’enveloppe du noyau des cellules. Cette structure, bien plus complexe que l’on pourrait le penser, comprend une membrane double garnie d’une couverture faite de nombreuses protéines (la lamina nucléaire). On s’est longtemps demandé comment, lors de la division d’une cellule, un tel équipement pouvait se reconstituer dans chacune des cellules filles. Pourtant, la réponse est simple : il se reforme par auto-assemblage. Une expérience surprenante permet de s’en rendre compte. On part de cellules en cours de division. On en prélève l’intérieur et on en fait un « jus ». On y incorpore des brins d’ADN venant de n’importe où. On y ajoute un peu de poudre de perlimpinpin : des molécules d’ATP servant au transport de l’énergie dans les cellules. En deux ou trois heures, on voit apparaître spontanément une enveloppe autour des brins d’ADN, ni plus ni moins qu’un nouveau noyau. Elle se garnit successivement de toutes les protéines utiles. De plus, on voit les brins d’ADN se replier naturellement en de minuscules chromosomes. Ainsi, le seul fait d’ajouter dans cette soupe, des brins d’ADN quelconques et de l’ATP, déclenche l’organisation complète d’un noyau cellulaire. 218

L’Univers millefeuille

Le monde s’organise comme une combinatoire

DE NOUVEAUX LEGO APPARAISSENT DANS LES PLUS GRANDES ÉCHELLES L’emboîtement des Lego ne se limite pas aux quatre niveaux précédents. Les êtres multicellulaires relèvent d’un cinquième, plus sophistiqué. Il est étonnant que ces êtres reposent tous sur une seule pièce de Lego, grosso modo unique : la cellule eucaryote. On la retrouve universellement, avec peu de différences, dans tous les règnes du vivant : plantes, champignons et animaux. D’autres pièces ont peut-être existé dans un passé plus lointain. En effet, si les premiers fossiles d’êtres multi­ cellulaires datent de – 580 millions d’années, on en a aussi trouvé de bien plus anciens au Gabon, datés de – 2,1 milliards d’années. Comme en dehors de ce gisement, on n’a jamais identifié de fossiles similaires, on imagine qu’il s’agissait d’une forme de vie multicellulaire n’ayant pas perduré. On ne sait pas de quel type de cellules elle était faite. Si aujourd’hui, l’ensemble du monde multicellulaire se construit à partir d’une pièce de Lego à peu près unique, il faut préciser deux faits supplémentaires expliquant la variété de ces êtres. En premier, nous avons vu que les cellules, même dotées d’un génome identique, se différenciaient (cellule de peau, cellule de foie, etc.). On en trouve 4 variétés chez les êtres les plus rudimentaires et plus de 200 chez l’Homme. En second, si la pièce de Lego eucaryote présente peu de variations, il existe plus de variété dans ses possibilités d’« aimantation », c’est-à-dire les modalités lui permettant de se combiner et de s’assembler en structures. Il s’agit d’un domaine fondamental en biologie dans lequel il reste certainement beaucoup à découvrir. On sait que les cellules répondent à la diffusion de certaines molécules, comme les hormones de croissance. Elles échangent aussi de nombreux signaux chimiques, elles se collent entre elles grâce à des protéines d’adhésion et elles sont très sensibles à la pression reçue de leurs voisines. Tous ces mécanismes contribuent à la formation des organes selon des formes précises (la morphogenèse). Les êtres multicellulaires se développent essentiellement par auto-assemblage, comme le montre l’expérience suivante menée sur 219

Partie 2. La nature fabrique le complexe à partir du simple

une éponge. On a commencé par la désagréger en séparant toutes ses cellules et en les isolant de toute autre substance par filtrage. Puis, on a laissé reposer cette soupe dans un récipient. Alors, on a vu se reformer spontanément une nouvelle éponge. Certes, chez les êtres plus complexes, l’auto-organisation ne va pas jusque-là. Malheureusement, ou heureusement, un être humain ne s’autoassemble pas dans une éprouvette en s’affranchissant des neuf mois de grossesse. Dans une large mesure, le mécanisme des Lego et leur combinatoire se retrouvent dans une couche supérieure du millefeuille : la culture, elle-même fondée sur le langage. À ce niveau, les pièces ne se combinent plus par le seul fait du hasard, mais aussi par celui de la volonté humaine. Le langage, apparu chez Homo sapiens, s’appuie sur un nouveau Lego, celui du vocabulaire. Encore une propriété émergente. On imagine facilement un homme préhistorique présentant un fruit à l’un de ses congénères en prononçant : « kiwi ». Le second pouvait mémoriser ce son, puis le rattacher au fruit en question, c’est-à-dire lui donner un sens. Dans le groupe SONY, j’ai eu la chance de côtoyer le linguiste Luc Steels qui animait une équipe de chercheurs travaillant sur les phénomènes émergents44. L’un d’entre eux, Pierre-Yves Oudeyer45, avait créé virtuellement deux « êtres » capables d’échanger des phonèmes et de les rattacher à des choses présentant un sens pour eux. J’avais assisté à une expérience par ordinateur, où il matérialisait deux robots susceptibles de mémoriser des sons et de les associer à des évènements ou objets. À partir de là, on voyait se créer progressivement un vocabulaire entre les deux, leur permettant de se comprendre. Bien plus tard, en 2017, le service d’intelligence artificielle de Facebook a réitéré ce type d’expérience avec deux robots possédant des capacités très supérieures. Au bout de quelques semaines, les deux ont développé un langage très sophistiqué et incompréhensible pour l’Homme ! La société a 44.  SONY Computer Science Laboratory, Paris. 45.  Aux sources de la parole : Auto-organisation et évolution. P-Y. Oudeyer. 2013. 220

L’Univers millefeuille

Le monde s’organise comme une combinatoire

immédiatement décidé d’arrêter l’expérience, ne souhaitant pas se distinguer en jouant les apprentis sorciers. En conclusion, même si le langage a été inventé par nous, sa nature fondamentale est celle d’un phénomène combinatoire émergent qui épouse la complexité du cerveau. Il peut aussi se développer dans d’autres contextes. La structure du langage ressemble beaucoup à celle des Lego de la nature : NATURE : Particules (10)

LANGAGE : Traits composant les lettres (une dizaine)

Éléments chimiques Lettres de l’alphabet (94) (26) Molécules minérales (2 000)

Mots (2 000)

Molécules organiques (polymères) Textes (infini) (infini) Il existe aussi beaucoup de similarités entre le langage et l’information génétique inscrite dans l’ADN. Ce dernier dispose de 4 lettres au lieu de 26. Elles sont suffisantes pour composer des « phrases », les gènes, dont chacun exprime une réalité complexe. On y retrouve une syntaxe élémentaire : par exemple les segments de début et de fin délimitant les gènes. En raison de ces analogies, le vocabulaire des généticiens emprunte souvent des noms à la linguistique : transcription des gènes, traduction, palindrome (un mot ou une protéine se lisant identiquement dans les deux sens), etc. La proximité entre le génome et le langage va très loin, car, au sein des populations, les mots tendent à s’échanger un peu comme les gènes. C’est pourquoi le généticien Luigi Luca Cavalli-Sforza a eu l’idée de combiner sa propre discipline avec la linguistique dans le but de retracer les grands mouvements de population pendant la 221

Partie 2. La nature fabrique le complexe à partir du simple

préhistoire46. Les algorithmes mathématiques utilisés dans ces deux disciplines sont souvent les mêmes. En génétique, certains servent à reconstituer les arbres généalogiques passés en fonction des similarités observées entre les gènes au sein d’un échantillon d’individus contemporains. En linguistique, on les utilise identiquement pour retrouver l’origine des langues en analysant les similitudes entre mots utilisés aujourd’hui dans différents idiomes pour dire la même chose. La culture s’élabore aussi par Lego et combinatoire. Le biologiste Richard Dawkins a montré comment elle se propageait sous forme d’idées élémentaires qu’il a baptisées mèmes (du grec mimesis, ou imitation, et de l’anglais gene)47. Une simple idée, un mot, le visage de Che Guevara, un panneau routier ou une note de musique sont des exemples de mèmes. À l’image des mots, ils apparaissent spontanément dans nos esprits. Ils s’échangent et se développent dans la société par un phénomène darwinien : les idées intéressantes se propagent, les autres non. Le terme exact serait plutôt lamarckien, car ce processus repose sur les avantages acquis. Un exemple caricatural est la façon dont les fake news se répandent, uniquement parce qu’elles plaisent à tel ou tel public. Je me souviens d’avoir appelé un proche qui m’envoyait trop de fausses informations. Je lui ai signalé que son dernier message était une grossière falsification. Sa réponse a été parfaitement évocatrice : « … oui, tu as peut-être raison… mais, ça pourrait être vrai ! » Les mèmes de Dawkins sont les pièces de Lego de notre culture. En nombre infini, ils se transmettent et s’assemblent pour former nos corps de pensée, nos philosophies, nos théories, nos religions, nos doctrines, nos idéologies et bien d’autres choses. ET DIEU DANS TOUT CELA ? Cet ouvrage se veut scientifique. Il n’a pas pour objet d’aborder les considérations religieuses. Toutefois, je vais me permettre une 46.  Qui sommes-nous ? Une histoire de la diversité humaine. L. L. Cavalli-Sforza. 1994. 47.  Le Gène égoïste. R. Dawkins. 1976. 222

L’Univers millefeuille

Le monde s’organise comme une combinatoire

incursion dans le sujet. En effet, quand on s’intéresse à des thèmes aussi fondamentaux que l’origine de l’Univers ou celle de la vie, la métaphysique n’est jamais très loin et il est bien difficile de la contourner. Tout au long de ce chapitre, je présente un monde s’échafaudant tout seul par émergence et auto-organisation, ce qui, à première vue, semblerait écarter l’idée d’influence divine. Pourtant, je souhaite le préciser, ma pensée ne va pas jusque-là. Concernant le sujet le plus critique, celui de l’apparition de la vie, il me faut admettre que la science n’est pas près de reproduire en laboratoire le processus de l’abiogenèse (la survenue du vivant à partir du minéral), même partiellement par morceaux ou par étapes. Aussi, dois-je rester modeste en la matière. Ceux pour qui l’origine de la vie et certaines transitionsclés dans l’évolution auraient nécessité l’intervention d’un être supérieur peuvent le penser librement sans que la science d’aujourd’hui ne soit en mesure de les contredire. De plus, quand bien même l’abiogenèse serait, comme je le pense, un phénomène naturel résultant des seules propriétés de la matière et d’un environnement propice, cela n’écarterait en rien l’idée d’un Créateur. Tout au plus, la science repousserait plus loin le problème de son existence. Il s’agit là d’une constante dans l’histoire des sciences. Ainsi, au xixe siècle, Lamarck, Darwin et quelques autres ont détruit l’idée de la création ex nihilo des espèces, dont celle d’Homo sapiens. Cela a profondément modifié nos vues métaphysiques sur l’origine de l’Homme. Cependant, des interrogations du même type sont apparues sur d’autres plans, par exemple, en découvrant que l’Univers avait eu un commencement remontant à 13,8 milliards d’années. En éclairant la scène, la science tend à déplacer les grandes questions au-delà d’horizons impénétrables : la limite temporelle du Big Bang, celle spatiale de l’horizon cosmologique, celle épistémologique du mur de Planck, etc. Ainsi apparaissent de nouvelles énigmes, souvent plus fondamentales que les précédentes. Mon propos sur l’Univers millefeuille auto-organisé repose sur l’idée de différents Lego suffisamment ajustés pour engendrer la plus 223

Partie 2. La nature fabrique le complexe à partir du simple

haute complexité. Plusieurs fois, je l’ai résumé en disant que « la recette de cuisine était inscrite dans ses ingrédients ». C’est vrai au sujet des dix particules nées du Big Bang, comme des dizaines de milliers d’enzymes capables d’exécuter les tâches les plus improbables. Cette vérité induit forcément de nouveaux mystères48 : Pourquoi les éléments peuvent-ils s’ajuster aussi finement ? Cela correspond-il à un plan dessiné préalablement ? Sinon, le hasard peut-il en être à l’origine ?

48.  cf. LES CLÉS. Page 450. 224

L’Univers millefeuille

9 La martingale de la sélection darwinienne

« Non seulement, la vie ne nécessite aucunement l’intervention d’un Créateur, mais elle est une expression naturelle et émergente de la créativité routinière de l’Univers. » S. Kauffman

L’évolution darwinienne mérite que nous lui consacrions un chapitre, tant elle est efficace pour produire l’ordre à partir du désordre, l’improbable à partir du probable. À l’image de la catalyse, elle est un remarquable accélérateur du changement. Elle est consubstantielle de la vie : nous pouvons définir l’être vivant comme un système dissipatif (une machine chimique) capable de reproduction et d’évolution darwinienne. Nous ne nous limiterons pas au domaine de la vie, car le concept de sélection, au sens le plus large, joue un rôle fondamental dans l’ensemble du cosmos.

225

Partie 2. La nature fabrique le complexe à partir du simple

LA MARTINGALE EST-ELLE SYSTÉMATIQUEMENT GAGNANTE ? Dans un autre ouvrage, j’ai décrit l’évolution darwinienne en la comparant à une martingale jouée à la roulette49. La plus simple consiste à miser systématiquement sur une couleur, par exemple toujours le rouge, et à doubler la mise chaque fois que l’on perd. En examinant cette martingale, on constate que : – les coups gagnants permettent naturellement d’accroître sa cagnotte ; – en cas de série perdante, comme la mise a augmenté en parallèle, le premier gain obtenu à l’issue de ladite série permet toujours de couvrir les pertes subies auparavant (et même d’engranger un petit bénéfice). Ainsi, en apparence, la martingale doit être toujours gagnante, mais est-ce vraiment sûr ? L’évolution naturelle ressemble à cela. On pourrait la qualifier d’algorithme à effet cliquet. Elle fonctionne en sélectionnant systématiquement les variantes les plus adaptées d’un être vivant et en partant toujours de celles-ci pour engendrer la descendance. L’idée de martingale illustre tout simplement une telle procédure mécanique faite pour gagner. Le philosophe Daniel Dennett a bien clarifié le fonctionnement algorithmique de l’évolution : – elle est neutre par rapport au substrat : quelle que soit l’espèce concernée, de la bactérie au mammifère, la même méthode s’applique et elle peut se définir de façon abstraite ; – elle n’implique aucune intelligence : un robot peut la mettre en œuvre. C’est pourquoi on l’utilise de plus en plus dans des programmes de calcul en informatique ; – enfin, les résultats sont garantis, à l’instar de la martingale. Comme suggéré plus haut, ce dernier point est contestable, ou pour le moins, il doit être relativisé. Pour simplifier, on pourrait dire qu’il est généralement vrai à court terme, mais faux à long terme. On sait que la martingale peut mener à la catastrophe : si par le hasard, 49.  cf. Référence déjà citée : LES CLÉS. Page 297. 226

L’Univers millefeuille

La martingale de la sélection darwinienne

une longue série de coups perdants survient, le joueur doit doubler sa mise à chaque tour (une fonction exponentielle) et il risque fort d’épuiser ses fonds. Alors, il quitte le jeu en déconfiture. Dans le cas de l’évolution darwinienne, il apparaît aussi une limite dans le temps : son fonctionnement est très lent et si des changements d’environnement se produisent trop violemment, elle fait aussi faillite. Les extinctions massives ayant ponctué l’histoire naturelle en sont un témoignage. Si globalement, elle fonctionne avec tant de succès depuis si longtemps, c’est que, pour l’instant, la Terre a toujours présenté des conditions favorables malgré de nombreuses fluctuations. D’abord, le casino est ouvert jour et nuit depuis 4 milliards d’années grâce à la grande stabilité de notre étoile et il le restera encore plusieurs autres milliards d’années. Par ailleurs, la Terre est une planète suffisamment riche et variée pour offrir une très grande diversité de niches. Dès lors, en dépit des grands cataclysmes qu’elle a subis, la vie a toujours pu se maintenir ici ou là et reprendre son développement. Cependant, rien ne dit que ce sera toujours le cas : les espèces sont toutes en survie et elles s’éteindront inévitablement le jour où la Terre finira par s’appauvrir. Les bactéries resteront certainement les dernières comme elles ont été les premières. Ainsi, sur les longues durées, le facteur-clé est la vitesse de changement de l’environnement comparée à celle que l’évolution naturelle peut supporter. Or cette dernière est très lente pour différentes raisons. D’abord, conformément à la vision originale de Darwin, elle se nourrit des variations survenant à chaque génération. Aujourd’hui, on connaît la nature de ces différences : ce sont des mutations produites aléatoirement. Dès lors, pour fonctionner, l’évolution doit « attendre » que le hasard apporte des mutations gagnantes. Un exemple frappant de ces phases d’attente, les stases, est un fait déjà mentionné : les êtres multicellulaires ont mis trois milliards d’années à apparaître, malgré le nombre impressionnant de « tirages » que leurs ancêtres monocellulaires ont eu le loisir d’essayer sur une telle durée. 227

Partie 2. La nature fabrique le complexe à partir du simple

Un autre facteur de lenteur est lié au taux de mutation. Chez les bactéries, il est très élevé, contrairement aux êtres plus complexes. Plus généralement, on observe deux sortes de sélection naturelle parmi les espèces : – celle de la bactérie est dite opportuniste (r-selection) : très simple, l’individu peut produire rapidement une descendance extrêmement abondante et assortie de nombreuses mutations. Cette profusion rend les bactéries adaptables collectivement à tout type de situation, au prix d’un grand nombre de morts. On le constate aussi avec les virus quand des variants émergent à la suite de campagnes de vaccination, ou bien avec les bactéries devenant résistantes aux antibiotiques ; – celle des êtres complexes est dite équilibrée (K-selection) : bien plus élaboré, l’organisme dispose d’une très grande faculté d’adaptation individuelle. Par exemple, un mammifère herbivore peut parcourir des centaines de kilomètres pour chercher son bonheur si l’environnement devient défavorable. Le prix à payer pour une telle sophistication est une reproduction lente et une progéniture peu nombreuse, demandant un temps d’apprentissage accru. De plus, cette complexité ne peut se forger au cours des temps que si, lors de la reproduction, les taux d’erreurs sont très réduits. L’organisme de tels animaux est une machine trop compliquée pour supporter beaucoup de mutations à chaque génération sans se dérégler. Ainsi, chez l’Homme, le taux moyen de mutation à chaque réplication est d’une seule erreur pour trois milliards de nucléotides (les maillons constituant l’ADN). On peut comparer cela à une secrétaire qui taperait 25 fois l’intégralité du Petit Robert en ne faisant qu’une seule faute de frappe au total. De ces faiblesses, découle la vulnérabilité face aux évolutions brutales de l’environnement. Entre les extrêmes de la bactérie (r) et de l’Homme (K), les espèces se rangent dans toutes des positions intermédiaires du curseur. Le mode K confère aux individus une grande capacité d’adaptation à court terme, car l’individu lui-même en est doté. En revanche, le mode r 228

L’Univers millefeuille

La martingale de la sélection darwinienne

permet à l’espèce de répondre plus efficacement à un changement radical du contexte. Ainsi, à long terme, les bactéries et les insectes présentent plus de chances de succès que les mammifères dont les espèces survivent rarement au-delà de quelques millions d’années. LA SÉLECTION NATURELLE CRÉE LE PLUS IMPROBABLE POURVU QU’ELLE EN AIT LE TEMPS Les mouvements créationnistes ont toujours nié que la sélection naturelle pût suffire à construire les formes les plus improbables de la vie. Une bactérie est déjà un être très sophistiqué utilisant des protéines longues de dizaines, voire de centaines d’acides aminés, finement ajustées pour catalyser ses fonctions vitales. Les êtres multicellulaires le sont bien plus encore et Homo couronne le tout. L’argument créationniste venait du philosophe William Paley au xviii e siècle : si l’on trouve une montre au sol dans le désert, on conclut immédiatement qu’un homme est passé par là, car on n’imagine pas qu’un objet d’une telle complexité y soit apparu spontanément. Darwin lui-même doutait parfois que sa théorie pût expliquer la création des organes les plus sophistiqués tels que l’œil. Des dizaines d’années après avoir conçu l’évolution des espèces, il disait : « Encore aujourd’hui, l’œil me donne des sueurs froides. » Il avouait se demander si de nombreuses petites variations pouvaient mener, par de simples ajouts successifs, à un organe aussi élaboré. Avec une honnêteté scientifique hors du commun, il avait clairement dit que si cela s’avérait impossible, sa théorie serait réfutée. Aujourd’hui, il est amplement prouvé que l’œil peut se former de cette façon. Il s’agit d’une évolution probable au point qu’elle s’est répétée de multiples fois chez diverses espèces. À travers la base de fossiles, on découvre que l’œil est apparu au moins 40 fois indépendamment au cours de l’histoire naturelle. Ainsi, il existe des types d’yeux très différents : ceux à lentilles des céphalopodes, ceux à facettes des insectes, ceux à miroirs des coquilles Saint-Jacques et des huîtres, etc. Certaines méduses présentent des yeux sur leur périphérie, capables 229

Partie 2. La nature fabrique le complexe à partir du simple

d’accommoder. Étonnant pour des êtres si primitifs ne disposant d’aucun système nerveux ! Tous ces yeux se sont formés par un processus graduel : d’abord, l’apparition de protéines photosensibles à la surface de la peau, puis, la création progressive d’une capsule transparente permettant de mieux concentrer la lumière. Dans ces conditions primitives, l’œil apportait un avantage compétitif considérable pour trouver la lumière ou bien la nourriture. Dès lors, la sélection a systématiquement favorisé le génome des individus possédant les meilleures capacités visuelles. Cette évolution est allée très loin chez les rapaces, dont les yeux sont à double focale, voire même triple chez certaines espèces. L’œil de l’aigle reprend le principe des lunettes à double foyer pour presbytes. Il forme deux images que son cerveau est capable de traiter en parallèle : l’une lui sert à surveiller le terrain en altitude de façon panoramique, l’autre lui permet de zoomer sur sa proie dès qu’il l’a repérée. Cette qualité provient d’un cristallin sophistiqué, combinant les propriétés d’un objectif grand angle et d’un téléobjectif. Il s’y s’ajoute une capacité exceptionnelle de traitement de l’image par le cerveau. Cela illustre le degré de complexité atteint par les yeux depuis leur apparition chez les ancêtres très lointains des oiseaux. Un autre exemple des « miracles » de Darwin est celui de la sortie de l’eau, déjà évoquée au chapitre 6. Il est remarquable que des espèces de vers, d’arthropodes et de poissons aient réussi à quitter les océans et à s’adapter à la vie terrestre. Le caractère continu de cette évolution est parfaitement prouvé. En particulier, la base de fossiles montre clairement la transition entre poissons et tétrapodes. Dans un premier temps, un poisson ressemblant aux dipneustes contemporains a commencé à ramper dans la boue des zones marécageuses. Il y est parvenu grâce à un renforcement de quatre nageoires ventrales. À travers les fossiles, on observe l’apparition de nouveaux os se rapprochant de plus en plus de ceux des pattes de tétrapodes. Chez le poisson Elpistostege watsoni, daté de – 380 millions d’années, on reconnaît déjà les os de nos mains (figure 37). 230

L’Univers millefeuille

La martingale de la sélection darwinienne

Curieusement, la nature a réitéré cet exploit diverses fois dans le sens inverse : certaines espèces terrestres sont retournées dans l’eau. Ce furent d’abord les reptiles aquatiques qui devinrent les maîtres des océans au côté des squales. Un autre exemple étonnant est celui des cétacés. Un mammifère ressemblant un peu à un raton-laveur a commencé à s’aventurer dans les mers, y trouvant une nouvelle niche. Il s’est habitué à y séjourner de plus en plus longtemps. À travers différents fossiles d’Inde et du Pakistan datés entre – 50 et – 42 millions d’années, on voit aussi comment les espèces successives se sont réadaptées à l’eau en perdant finalement toute aptitude à se déplacer sur terre. Elles ont retrouvé une morphologie remarquablement proche de celle de leurs ancêtres poissons. N’est-il pas étonnant que les nageoires de ces derniers se soient transformées en membres chez les tétrapodes, pour redevenir un jour… des nageoires ?

Figure 37 | Il y a 380 millions d’années, la forme des membres des futurs tétrapodes apparaît déjà dans la nageoire d’un poisson, Elpistostege, se déplaçant dans les marécages.

231

Partie 2. La nature fabrique le complexe à partir du simple

Voici un dernier exemple de la façon dont la sélection darwinienne crée l’improbable. Cette fois, il ne s’agit plus de l’évolution des espèces, mais du processus de formation du cerveau. Comme évoqué au chapitre 5, chez l’enfant, il se constitue une quantité astronomique de liaisons synaptiques formant un réseau de connexions entre neurones de plus en plus dense. Un tri s’opère entre les liens recevant régulièrement des stimulations et les autres : les premiers sont renforcés et les seconds disparaissent. De ce tri, effectué seconde après seconde au cours de l’expérience de l’enfant, résulte finalement un cerveau de 80 milliards de neurones chez l’adulte, chacun savamment connecté à 5 000 ou 10 000 autres. Ce processus rappelle un peu la manière dont jadis les Anglais dessinaient leurs jardins. L’idée était de trouver les tracés de promenades les plus agréables. Dans les jardins à la française, on préparait le terrain de façon artificielle pour y établir des massifs et des voies aux formes géométriques. Les Anglais préféraient ne pas détruire les reliefs naturels, avec leurs collines ou leurs ruisseaux. Ils se limitaient à les ornementer de plantations. Pour tracer les allées, pas de géomètre : dans un premier temps, ils ne traçaient aucune voie et ils laissaient simplement les promeneurs marcher où bon leur semblait. Ainsi, les sentiers se sélectionnaient par l’usage. Ensuite, ils les aménageaient pour les rendre plus larges et praticables. Nos dendrites et nos synapses sont les sentiers qui se sont tracés par l’usage dans la forêt peuplant notre cerveau. L’ÉVOLUTION DARWINIENNE SUIT-ELLE UNE FINALITÉ ? Ces exemples montrent comment le simple tri darwinien crée les formes les plus improbables, pourvu qu’il en ait le temps. Le biologiste et statisticien R. A. Fisher disait : « La sélection naturelle est un mécanisme pour engendrer l’improbabilité au degré le plus extrême. » Il en résulte une montée vers la complexité qui semble inexorable et dont l’aboutissement serait l’Homme. J’emploie volontairement le terme semble, car rien ne nous dit qu’une telle finalité 232

L’Univers millefeuille

La martingale de la sélection darwinienne

existe. Par anthropocentrisme, nous pensons que la nature est faite pour aboutir à Homo sapiens, ou au moins, pour créer des êtres de plus en plus sophistiqués. Cependant, ce n’est pas du tout évident : d’abord et avant tout, elle semble maximiser la diversité. S’il existait vraiment une finalité vers la complexité, aurait-il fallu attendre trois milliards d’années pour voir apparaître les premières créatures multicellulaires à partir des bactéries ? Quand on imagine le nombre d’êtres monocellulaires ayant pu exister et se reproduire tout au long de cette stase interminable, on s’étonne qu’il ne se soit rien passé en dehors d’une diversification tous azimuts de ces espèces primitives. La raison est pourtant simple : elles étaient les mieux adaptées ! N’oublions pas que le mécanisme darwinien trie les individus en fonction de leur adaptation à l’environnement et non de leur complexité. A contrario, il est légitime de se demander pourquoi, finalement, les êtres multicellulaires sont apparus. La réponse réside probablement dans des changements de contexte, notamment la forte augmentation du taux d’oxygène dans l’atmosphère. De nouvelles formes de vie ont dû s’avérer mieux adaptées en certains endroits. Si un cataclysme venait à détruire l’Homme et les êtres multicellulaires, il resterait les bactéries et l’évolution pourrait reprendre comme elle l’a fait il y a quatre milliards d’années. Elle disposerait encore d’un ou de deux milliards d’années avant que le Soleil, dont la luminosité s’accroît séculairement, ne commence à griller notre planète. Rien ne dit qu’apparaîtraient de nouveau des êtres multicellulaires, ni, a fortiori, une espèce consciente. La nature engendre d’abord et avant tout la diversité : elle crée des espèces très simples (numériquement, la biosphère reste dominée par les bactéries) et d’autres très élaborées. Si un jour on découvre la vie sur une autre planète, il y a toutes les chances qu’elle ressemble à une bactérie, voire à un être encore plus élémentaire. Si tel est le cas, pourquoi l’évolution a-t-elle mené à l’Homme ? La réponse me paraît claire : en créant la variété à l’infini dans un environnement particulièrement favorable, la nature engendre toutes 233

Partie 2. La nature fabrique le complexe à partir du simple

sortes d’espèces : petites ou grandes, dures ou molles, rouges ou bleues, certaines primaires, d’autres plus sophistiquées. Voilà tout ! Cela heurte notre anthropocentrisme et beaucoup de nos conceptions religieuses. Il est difficile d’admettre qu’une telle complexité ait pu naître spontanément à partir d’un point de départ aussi simple. De Duve, spécialiste de la cellule, en doutait : « Face à l’énorme somme de tirages gagnants ayant mené au succès du jeu de l’évolution, il est légitime de se demander jusqu’à quel point ce succès est réellement inscrit dans la texture de l’Univers. » Chacun aura son avis sur cette question fondamentale. Pour ma part, je ne doute pas que la montée vers la complexité ait été potentiellement inscrite dans les lois de la physique, présentes dès la création des particules juste après le Big Bang. Cependant, dire cela laisse le mystère entier : pourquoi ­l’Univers était-il ainsi fait dès son origine ? LA SÉLECTION NATURELLE EXISTE-T-ELLE EN DEHORS DU DOMAINE DU VIVANT ? Nous avons présenté la sélection darwinienne comme un algorithme des plus simples, s’appliquant à des individus constitués, bien identifiés, capables de reproduire des copies d’eux-mêmes et placés en situation de concurrence. Ces conditions sont communes à tous les êtres vivants, mais peuvent-elles exister dans le monde minéral ? Au sens strict non. En dehors de la vie, le seul exemple de sélection darwinienne que je connaisse est une théorie purement spéculative de Smolin dite Cosmological Natural Evolution. Si elle était prouvée, elle apporterait une réponse possible à la question posée plus haut, sur l’ajustement fin des paramètres de l’Univers. L’astrophysicien se place dans le cadre du multivers, c’est-à-dire l’idée d’une infinité d’univers, déjà évoquée au chapitre 5. Le nôtre en serait un parmi tous, dont les caractéristiques seraient suffisamment singulières pour qu’y apparaisse la vie et un être pensant (voire d’autres). Smolin se pose la question : notre univers si finement ajusté ne serait-il pas le fruit d’une sélection naturelle ? Il reprend certaines théories selon 234

L’Univers millefeuille

La martingale de la sélection darwinienne

lesquelles, il se créerait un nouvel univers au centre de chaque trou noir. Si chacun de ces « enfants » héritait de caractéristiques proches de son « parent », nous serions dans les conditions où la martingale darwinienne peut jouer. Plus un univers fabriquerait de trous noirs, plus il transmettrait ses caractéristiques (ses « gènes ») à un grand nombre de nouveaux univers. Ainsi, à la longue, il s’effectuerait une sélection favorable à ceux disposant de la progéniture la plus généreuse, c’est-à-dire produisant le plus grand nombre de trous noirs. Or selon Smolin, il se trouve que ceux-là sont aussi les plus favorables pour engendrer la vie. Nous serions donc des sous-produits d’un tri des univers par le critère de la profusion de trous noirs ! Pour valider cette théorie, il faudrait savoir ce qui se produit réellement au centre d’un trou noir, et, de plus, pouvoir observer et comparer les univers entre eux. Nous en sommes loin ! Si nous oublions cette thèse, intéressante, mais purement spéculative, nous ne voyons pas de sélection darwinienne dans le monde minéral. Pourtant, nous pouvons aller plus loin dans la réflexion en examinant cette dernière sous l’angle de l’information. Le génome peut être considéré comme une mémoire stockant l’historique de toutes les modifications d’une espèce depuis les origines de la vie. Il récapitule les incidents de parcours survenus chez tous les ascendants lors de leur confrontation avec l’environnement. Chaque fois qu’une modification a été retenue, une information nouvelle s’est trouvée emmagasinée dans les gènes. Nous pouvons généraliser cette notion : tout tri crée de l’information et donc de l’ordre et de la complexité. En voici une image simple. Supposons que je vous donne deux paniers de pommes. Les deux sont identiques, mais, dans l’un, j’ai pris soin de séparer les pommes vertes ou pourries et les bonnes. Les deux paniers ont le même contenu et, pourtant, le second est plus intéressant, car le tri a créé une information pertinente pour vous. De la même façon, la notion de sélection naturelle peut se généraliser à un processus fabriquant de l’information par le tri. 235

Partie 2. La nature fabrique le complexe à partir du simple

Au fur et à mesure que l’entropie, moteur de l’Univers, accomplit son œuvre, elle provoque des tris apportant toujours de l’information nouvelle. En voici un exemple : la formation d’un système planétaire. Comme nous l’avons vu, les particules du gaz originel tendent à l’effondrer sous l’effet de la gravitation. Il est des endroits où elles s’agrègent et forment les étoiles. Ce faisant, elles se heurtent à un obstacle : les lois de la physique les obligent à tourner en formant un disque d’accrétion. Ce dernier freine leur effondrement vers le centre. Si la concentration de matière est suffisante dans ce disque, sa partie centrale, très chaude, s’allume et devient une étoile. Le reste engendre les planètes selon un processus complexe. Toujours sous l’action de la gravitation, la matière s’y rassemble en cailloux et en petits astres (les planétésimaux). Ce développement est contrarié par deux mouvements centrifuges : – l’agitation thermique des particules les plus fines tend à les disperser vers l’extérieur ; – l’étoile elle-même émet un vent de particules accélérées tendant à balayer son environnement. Cela se traduit par une multitude de chocs. Un tri s’opère naturellement entre les composants du disque : près de l’étoile naissent des planètes telluriques et des astéroïdes, plus loin apparaissent des géantes gazeuses, enfin, l’eau se regroupe en comètes (figure 38). Nous devons à ce tri l’extrême richesse chimique de la planète Terre. Il s’agit de l’apparition d’une information nouvelle parmi tout ce qui tournait de façon désordonnée dans le disque originel. Ce processus n’a rien de gratuit : l’information est apparue au prix d’un énorme dégagement d’entropie à travers le rayonnement de l’étoile et les innombrables chocs subis par la matière. De tels tris sont à l’origine de toutes les structures façonnées par la gravitation : nuages cosmiques, galaxies, trous noirs, etc. D’une manière générale, les objets que nous observons dans nos télescopes n’ont rien de quelconque : ils ont été sélectionnés ! Ce sont tout simplement ceux mettant le plus de temps à tomber dans l’état d’entropie 236

L’Univers millefeuille

La martingale de la sélection darwinienne

Figure 38 | Après la formation d’une étoile, un tri s’opère dans le gaz et les poussières subsistant dans le disque.

maximum. C’est le cas des nombreux nuages n’ayant pas encore eu le temps de s’agréger, des étoiles présentant une longévité exceptionnelle et de leurs planètes en orbites stables. Le reste de la matière cesse d’exister à nos yeux. Il disparaît dans les trous noirs ou bien il se disperse de nouveau en poussières ou en particules dans l’espace interstellaire. Nous voyons le cosmos statique tout simplement parce qu’il évolue bien plus lentement que la vie humaine. Néanmoins, l’Univers est essentiellement fait de matière en train de s’effondrer plus ou moins vite. Ces différences de vitesse opèrent des tris en permanence et lui donnent l’apparence que nous lui connaissons. Pour résumer, la sélection darwinienne est propre à la vie, alors que la sélection tout court est universelle. Cela nous amène à une question primordiale : existe-t-il un passage continu de l’une à l’autre ? Elle rejoint l’énigme de l’abiogenèse, la naissance de la matière vivante à partir du monde minéral. De nos jours, de nombreuses voies de 237

Partie 2. La nature fabrique le complexe à partir du simple

recherche se concurrencent pour décrire cette transition. Dans mon précédent ouvrage50, j’ai décrit un scénario complet, le plus crédible à mon avis. Il repose précisément sur l’idée que la sélection naturelle ait pu émerger de façon progressive à partir de la notion plus simple, de tri. Voici un résumé très succinct de ces différentes étapes : i. Les quatre forces de l’Univers opèrent un premier tri parmi les atomes et les molécules. Dans les nuages cosmiques et les météorites, nous avons découvert une chimie prébiotique mettant essentiellement en jeu 4 atomes (C, H, N, O) parmi les 92 existants. Il s’y forme déjà une partie des petites molécules organiques dites briques de la vie, qui incluent 20 acides aminés, 4 nucléotides et une bonne trentaine de lipides et de sucres. Ce tri spontané apparaît aussi dans les expériences de laboratoire telle celle de Miller présentée au chapitre 8. ii. L’apparition d’ensembles autocatalytiques. Ce sont des groupes de réactions chimiques particulièrement riches où chaque produit tend à catalyser certaines des réactions en jeu. Cela peut survenir dans un milieu aqueux concentré, comme dans la fameuse petite mare chaude de Darwin, ou plus vraisemblablement au sein des cheminées hydrothermales au fond des océans. Dans une telle situation, l’autocatalyse peut déclencher une réaction en chaîne accroissant considérablement la variété chimique. Parmi toutes ces molécules, une forme de ­sélection a pu s’amorcer : les plus stables et celles dont la production était la mieux catalysée ont pris le dessus, tandis que les autres servaient à alimenter les réactions dominantes. Il ne s’agissait pas encore du processus darwinien, car, à ce stade, il n’existait pas d’êtres bien identifiés et capables de reproduction : simplement une « soupe » de molécules avec une première forme de compétition entre elles. iii. La compartimentation. Nous avons vu que dans l’eau, les lipides forment spontanément des vésicules fermées. Ces « sacs d’eau » opèrent un tri entre leur intérieur et l’extérieur. En effet, la membrane est sélective : elle retient les grosses molécules, mais laisse entrer



50.  LES CLÉS. Partie III. 238

L’Univers millefeuille

La martingale de la sélection darwinienne

… les plus petites servant de nutriments. Grâce à cette asymétrie, leur contenu peut s’enrichir et se concentrer. Aujourd’hui, on retrouve ce principe chez absolument tous les êtres vivants. Il y a plus de 3,8 milliards d’années, si des ensembles autocatalytiques se sont trouvés encapsulés, ils ont pu prospérer à l’abri du milieu extérieur. À ce stade, nous étions près d’une forme très archaïque de sélection naturelle. En effet, ces vésicules se scindaient en deux quand elles dépassaient une certaine taille, ce qui préfigurait la division cellulaire. De plus, lorsque ces protocellules se divisaient, une information se transmettait à la descendance. En l’absence de gènes à cette époque primitive, il s’agissait d’une information très rudimentaire, dite compositionnelle. Ce terme désigne le contenu chimique encapsulé dans la cellule. Cette simple liste de molécules se reproduisait à peu près fidèlement lors de la division, car statistiquement, on retrouvait les mêmes substances dans les deux nouvelles cellules. Une forme de prédation est aussi apparue entre ces vésicules : en effet, quand deux d’entre elles se rencontraient, elles tendaient à fusionner. Tous ces mécanismes spontanés les mettaient en concurrence. Entre les fusions (prédation) et les divisions (reproduction), nous reconnaissons les prémices de la vie et la possibilité que s’enclenche la sélection darwinienne. La vie aurait émergé de ces tris naturels opérés dans un monde minéral suffisamment enrichi. iv. Les étapes suivantes auraient mené à l’immense complexité du vivant. La principale aurait été le découplage de l’information : parmi les polymères en jeu, les acides nucléiques (l’ARN) se seraient arrogé le rôle de conserver l’information compositionnelle, tandis que les protéines se seraient spécialisées dans les processus de fonctionnement de l’organisme. Ce partage des rôles serait devenu possible lorsque les premiers, les gènes, auraient acquis la capacité de catalyser la fabrication des secondes, les protéines (la traduction). Plus tard, ils seraient parvenus à s’autocatalyser, c’est-à-dire à se répliquer. À partir de là, le mécanisme de la sélection darwinienne pouvait se développer sous la forme que nous lui connaissons aujourd’hui.

239

Partie 2. La nature fabrique le complexe à partir du simple

En énonçant ce scénario, je devrais prendre la précaution de dire « si (et quel grand si !) », comme Darwin l’avait fait dans une lettre à un ami en 1871, en évoquant discrètement l’idée de l’abiogenèse. Sans pouvoir aujourd’hui le prouver, je suis convaincu que la vie trouve son origine tout à fait naturellement dans la chimie du monde minéral, car j’en vois trop d’indices ! Le tri, créateur d’information, est présent partout dans l’Univers. Il est animé par l’entropie. Il a dû s’exercer au sein des nombreuses réactions chimiques apparaissant dans un milieu aussi riche que celui des cheminées hydrothermales. Il s’est renforcé considérablement par le phénomène d’autocatalyse et, plus encore, quand des vésicules lipidiques ont effectué spontanément une ségrégation entre leur intérieur et leur extérieur. LA SÉLECTION NATURELLE S’EST-ELLE ARRÊTÉE CHEZ L’HOMME ? C’est une question difficile. Comme nous n’avons plus de prédateurs (en dehors de nous-mêmes) et que nous parvenons, pour l’instant au moins, à produire notre nourriture en quantité suffisante, il subsiste très peu de sélection dans l’espèce humaine. On peut bien sûr en trouver quelques formes ici et là. Par exemple, les pays pauvres font plus d’enfants que les pays riches. Aux États-Unis, la Covid-19 a fait plus de morts au sein de la population noire pour des raisons socio-économiques. Il existe certainement bien d’autres cas, mais ils sont souvent sujets à caution. Représentent-ils la sélection naturelle au sens darwinien ? Pas vraiment, car la culture (et non les gènes) pèse trop dans ces évènements. Alors, il convient de mieux préciser la question : chez l’Homme, existe-t-il toujours une pression sélective faisant évoluer le génome de la population. À cette question, la réponse est clairement non, sauf dans des situations très marginales : quelques peuplades primitives isolées, quelques maladies locales, etc. Dans l’ensemble, grâce à la médecine et à l’absence de guerres de masse, il n’existe plus de pression éliminant certains gènes au profit d’autres. La sélection naturelle s’est arrêtée chez Homo sapiens. 240

L’Univers millefeuille

La martingale de la sélection darwinienne

Avec la civilisation moderne, l’évolution du génome a largement cessé dans notre espèce. Un exemple intéressant est celui de la digestion du lactose. Chez l’Homme préhistorique, elle était bloquée vers l’âge de trois à quatre ans par un gène. Ce dernier avait été retenu par la sélection naturelle, car il encourageait l’enfant au sevrage, libérant ainsi la mère pour accroître sa progéniture. Avec l’agriculture et la production de lait animal, un avantage compétitif majeur a favorisé les nouvelles populations préhistoriques agricoles. Cependant, encore fallait-il que ces peuplades pussent digérer le lactose ! On connaît trois mutations, apparues indépendamment au Moyen-Orient, ayant permis cela. Elles se sont propagées dans le pool génétique humain. Toutefois, ultérieurement, cette évolution s’est ralentie avec la diversification de la nourriture. Quand la sélection darwinienne s’est arrêtée chez les humains, seuls 70 % d’entre eux en bénéficiaient. Cette situation s’est figée en cours de route. Voilà pourquoi aujourd’hui encore, 30 % d’entre nous digèrent mal le lactose. Cet arrêt est-il une bonne chose ? En théorie non, car on sait qu’en l’absence de sélection, le génome est livré au hasard des mutations, lesquelles sont plus souvent néfastes que bénéfiques. Ces mutations, parfois délétères, peuvent se développer considérablement dans des populations insuffisamment diversifiées et pratiquant les mariages consanguins. Ce phénomène, dit de la dérive génétique, pourrait être une menace pour l’humanité. Fort heureusement, il n’en est rien, au moins à moyen terme. En effet, grâce au succès de notre espèce dans les régions les plus diverses de la planète, le génome humain présente une grande variété. Aujourd’hui, les mouvements migratoires et les échanges géographiques assurent un brassage important nous mettant à l’abri de la dérive génétique. Si le génome humain ne change pratiquement plus, en revanche, une autre forme d’évolution est apparue avec la culture. Par beaucoup d’aspects, son développement et sa propagation ressemblent à la sélection darwinienne, toutefois avec une différence majeure : une vitesse de diffusion considérable en comparaison de la lenteur pachydermique 241

Partie 2. La nature fabrique le complexe à partir du simple

des transformations génétiques. Au chapitre précédent, nous avons évoqué Dawkins et son analogie entre l’échange des idées et celui des gènes. Il a donné le nom de mème à une unité culturelle élémentaire soumise à sélection. Il a montré comment ces mèmes sont triés incessamment par la société selon l’intérêt qu’elle leur accorde. Un aspect remarquable de la culture est la façon dont la science progresse par un processus de sélection darwinienne des théories. Karl Popper en a fait une description rigoureuse, aujourd’hui devenue la doctrine méthodologique guidant le progrès scientifique. Il a énoncé que l’on ne peut jamais prouver une théorie. Tout au plus peut-on constater par l’expérience, qu’elle est la « meilleure » représentation de la réalité à un moment donné de l’histoire. Par exemple, si la gravitation d’Einstein a supplanté la mécanique newtonienne, un jour, elle sera probablement remplacée à son tour par une théorie plus exacte. Comment s’opère la sélection des « meilleures » théories au cours du temps ? Quand une nouvelle thèse est publiée, elle fait l’objet de commentaires divers au sein de la communauté scientifique, dont parfois des critiques très acerbes. Pour avoir une chance de s’imposer, elle doit permettre des prédictions. Alors, celles-ci font l’objet de multiples expériences dans différents laboratoires indépendants. Les résultats sont de nouveau critiqués, de nouvelles expérimentations sont lancées, etc. Si au cours de ce processus, un test probant réfute la théorie, après quelques discussions et vérifications, elle finit discréditée (on dit falsifiée). Au contraire, si les expériences sont toutes positives, les opposants finissent par se décourager et la théorie est adoptée de façon majoritaire. Max Planck moquait ce processus en disant qu’une théorie était vraiment définitivement validée lorsque suffisamment de temps s’était écoulé pour que tous les opposants soient morts. De cette démarche parfois douloureuse, nous allons donner deux exemples historiques et deux plus récents. Dans les années 1930, quand Lemaître a inventé la théorie de l’atome primitif dénommée plus tard Big Bang, une large majorité de la communauté scientifique, Einstein en tête, s’y est opposée. 242

L’Univers millefeuille

La martingale de la sélection darwinienne

L’astronome Fred Hoyle a été l’adversaire le plus virulent. Il défendait un modèle cosmologique alternatif, dit stationnaire, sans origine ni fin. Il fallut attendre la découverte du rayonnement fossile en 1965 pour que la thèse du chanoine Lemaître soit consacrée après plus de trente ans de confrontations souvent âpres. Un autre exemple de dispute autour des découvertes a concerné la relativité à ses débuts. La théorie révolutionnait tellement notre compréhension de l’espace et du temps, qu’elle a longtemps rencontré de nombreux opposants, à commencer par ceux qui ne la comprenaient pas ! En 1931, alors que l’antisémitisme l’avait poussé à quitter l’Allemagne, ses collègues lui ont apporté un ouvrage tout juste publié là-bas, intitulé Cent auteurs contre Einstein. Une centaine de scientifiques avaient pris la plume pour démontrer la fausseté de la relativité. Après avoir feuilleté le livre en diagonale, le savant est resté pensif et a commenté : « Pourquoi une centaine ? Si je m’étais trompé, un seul aurait suffi ! » Voici les deux derniers exemples plus récents illustrant, l’un, le rejet d’une théorie, l’autre, son acceptation. Le premier est l’expérience de la mémoire de l’eau, par Jacques Benveniste en 1988. Dans son laboratoire, il avait observé que de l’eau pouvait conserver la mémoire d’une molécule après de multiples dilutions, alors que cette dernière ne pouvait plus y être présente. La communauté scientifique s’était divisée sur le sujet. Certains y voyaient une porte ouverte vers la découverte de propriétés radicalement nouvelles de la matière. Les autres n’y croyaient pas et cherchaient à la réfuter. Personne n’étant jamais parvenu à reproduire l’expérience indépendamment dans un autre laboratoire, l’idée a fini par être abandonnée, même si certains adeptes de l’homéopathie persistent à revendiquer sa véracité. Le second exemple est, au contraire, celui d’une thèse révolutionnaire acceptée unanimement en un temps record. En 1998, deux équipes distinctes, celles des astronomes Saul Perlmutter aux États-Unis et Brian Schmidt en Australie, ont fait une découverte stupéfiante en étudiant des supernovas sur des périodes remontant loin dans le passé. Ils mesuraient 243

Partie 2. La nature fabrique le complexe à partir du simple

leur distance et leur vitesse de fuite pour estimer précisément le rythme d’expansion de l’Univers à différentes distances et différentes époques. Tous les modèles cosmologiques classiques prévoyaient une décélération de l’expansion sous l’action de la gravitation, celle-ci jouant comme une force de rappel. Contre toute attente, les deux équipes ont constaté une accélération de l’expansion. Quand on détient une telle grenade, on hésite à dégoupiller, car les réactions darwiniennes de la communauté scientifique sont souvent d’une grande violence. Un chercheur brillant peut facilement ruiner sa carrière en annonçant trop vite un résultat sensationnel qui, ensuite, s’avère entaché de failles dans les dispositifs de mesure ou dans les calculs. Schmidt a résumé ainsi son état d’âme en découvrant l’accélération de l’expansion : « Ma réaction se trouvait quelque part entre la surprise et l’effroi. » Les deux équipes ont engagé un travail collectif très sérieux pour faire vérifier leur méthode et leurs résultats par des tiers, avant de les publier. Bien que remettant en cause tous les modèles en vigueur, la découverte a été très rapidement acceptée par la communauté scientifique. D’une part, les informations communiquées ont été jugées fiables et, d’autre part, ces deux équipes distinctes étaient arrivées aux mêmes résultats simultanément par des mesures indépendantes. Le processus darwinien servant à valider les théories ou les expériences est parfois chaotique, parfois organisé, parfois rapide, parfois long et douloureux…, mais il est toujours redoutablement efficace.

244

L’Univers millefeuille

Partie 3

Nouvelles interprétations et indications sur le futur

245

10 Un éclairage sur la question quantique

« Il est faux de penser que le but de la physique est de découvrir ce que la nature est. La physique concerne uniquement ce que nous pouvons dire de la nature. » Niels Bohr

LA MÉCANIQUE QUANTIQUE DÉVOILE UNE COUCHE FONDAMENTALE DU MILLEFEUILLE J’hésite toujours à entrer dans les sujets relatifs à la mécanique quantique tant ils tournent vite au casse-tête. Pourtant, je ne vois pas comment terminer ce livre sans traiter cette couche du millefeuille. Alors, lançons-nous ! Je propose à ceux pour qui ces thèmes sont peu familiers ou trop abstraits de parcourir le chapitre en diagonale. Il y a un siècle, les pionniers Niels Bohr, Werner Heisenberg, Edwin Schrödinger et d’autres se sont lancés dans le problème ardu de la description de l’atome. Ils ont compris que les lois de la physique classique ne pouvaient en donner une image fidèle : il en fallait de 247

Partie 3. Nouvelles interprétations et indications sur le futur

nouvelles. Leurs travaux historiques ont débouché sur la mécanique quantique, sans conteste, la théorie la plus précise jamais élaborée. Ainsi, elle a permis de prédire le moment magnétique de l’électron avec une précision de 10– 11. Cela revient à calculer la distance de Madrid à Moscou, puis à la mesurer avec un écart n’excédant pas l’épaisseur d’un cheveu. Pourtant, elle soulève des difficultés de compréhension majeures quant à la nature intime des choses. Pour ces raisons, Feynman disait à ses élèves : « Si quelqu’un vous dit avoir compris la mécanique quantique, vous pouvez être sûr qu’il n’a rien compris. » Les premières idées contre-intuitives avaient été émises par Einstein lui-même dès 1909. Le savant avait présenté une thèse révolutionnaire sur la nature de la lumière : elle prend la forme de paquets d’énergie discrets (plus tard, on les baptisera photons) pouvant se manifester, parfois comme une onde, parfois comme une particule, selon les modalités de l’expérience. Cette vision duale de la lumière a ensuite été validée, non seulement pour la lumière, mais plus généralement pour tout autre type de particule, telles celles de la matière. En 1925 et 1926, apparaissent les premières formulations complètes de la mécanique quantique. Rappelons en deux mots, de quoi il s’agit : – on représente une particule (ou un ensemble de plusieurs) par sa fonction d’onde, un objet abstrait n’ayant pas d’équivalent dans le monde classique. La meilleure façon de se la représenter est de dire qu’elle exprime la probabilité de présence de la particule en tout point de l’espace. Ainsi, on ne peut savoir où cette dernière se trouve exactement, mais seulement où elle a des chances de se localiser ; – la mécanique quantique permet de calculer cette fonction d’onde et de prévoir son évolution précisément, par l’équation de Schrödinger ; – enfin, si l’on veut connaître la position exacte d’une particule en la mesurant, parmi les valeurs possibles prédites par la fonction d’onde, l’une d’elles va se déclarer vraie. La mesure est donc une sorte de « loterie » parmi les valeurs probables. La mécanique quantique ne prédit pas une position, elle se limite à donner des probabilités de présence. 248

L’Univers millefeuille

Un éclairage sur la question quantique

Einstein a rapidement pris ses distances par rapport à cette vision des choses, essentiellement probabiliste. Pour lui, la nature ne pouvait pas agir de façon aléatoire. Si la théorie exprimait des probabilités, cela révélait forcément une forme d’ignorance. Il la considérait comme juste, mais incomplète. À partir de là et jusqu’à la fin de ses jours, il la contestera et cherchera en vain une alternative plus crédible. De là, naîtra une interminable joute entre lui et le champion de la mécanique quantique, Bohr, qui rassemblait une bonne partie des pionniers de la nouvelle science sous la bannière de l’école de Copenhague. Cette lutte, amicale il faut le préciser, trouvera son point culminant en 1935 avec une expérience de pensée diabolique conçue par Albert Einstein, Boris Podolsky et Nathan Rosen, afin de démontrer l’incomplétude de la théorie : le paradoxe EPR. Einstein utilise souvent de telles expériences de pensée pour parfaire sa compréhension de l’Univers. Il s’agit de raisonnements s’appuyant sur des cas concrets, mais imaginaires, car difficiles ou impossibles à réaliser pratiquement. Le paradoxe EPR repose sur l’idée suivante : appliquer la mécanique quantique, non pas à une particule, mais à deux, et, de plus, deux particules ayant interagi auparavant, de sorte que leurs caractéristiques soient liées. Nous allons prendre un exemple un peu plus simple que celui employé initialement par Einstein. Intéressons-nous à deux particules A et B et à leurs spins. Il s’agit d’une sorte de charge pouvant prendre la valeur + 1 ou – 1. Si les deux particules ont interagi, alors il existe un lien entre elles et leurs spins sont nécessairement opposés : si pour l’une, il vaut + 1, pour l’autre, il est forcément de – 1. Selon l’idée d’Einstein, en mesurant simplement le spin de l’une des deux, on fait apparaître une contradiction dans la théorie. Pourquoi ? En haut de la figure 39 (en 1), on voit les deux particules A et B partir dans des directions opposées, l’une vers la gauche et l’autre vers la droite, après avoir interagi. Le savant suppose que l’on mesure le spin de A, à un moment t où elle se trouve déjà loin de B. Conformément à la physique quantique, la mesure donne un résultat aléatoire, mais

… 249

Partie 3. Nouvelles interprétations et indications sur le futur

… précis, comme s’il s’agissait d’un tirage à la loterie : par exemple + 1. Dès ce chiffre obtenu, on peut en déduire que B dispose du spin opposé, soit  – 1. Or selon la théorie, si l’on mesurait le spin de B, on trouverait aussi bien – 1 que + 1, affectés de probabilités. Ainsi, le fait de connaître la valeur de B de façon certaine (grâce à la mesure de A) est en contradiction avec les prédictions aléatoires de la mécanique quantique. Le paradoxe est formulé par ses trois auteurs d’une manière extrêmement rigoureuse, que je ne reprendrai pas ici. Je résumerai simplement les interprétations des deux adversaires : – pour Einstein (en 2 sur la figure), la valeur du spin des deux particules existait déjà avant la mesure de A. Elle s’était fixée dès le départ de l’expérience, lors de l’interaction entre les deux particules. La mesure de A n’a fait que révéler son spin (ici + 1) qui était préexistant. Quant à B, elle possédait naturellement la valeur opposée (– 1), depuis le début aussi. Il en déduit que ces valeurs étaient bien réelles et fixées, mais restaient cachées et aléatoires en mécanique quantique jusqu’au moment de la mesure. Il qualifiait alors la théorie d’incomplète puisqu’un élément de réalité lui échappait ; – pour Bohr (en 3 sur la figure), après leur interaction, les deux particules n’avaient pas de spin bien défini. En revanche, elles acquéraient toutes deux une valeur de spin précise lors de la mesure de A. Par exemple, au temps t, celle-ci donne la valeur + 1 pour A. Alors, nécessairement et instantanément, le spin de B se détermine à la valeur opposée – 1. Cette seconde version n’est pas acceptable pour Einstein, car elle suppose qu’une information se soit transmise de A vers B instantanément lorsque la mesure a été faite. Or selon la relativité restreinte, aucune information ne peut cheminer plus vite que la lumière. Il qualifie cette action à distance de « fantasmagorique ». Pour Bohr, il n’y a tout simplement pas eu de transmission d’information, car depuis leur interaction dans le passé, les deux particules étaient liées (on dit intriquées). Dès lors, elles formaient un seul et unique système quantique, même si elles s’étaient éloignées l’une de l’autre d’une année-lumière. Ce qui se passe en B restait indissociable de ce qui se produisait en A. Ainsi devait-on parler du



250

L’Univers millefeuille

Un éclairage sur la question quantique

… « système A/B », mais non de chacun de ses composants A ou B pris séparément. Il conteste donc l’approche d’Einstein qui décrivait les deux particules tels deux objets distincts.

Figure 39 | Les interprétations du paradoxe EPR. Suivre le raisonnement dans le texte : (1) l’expérience de pensée, (2) l’interprétation d’Einstein et (3) celle de Bohr.

… 251

Partie 3. Nouvelles interprétations et indications sur le futur

… Le paradoxe EPR est fondamental, car il touche à la notion-même de réalité. Les valeurs de spin existent-elles avant d’être mesurées ? Les deux particules mènent-elles une existence indépendante quand elles s’éloignent l’une de l’autre ? Ou bien forment-elles un tout, bien que localisées en deux endroits différents ?

Les deux adversaires ne seront pas départagés de leur vivant. Le paradoxe EPR sera finalement tranché bien plus tard, grâce à un théorème démontré en 1964 par John Bell, puis par les expériences d’Alain Aspect en 1982. Ce dernier réussira le prodige de concrétiser l’idée d’Einstein, 47 ans après le jour où il avait lancé sa bombe. Ses mesures, et beaucoup d’autres expérimentations venues ensuite, donneront raison sans réserve à… Bohr. Aujourd’hui, le phénomène de l’intrication n’est plus un sujet académique. Il a débouché sur une méthode pour créer des lignes de communication inviolables. Des expériences récentes ont confirmé que deux particules intriquées le restaient jusqu’à plus d’un millier de kilomètres de distance. LA QUESTION QUANTIQUE La science quantique s’est magnifiquement développée au cours du xxe siècle, donnant naissance à l’électronique et, plus récemment, à la révolution numérique. Sa cohérence et son formalisme n’ont jamais été mis en défaut. Il a bien fallu accepter la vision très contre-intuitive qu’elle donne du monde : – une particule se manifeste tantôt comme une onde (elle s’étend dans l’espace entier), tantôt comme un corpuscule (elle est ponctuelle) ; – tant que l’on ne la mesure pas, elle se trouve simultanément dans plusieurs états dit superposés, déterminés par la fonction d’onde ; – l’un de ces états possibles se déclare aléatoirement si l’on pratique une mesure. 252

L’Univers millefeuille

Un éclairage sur la question quantique

Ce ne sont là que quelques-unes des caractéristiques étranges de la nouvelle théorie. En essayant de les comprendre, on bute inévitablement sur des paradoxes ou des contradictions avec notre vision classique du monde. Toutes ces interrogations sont souvent rassemblées sous le vocable de la question quantique. Depuis près d’un siècle, elles ne font toujours l’objet d’aucun consensus. Je me garderai bien d’entrer dans ces débats dépassant de loin mes compétences. Toutefois, sur un plan philosophique, je donnerai une vision des choses en cohérence avec toutes les idées exprimées dans cet ouvrage. L’Univers millefeuille est segmenté dans les échelles et aucune théorie ne les embrasse toutes. Dans cet esprit, il faut se faire à l’idée que les mondes microscopique et macroscopique sont des strates distinctes et qu’ils ne peuvent se décrire par les mêmes représentations. Bohr n’a cessé de le clamer depuis le début. Je défendrai donc une thèse pragmatique : nous devons accepter ces contradictions. Elles sont une conséquence naturelle de l’Univers millefeuille et des représentations fragmentées qu’il nous impose. Pour en parler plus précisément, j’aborderai les deux paradoxes qui, parmi d’autres, ont fait couler le plus d’encre : le problème de la mesure et le chat de Schrödinger. LE PROBLÈME DE LA MESURE, UN CAILLOU DANS LA CHAUSSURE C’est de loin la plus grande énigme soulevée par la physique quantique sur un plan théorique. Elle continue de tracasser nombre de spécialistes et fait toujours l’objet d’une littérature abondante, particulièrement ardue. Le problème est celui d’une discontinuité. En science, on apprécie les équations donnant des solutions continues, représentées par des courbes régulières et sans interruption, car elles facilitent les raisonnements et les calculs. Celle de Schrödinger, au centre de la mécanique quantique, donne bien des solutions continues et une évolution harmonieuse au cours du temps. En cela, on peut dire qu’elle est une « bonne équation ». Malheureusement, ce bel édifice s’écroule au moment où l’on pratique une mesure, c’est-à-dire 253

Partie 3. Nouvelles interprétations et indications sur le futur

dès que l’on veut connaître l’état exact d’une particule. L’origine du problème est que cette équation traite d’un espace abstrait (celui des fonctions d’ondes). Si l’on veut prévoir une position dans l’espace réel, ou bien une vitesse ou toute autre variable concrète à notre sens, l’équation ne prédit pas une valeur déterminée, mais plusieurs, affectées de probabilités. La mesure se présente donc comme un tirage au sort. Une fois qu’elle est effectuée, on a perdu la continuité avec le passé et il faut repartir avec une nouvelle équation de Schrödinger sur de nouvelles bases. On dit que la fonction d’onde s’est effondrée. Ainsi, chaque mesure introduit une discontinuité majeure dans le cours des choses. Sur un plan théorique, il s’agit d’un écueil gigantesque. Comme dans le cas du paradoxe EPR, le premier réflexe du physicien est d’y voir un défaut de la théorie. Au contraire, pour Bohr, cet état de fait est naturel, même s’il est opposé à nos attentes. Le savant n’hésite pas à remettre en question le mythe newtonien en affirmant que le monde microscopique n’obéit pas aux mêmes représentations que le monde macroscopique. Il est essentiellement probabiliste et il ne faut pas s’étonner si la nature répond à nos questions de cette façon. Il conçoit l’observation d’une particule comme une interaction entre deux strates du millefeuille : celle microscopique où elle se situe et celle macroscopique où l’on trouve le physicien et son instrument de mesure. La particule appartient à la première et l’appareil à la seconde. Faut-il s’étonner qu’une telle confrontation entre deux mondes si différents crée un clash et mène à l’effondrement d’une fonction d’onde qui, de plus, n’a aucun sens dans notre monde usuel ? Cette discontinuité est la seule réponse que la nature « trouve » quand on lui impose un conflit entre deux niveaux distincts du millefeuille. Il est bien malheureux que la fonction d’onde ne survive pas à cet évènement, mais c’est le propre de tous les phénomènes émergents : à grande échelle, on retrouve rarement les comportements de la strate inférieure. Depuis que l’on se pose ces questions, près d’un siècle maintenant, deux pistes principales ont été explorées pour résoudre la discontinuité 254

L’Univers millefeuille

Un éclairage sur la question quantique

dite effondrement de la fonction d’onde. Selon la première, la théorie serait incomplète et il existerait des variables cachées, comme le prétendait Einstein avec le paradoxe EPR. Cette thèse a trouvé une limite importante avec les travaux de Bell dont nous avons déjà parlé. Une autre approche a été inventée par Hugh Everett en 1956 : la théorie des mondes multiples. Elle a conservé une popularité importante jusqu’à nos jours, car elle élimine effectivement l’effondrement de la fonction d’onde. De plus, elle suit un formalisme mathématique rigoureux menant aux mêmes prédictions que la mécanique quantique originale. Cependant, elle présente un « petit inconvénient » : elle prévoit qu’à chaque mesure, l’Univers entier se sépare en plusieurs mondes distincts ! Concrètement, dans l’interprétation de Copenhague, si les équations prévoient trois états possibles pour la mesure d’une particule, alors, l’une des trois possibilités devient réelle et les deux autres sont oubliées. À ce moment précis, la fonction d’onde s’effondre. Au contraire, pour Everett, les trois états possibles se matérialisent tous, mais dans trois univers distincts. Trois versions différentes de l’observateur se situent respectivement dans trois laboratoires identiques répliqués dans ces trois mondes. Chacun d’entre eux observe une mesure différente sur son instrument. Ainsi, les trois valeurs existent bien, mais dans des univers séparés. Les trois copies de l’observateur n’ont aucun moyen de communiquer. Sur un plan mathématique, l’intérêt est d’éviter l’effondrement de la fonction d’onde. L’honneur est sauf, mais à quel prix ! Le monde passerait son temps à se scinder en versions bis, ter, etc., chaque fois que l’on observe une particule. Puis, chacune des versions suivrait son propre destin sans aucun lien avec l’autre. On imagine difficilement la myriade d’univers se créant ainsi à tout instant, à l’occasion de toute mesure. En science, on est très attaché au principe du rasoir d’Occam selon lequel, entre deux théories équivalentes dans leurs prédictions, la plus simple doit être retenue. Dans ce sens, celle des mondes multiples est particulièrement coûteuse par ses conséquences abracadabrantes. Réciproquement, ceux qui la défendent brandissent aussi le rasoir 255

Partie 3. Nouvelles interprétations et indications sur le futur

d’Occam à leur manière : ils clament que l’existence d’une fonction d’onde s’effondrant à chaque mesure représente aussi un coût monstrueux. Pour cette raison, la théorie des mondes multiples, véritable défi à l’entendement humain, est acceptée par nombre de physiciens comme une formulation mathématique plus satisfaisante, évitant la discontinuité dont nous avons parlé. Avec la modestie que m’imposent les limites de mes connaissances théoriques, je me permettrai néanmoins une remarque quelque peu impertinente : je vois dans cette théorie une adhésion forcenée au mythe de Newton. Pour sauver la continuité des équations, on est prêt à créer virtuellement des milliards d’univers que personne ne pourra jamais visiter ! LA DÉCOHÉRENCE PERMET DE MIEUX COMPRENDRE LES CONTRADICTIONS Dans les années 1970 et 1980, une théorie est venue clarifier, non pas le paradoxe de la mesure et la discontinuité des équations, mais la façon dont le monde classique émerge du monde microscopique des particules. Il s’agit de la décohérence, déjà évoquée au chapitre 4. Le concept mérite de s’y attarder un peu, tant il illustre bien la structure de l’Univers millefeuille. La théorie élaborée par Dieter Zeh, puis par Wojciech Zurech, décrit mathématiquement le comportement d’une particule quand elle interagit avec d’autres. Dans le monde quantique, la particule est cohérente dans la mesure où elle présente plusieurs états superposés qu’elle peut partager avec d’autres particules en formant un tout. Les deux particules intriquées du paradoxe EPR en sont une illustration. Cependant, la théorie montre comment cette cohérence disparaît si un grand nombre de particules sont mises en jeu. En se combinant, leurs fonctions d’ondes finissent par perdre leur caractère quantique (flou, superposé, probabiliste) pour adopter le comportement classique des objets macroscopiques (unique et certain). Pour parler concrètement, on peut maintenir en état de superposition de petits ensembles de quelques particules, à condition de les isoler de tout contact avec l’environnement. Cependant, si elles 256

L’Univers millefeuille

Un éclairage sur la question quantique

sont en grand nombre, ou bien si elles rencontrent des molécules de gaz (l’air du laboratoire) ou des photons (sa lumière), elles perdent aussitôt leurs propriétés quantiques. Pour en donner un exemple, un petit grain de poussière peut se trouver dans un état de superposition, mais la simple présence d’air autour de lui, le fait décohérer en un temps de l’ordre de 10– 36 seconde. Le phénomène de la décohérence est l’un des plus grands obstacles au développement de l’ordinateur quantique. Malgré des mesures extrêmes d’isolement et de refroidissement, on parvient difficilement à faire fonctionner ses composants plus de quelques secondes avant qu’ils ne décohèrent. Ce processus me paraît d’une importance primordiale : c’est à partir de la décohérence que le monde macroscopique émerge du monde quantique. La proximité d’une grande quantité de matière et de lumière dans l’environnement impose le comportement classique. Ainsi, notre monde habituel surgit de la sphère microscopique par une transition de phase (cf. chapitre 6). Nous en reconnaissons bien les caractéristiques : le changement naît d’un phénomène collectif entre les particules. Il se propage rapidement dans le milieu entier, faisant apparaître un état nouveau à une échelle supérieure. La nouvelle strate macroscopique qui en résulte (celle où nous vivons) se compose de matière stable dont les comportements sont prévisibles. Le flou quantique a laissé place au déterminisme. Cela rappelle quelque peu la condensation de l’eau sous l’action du froid : des molécules de vapeur d’eau agitées et difficiles à localiser se transforment en goutte­ lettes d’eau plus stables et plus localisables. LE CHAT DE SCHRÖDINGER PEUT CRAINDRE LA MORT, MAIS NON LA SUPERPOSITION QUANTIQUE La décohérence éclaire aussi l’un des paradoxes les plus fameux de la théorie quantique : celui du chat de Schrödinger. Si nous suivons l’optique de Bohr, l’interprétation dite de Copenhague, il y a bien deux mondes, l’un microscopique et l’autre macroscopique, obéissant à 257

Partie 3. Nouvelles interprétations et indications sur le futur

des règles totalement différentes (deux strates du millefeuille). En 1935, l’année du paradoxe EPR, Schrödinger a conçu une autre expérience de pensée destinée à révéler les contradictions soulevées par cette interprétation. Son idée (figure 40) a consisté à combiner en un seul système, un objet microscopique (un atome radioactif susceptible de se désintégrer) et un autre, macroscopique (un chat).

Figure 40 | Le chat de Schrödinger, mort et vivant à la fois.

Placés dans une boîte fermée, les deux sont liés par un dispositif diabolique : si l’atome se désintègre, cela déclenche un mécanisme ressemblant à celui d’une tapette à souris, qui casse une fiole de poison et entraîne immédiatement la mort du chat. Une fois l’enceinte close, on sait que l’atome va se désintégrer mais on ignore quand. Toute la question est de savoir ce qu’il se passe entre le moment de la fermeture de la boîte et celui de sa réouverture. Si l’on applique la mécanique quantique à ce dispositif, l’atome doit se trouver dans une superposition d’états, « désintégré/non désintégré », les deux possibilités étant affectées de probabilités. Cette superposition doit se maintenir jusqu’au moment où l’observateur intervient en ouvrant la boîte. À cet instant précis, l’atome doit « choisir » un des deux états probables. On le trouvera donc désintégré ou non, selon le tirage au hasard qui en a résulté. Dans l’idée de Schrödinger, les mêmes lois doivent ­s’appliquer au chat. Dès lors, entre la fermeture 258

L’Univers millefeuille

Un éclairage sur la question quantique

et l’ouverture de la boîte, il doit lui aussi se trouver dans un état superposé « mort/vivant ». Le paradoxe réside dans ce curieux état prévu par la physique quantique, mais difficilement imaginable pour un être réel. Pour le résoudre, il faut examiner l’interface entre l’atome et le chat, c’est-à-dire ce dispositif de « tapette à souris » qui amplifie la désintégration et provoque l’ouverture de la fiole de poison. Le changement d’état de l’atome déclenche une avalanche d’effets dans ce mécanisme macroscopique composé d’une myriade de particules. Bohr clame avec force que les comportements quantiques ne peuvent pas se transmettre ainsi à de grands dispositifs. Plus précisément, le seul fait de placer cet atome au contact d’un objet de grande dimension lui fait perdre son état superposé. Dès lors, aucun effet quantique ne peut se manifester ni dans cet atome, ni dans le système de déclenchement, ni a fortiori chez le chat. L’expérience de pensée se résume donc à martyriser un animal en l’exposant pendant quelque temps à un risque d’intoxication. Toutefois, dire qu’un chat ne peut pas être en situation de superposition ne résout pas entièrement le paradoxe. Si l’on considère que les lois quantiques s’appliquent à un atome dans une situation d’isolation, mais non à un chat, alors on doit se poser la question : « À partir de quelle échelle passe-t-on du comportement atome, au comportement chat ? » En d’autres termes, où se trouve la frontière entre les mondes microscopique et macroscopique ? Comme nous l’avons vu, selon la théorie de la décohérence, les propriétés quantiques se perdent au sein d’une collection de particules suffisamment grande. Cependant, elle ne fixe aucun seuil précis pour cette transition. Quelle peut donc être la taille maximum d’un objet quantique ? En laboratoire, notamment celui du prix Nobel Serge Haroche, on fabrique des chats de Schrödinger tous les jours, mais à très petite échelle. On parvient à maintenir une grosse molécule dans l’état quantique. Des expériences sont en cours pour tenter de le faire avec une macromolécule comme une protéine. Par ailleurs, des objets bien 259

Partie 3. Nouvelles interprétations et indications sur le futur

plus gros, réellement macroscopiques, peuvent être placés dans un état cohérent. Un exemple classique est celui des matériaux supraconducteurs. On est aussi parvenu à placer des lamelles métalliques vibrantes dans des états intriqués. Pour cela, il a fallu les refroidir très près du zéro absolu. Au moment où j’écris ces lignes, une équipe a même réussi à maintenir un être multicellulaire en état superposé. Il s’agit d’un tardigrade. Ce petit animal de quelques dixièmes de millimètres ressemblant à un acarien est réputé pour son extrême résilience. Peut-on parler d’un tardigrade de Schrödinger ? Non, pour au moins deux raisons. D’abord, comme les autres objets déjà cités, il a été refroidi à une température extrêmement basse (0,01 K), très éloignée des conditions usuelles et favorisant la prévalence des comportements quantiques. De plus, l’animal s’était préalablement placé dans un état d’hibernation typique de cette espèce, où il avait perdu toute son eau. On a pu le réhydrater après l’expérience et il a survécu. A-t-il passé quelques heures dans un état superposé mort/ vivant ? Certainement pas. Il avait simplement adopté son état de survie que l’on pourrait qualifier de mort réversible. Si la moindre activité métabolique avait subsisté dans ce petit organisme desséché, il aurait immédiatement décohéré et l’expérience aurait échoué. Ces faits montrent bien que l’on ne peut spécifier un nombre de particules à partir duquel se manifesterait le phénomène de décohérence. Si l’on me demandait au-delà de quelle taille il se produit, je répondrais à partir d’« une certaine taille », à l’instar de l’adjudant instructeur de Fernand Raynaud qui posait la question : « Après le tir, combien de temps le fût du canon met-il à refroidir ? » Pour lui, la bonne réponse était : « Un certain temps ! » J’entends par là que la réponse à la question posée est forcément floue : le seuil de décohérence dépend des objets, des circonstances et du hasard. Stephen Hawking y répondait de façon plus expéditive en disant : « Quand on parle du chat de Schrödinger, je sors mon pistolet. » Il ne précisait pas si c’était pour régler définitivement leur compte au chat ou bien aux physiciens qui posent ce type de question. 260

L’Univers millefeuille

Un éclairage sur la question quantique

Ce problème de seuil est typique des transitions de phase. Par exemple, la thermodynamique, une théorie statistique, s’applique aussi à partir d’un « certain » nombre de particules. On ne peut parler de l’entropie, de la température ou de la pression d’une particule isolée. Il en faut plusieurs centaines ou milliers pour que la loi des grands nombres joue et que les statistiques donnent des moyennes fiables et précises. Ainsi émergent ces grandeurs macroscopiques. De même, dire qu’un atome se trouve à l’état cristallin n’a aucun sens. Se poser la question « À partir de combien d’atomes peut-on parler d’un cristal ? » n’a pas beaucoup plus de signification que de discuter du sexe des anges. LA RENORMALISATION, UNE PROCÉDURE LICITE Voici une autre manifestation de la structure en millefeuille : une procédure mathématique servant à traiter les « infinis » de la théorie quantique des champs. La mécanique quantique a permis de décrire les différents types de particules de matière et de forces de la nature. Ainsi est née la théorie quantique des champs, représentant toutes les particules sous forme de champs. De là, s’est échafaudé un édifice considérable appelé le modèle standard, décrivant très fidèlement le comportement de la matière et des forces (en dehors de la gravité qui résiste toujours à toute tentative de quantification). Les physiciens lui reprochent de manquer de rigueur et, en particulier, de ne pas prévoir les valeurs caractéristiques des particules (masse, charge, etc.) : elles doivent être fixées par l’expérimentation. Cependant, on n’a pas trouvé mieux et le modèle standard s’est avéré un outil remarquable pour décrire le monde au niveau microscopique. Une autre critique a été formulée au sujet de ce temple du savoir : il repose largement sur une méthode mathématique contestée par certains, appelée renormalisation. De quoi s’agit-il ? En manipulant les équations de la théorie quantique des champs, on tombe sur des infinis entravant les calculs. Pour en donner un

… 261

Partie 3. Nouvelles interprétations et indications sur le futur

… exemple, elle prévoit que, partout dans l’espace, des paires particule-antiparticule se forment spontanément, par exemple des paires électrons-positons. En général, elles disparaissent aussi vite qu’elles naissent. Une fois le vide peuplé d’une grande quantité de ces ­particules virtuelles (éphémères), un fait prouvé expérimentalement, il devient extrêmement difficile d’estimer l’énergie qui se répartit dans l’espace, ainsi que ses effets. Si l’on essaie de sommer tout cela, on arrive à des infinis et l’on ne peut achever les calculs. Heureusement, une technique mathématique, portant le nom disgracieux de groupe de renormalisation, est venue secourir les physiciens. Elle a été mise au point progressivement depuis les années 1930 et 1940, avec une contribution historique des prix Nobel Julian Schwinger, Richard Feynman et Sin-Itiro Tomonaga. Dans une logique rappelant la thermodynamique, elle vise à moyenner les effets qui conduisent à des infinis, en s’intéressant au comportement collectif des particules. Elle consiste à décrire le système à petite échelle, puis à le dilater dans les dimensions supérieures. Il est intéressant de remarquer que la méthode repose sur l’invariance d’échelle, un concept proche de l’autosimilarité des objets fractals, vue au chapitre 1. Elle fixe aussi une échelle limite arbitraire en dessous de laquelle on décide d’ignorer les phénomènes. La procédure a été critiquée pour manquer de rigueur et traitée de « tripatouillage mathématique ». De plus, elle introduit des valeurs qui ne se calculent pas, mais doivent être déterminées par l’expérience. Certes, la renormalisation a sauvé le modèle standard, mais elle laisse toujours un goût amer dans la bouche de beaucoup de théoriciens. Nous retrouvons le mythe newtonien : il faudrait une théorie mathématique « pure » prévoyant les valeurs des particules (avant de les mesurer), et cela sans faire appel à des « rafistolages » dans les calculs. Pourtant, si nous examinons la procédure de la renormalisation, nous constatons que par son formalisme rigoureux, elle a permis d’aboutir à un modèle exact et précis des forces physiques. Par nature, elle jette des ponts entre différentes échelles. Ces considérations nous ramènent à l’Univers millefeuille. Comme nous l’avons souvent souligné, ses différentes strates débouchent sur des



262

L’Univers millefeuille

Un éclairage sur la question quantique

… lois distinctes. Si en échafaudant le modèle standard des particules, nous voulons qu’il prédise les valeurs caractéristiques observables à notre niveau, nous nous heurtons à des difficultés qui ne peuvent pas se résoudre par les mathématiques pures. Il nous faut donc injecter dans le modèle, des valeurs expérimentales mesurées dans notre monde. Pourquoi s’en étonner ? Si nous ne sommes pas des jusqu’auboutistes du mythe newtonien, nous ne pouvons qu’apprécier la qualité et la justesse de ce modèle standard. Nous devons considérer la méthode de renormalisation comme adaptée (elle a prouvé son efficience) et parfaitement licite. Elle est un moyen naturel de décrire à notre échelle une réalité émergeant du monde microscopique.

Ces considérations sur la renormalisation doivent être interprétées dans une vue plus large de l’Univers. Tout au long de cet ouvrage, nous cherchons à écouter ce que la nature nous dit à propos du cosmos, d’une particule, d’un être vivant ou d’une société. De tout cela naît une vision d’ensemble pragmatique et un dialogue plus intime avec la réalité. Sans vouloir aucunement dénigrer le pouvoir extraordinaire des mathématiques, je vois trop souvent la fascination qu’elles nous inspirent et cet espoir futile de tout ramener à quelques équations. Pourtant, si comme le suggérait Feynman, la nature est structurée à l’image d’un oignon dont il faut décrire patiemment chaque pelure pour comprendre les choses, eh bien pourquoi pas ? Il s’agit là d’une tâche tout aussi noble que celle, quasi religieuse, de rechercher l’hypothétique modèle universel de la théorie du tout. L’ÉMERGENCE DE L’ESPACE-TEMPS ET DES LOIS Tout au long de cet ouvrage, nous nous sommes habitués à naviguer dans les différentes strates du millefeuille, en sautant de l’une à l’autre. Notre voyage nous a conduits jusqu’aux plus petites échelles connues, avec la mécanique quantique. Cette démarche amène 263

Partie 3. Nouvelles interprétations et indications sur le futur

inévitablement une autre question : existe-t-il une autre strate qui lui soit inférieure ? Comme nous l’avons dit au premier chapitre, nous pouvons le penser. Sachant que le mur de Planck représente aujourd’hui la frontière infranchissable de notre connaissance et de nos modèles, parler de ce qui serait plus petit est un saut dans l’inconnu, dans une terra incognita, dit Reeves. Plusieurs approches en cours d’élaboration visent à unifier la relativité et la mécanique quantique. Elles supposent l’existence de nouvelles structures à l’échelle de Planck, des objets ou des formes constituant les particules. L’une, la théorie des cordes, repose sur l’existence de petites cordes. L’autre, la théorie de la gravitation quantique à boucles, prévoit un espace-temps non pas continu, mais maillé. Pour prendre une analogie, une étoffe unie paraît homogène vue de loin, mais, observée à la loupe, elle révèle ses fibres et son tissage. Ainsi, l’espace-temps qui nous paraît continu et que nous prenons pour une entité première, pourrait lui-même provenir d’un monde plus petit dont la texture reste à découvrir. Rien n’est prouvé à ce jour, mais ces idées semblent cohérentes avec notre vision de l’Univers millefeuille. Sous l’échelle de Planck, il pourrait exister une autre strate avec un autre niveau de réalité dont émergeraient ces cordes ou ces boucles, et disposant de ses propres lois physiques. Autrement dit, les lois dites fondamentales ne le seraient pas : elles seraient émergentes ! Ces idées vont encore plus loin si nous parlons en termes de causalité. Notre cerveau s’est construit pour toujours rechercher la cause des phénomènes afin de mieux les anticiper. Le physicien travaille de cette manière. S’il trouve une cause, il cherche immédiatement la cause de la cause, et ainsi de suite, un processus bien décrit par un poème de Robert Desnos (1923) : « Maudit soit le père de l’épouse du forgeron qui forgea le fer de la cognée avec laquelle le bûcheron abattit le chêne 264

L’Univers millefeuille

Un éclairage sur la question quantique

dans lequel on sculpta le lit où fut engendré l’arrière-grand-père de l’homme qui conduisit la voiture dans laquelle ta mère rencontra ton père ! » En remontant de cause en cause, se pose inévitablement la question de la cause première. Avant Galilée et Newton, c’était Dieu. Après eux et l’invention de la science, les causes de nos observations remontaient aux lois de la physique, dont la cause restait néanmoins, Dieu. Einstein lui-même disait : « Je veux savoir comment Dieu a créé ce monde. Je ne m’intéresse pas à tel ou tel phénomène. Je veux connaître ses pensées, le reste n’est que détails. » Si, comme nous l’évoquons dans les lignes précédentes, les lois dites fondamentales sont émergentes, alors se poserait de nouveau la question : « D’où viennent ces nouvelles lois ? » En dehors de la thèse divine, une réponse naturelle pourrait s’imposer : « d’un autre niveau du millefeuille, à des échelles encore inférieures ! » Nous entrerions ainsi dans une régression infinie. Pourquoi pas ? Au début de ce livre, je disais que dans la nature, aucune dimension ne jouissait d’un statut particulier. Si la régression dont nous parlons n’était pas infinie, il existerait une échelle inférieure, censée être la plus petite et considérée comme fondamentale. Personne n’en sait rien aujourd’hui. À mes yeux, elle n’existe tout simplement pas et j’imagine plutôt un univers s’étendant à l’infini dans les échelles, tant vers les petites que vers les grandes. Dans un tel cas, au moins pour la physique, la recherche de la cause première n’aurait aucun sens. Je précise « pour la physique », car la question de la cause première se pose aussi sur le plan spirituel, non abordé ici.

265

11 La transition de phase d’Internet

« À notre époque, on est fier des machines capables de penser et on doute des hommes qui essaient de le faire. » L’historien H. M. Jones

Après les affres de la mécanique quantique, nous allons effectuer un saut gigantesque dans les échelles, depuis la strate inférieure du millefeuille jusqu’à la plus élevée en termes de complexité : la société. J’ai choisi l’exemple d’Internet pour l’avant-dernier chapitre de ce livre, car il illustre à peu près tous les concepts d’émergence et d’autoorganisation détaillés tout au long de l’ouvrage. En inventant la toile, l’Homme contemporain a répliqué les bonnes recettes ayant permis à la nature de s’épanouir. UNE ORIGINE TRÈS SIMPLE, UN DÉVELOPPEMENT TRÈS COMPLEXE Dans les années 1960, une idée a donné naissance à ce réseau très sophistiqué couvrant la planète et modifiant très profondément nos 267

Partie 3. Nouvelles interprétations et indications sur le futur

vies. À l’avenir, il en émergera une société nouvelle dont il est impossible de voir les contours aujourd’hui. Il est intéressant de retrouver dans un tel phénomène social, les grands processus ayant permis au cosmos de se déployer, aux étoiles de se former et aux êtres vivants d’apparaître. Très simple dans sa définition, la formule d’Internet est capable de mener à la plus grande complexité spontanément sans l’intervention d’une quelconque autorité extérieure. En pleine guerre froide, le mathématicien et psychologue Robert Taylor travaille sur un projet de communication entre trois ordinateurs situés dans trois centres de recherche. L’idée est de trouver un protocole résilient grâce à une architecture décentralisée. En deux mots, si une partie du réseau est endommagée, les messages doivent passer par d’autres mailles et arriver tout de même à destination. En 1969, débutent les premières communications opérationnelles entre plusieurs universités. Ensuite, le protocole TCP/IP est développé et, en 1977, le système est fort d’une centaine de points. Les premiers utilisateurs réguliers sont la communauté des chercheurs. Ils échangent leurs publications, d’ordinateur à ordinateur, sans frais et instantanément. Plus tard, ils trouvent le moyen d’utiliser gratuitement le réseau pour la voix, à une époque où les communications téléphoniques internationales sont encore très coûteuses. Au début des années 1990, la toile embryonnaire commence son expansion dans le grand public grâce au boom des ordinateurs personnels et aux logiciels de navigation. Enfin, à partir de 2007, la généralisation des smartphones et des réseaux sociaux étend son usage à une majorité de la population humaine. J’ai découvert Internet en 1993, quand j’étais à la tête de l’informatique du groupe SONY en Europe. J’ai compris qu’une porte s’ouvrait vers une immense opportunité grâce à une expérience tout à fait fortuite. Étudiante, ma fille partait faire un stage aux États-Unis et son université demandait que l’on s’occupe de la location d’une chambre, des commandes de mobilier et de linge de maison, des abonnements d’électricité et de téléphone, etc. Je redoutais d’y consacrer beaucoup 268

L’Univers millefeuille

La transition de phase d’Internet

de temps, car non seulement il fallait contacter les différents fournisseurs aux États-Unis, mais, de plus, tout cela devait se partager avec une colocataire venant d’Australie. Je devais coordonner ­l’ensemble sur trois continents ! L’administration de l’université m’avait donné des listes d’adresses curieuses, dotées d’un signe cabalistique : @. Grâce aux techniciens de SONY, je me suis connecté à la toile. Alors que je m’attendais à perdre un mois à correspondre avec les uns et les autres, j’avais finalisé toutes les commandes en trois jours. J’étais même aidé par le décalage horaire, car chaque matin, je disposais des réponses à mes communications de la veille au soir vers les ÉtatsUnis et l­’Australie. Quelle démonstration pratique pouvait mieux me convaincre de la puissance d’Internet à une époque où les liaisons se faisaient encore par téléphone, par courrier et par fax ? En France, l’administration n’a pas accueilli cette innovation avec beaucoup d’enthousiasme. Le pays sortait de vingt ans de dirigisme dans les télécommunications. Un plan étatique très ambitieux nous avait permis de rattraper notre retard en téléphonie et de créer une industrie française des équipements électroniques. Le réseau Transpac avait été mis en place pour permettre aux ordinateurs des entreprises de communiquer. Dans ce contexte, Internet arrivait en France comme un enfant non désiré. Liberté totale, gratuité, absence de direction et de contrôle…, ces caractéristiques étranges paraissaient fort douteuses aux yeux d’une administration des télécoms habituée à diriger. De plus, un des développements récents du programme français, le Minitel, était une idée intelligente qui préfigurait Internet et commençait à connaître quelque succès. Au contraire d’Internet, les services contrôlés par France Télécom étaient payants. Percevant une menace pour ses propres intérêts, l’État français a d’abord cherché à le réglementer. Puis, il a dû admettre que son développement serait inéluctable. Il valait mieux exploiter cette nouvelle technologie plutôt que chercher à la museler. Vous serez peut-être surpris d’apprendre que la toile ne dispose d’aucun organe de direction et repose, en tout et pour tout, sur 269

Partie 3. Nouvelles interprétations et indications sur le futur

un petit livret technique de 150 pages. Il décrit un protocole de communication informatique et des règles de comportement pour les opérateurs. On peut y ajouter un service chargé d’attribuer les noms de domaines dans le monde. C’est tout ! Le fonctionnement du réseau et son développement se distribuent librement entre tous les opérateurs et les usagers, avec comme seule contrainte, le respect des règles du petit livre. Dans un tel système entièrement mutualisé, les sociétés de télécommunication sont-elles motivées à poser, à grands frais, des lignes de grosse capacité à travers les continents ? Voilà comment cela fonctionne : si un opérateur de télécom français constate que les transmissions offertes à ses clients entre la France et les États-Unis sont de qualité insuffisante, il lui appartient d’ouvrir lui-même une ligne entre les deux continents, par câble ou satellite. En général, il ne le fera pas seul et partagera l’investissement avec plusieurs concurrents. Ils financeront le projet grâce aux abonnements des internautes et de leurs clients professionnels, et ils amélioreront leur qualité de service. Seul inconvénient pour eux : cette nouvelle ligne sera ouverte aux autres concurrents et bénéficiera à tous les usagers, qu’ils soient leurs clients ou non. Ce fait est accepté par les opérateurs dès que leur intérêt commercial dépasse marginalement le coût fixe de l’investissement. Force est de constater que « la mayonnaise a pris ». L’addition de toutes ces initiatives privées et spontanées a permis de créer un réseau particulièrement performant à travers le monde, sans aucune planification globale. Jusqu’à présent, chacun y a trouvé son compte et les investissements se sont faits à un rythme satisfaisant. On retrouve, dans Internet, le principe de l’auto-assemblage. Si le réseau mondial entier se forme par les ajouts successifs de lignes, cela rappelle la façon dont certaines protéines s’organisent entre elles dans une cellule. Dans ce dernier cas, les macromolécules sont conçues pour se lier spontanément grâce à leurs formes, lesquelles ont été façonnées par quatre milliards d’années de sélection naturelle. On se souvient du résultat époustouflant du flagelle de la bactérie 270

L’Univers millefeuille

La transition de phase d’Internet

s’assemblant tout seul à partir de ses « pièces détachées ». Dans le cas d’Internet, l’information « génétique » réside dans le petit livret technique. Ainsi conçu, le système provoque spontanément l’adhésion libre des opérateurs. En fonction de leurs intérêts, ils apportent au dispositif, leurs idées, leur savoir-faire, leurs moyens financiers et leurs clients. L’auto-assemblage ne concerne pas que les lignes de transmission : on le retrouve aussi dans les services offerts. Si vous voulez communiquer par e-mail, il vous suffit d’ouvrir une adresse chez Gmail à titre gracieux. Si vous voulez créer un site Internet, vous pouvez aussi le faire à très peu de frais. J’en ai fait l’expérience pour présenter le projet de mon premier ouvrage aux éditeurs. Plusieurs entreprises offraient des moyens simples de réaliser un site gratuitement. J’ai pu le faire grâce à l’une d’entre elles. Pour ce site dédié au public très restreint des éditeurs et de quelques amis ou partenaires, j’avais fait les choses moi-même de façon artisanale. En revanche, quand j’ai décidé d’aller plus loin en construisant un site à l’usage du public51, j’ai préféré faire appel à un prestataire. Le coût m’a paru très modeste par rapport aux services apportés. Ainsi fonctionne la toile : chacun, particulier ou entreprise, peut se connecter et devenir un acteur sur le net à très peu de frais. Sans barrière d’entrée, avec des coûts très faibles, Internet se développe exponentiellement dans le monde, en restant fidèle à son principe de base : l’auto-assemblage. LA CONFRONTATION DES ÉCHELLES Comme tout phénomène émergent, Internet se trouve à l’interface de plusieurs strates du millefeuille. La première se situe au niveau des électrons circulant dans les puces de silicium et les installations de transmission, à des échelles descendant au-dessous du micron. La deuxième est le niveau de chaque individu muni de son PC ou de son smartphone. Enfin, la troisième est planétaire : la toile, avec ses 4,5 milliards d’internautes. Il est surprenant de voir ces dimensions 51. https://mgm-ec.fr 271

Partie 3. Nouvelles interprétations et indications sur le futur

se répartir sur plus de 14 ordres de grandeur dans l’échelle utilisée au premier chapitre. Quant à l’utilisateur, l’Homme, où se situe sa propre taille (le mètre) entre ces deux extrêmes ? Pile au milieu. Pour certains futuristes, Internet formera un super-cerveau planétaire dont chaque élément, particulier ou organisation, serait un neurone. Cette comparaison est intéressante. Si l’on se limite à la notion de réseau (des nœuds et des mailles), l’ensemble de la toile mondiale reste minuscule par rapport à la complexité d’un seul cerveau humain : LA TOILE

UN CERVEAU

Nombre de nœuds :

4,5 milliards de PC ou de smartphones

100 milliards de neurones

Nombre de connexions par nœud :

Quelques centaines par usager

5 000 axones et dendrites par neurone

Nombre total de connexions :

1 000 milliards

500 000 milliards

Le réseau de nos neurones est donc 500 fois plus dense que celui de la toile mondiale. Cependant, si l’on veut approfondir la comparaison, il faut introduire la notion de quantité d’information. Elle pousse l’avantage dans l’autre sens. En effet, la circuiterie « humide » du cerveau (axones et dendrites) est d’une piètre performance comparée à celle du silicium. En première approximation, elle est parcourue de signaux binaires, des 0 et des 1 comme dans l’ordinateur : 0 en l’absence de décharge, 1 s’il s’en produit une. Cependant, étant donné la lenteur du cheminement de l’influx nerveux (de 1 à 100 m/s) et des signaux chimiques par les neurotransmetteurs, le déclenchement des neurones dépasse difficilement une fréquence de l’ordre de 100 hertz. Cela permet de traiter au maximum 100 bits/seconde. Dans le Mac me servant à écrire ces lignes, les mémoires de travail se rafraîchissent au rythme de 2 gigahertz, c’est-à-dire 20 millions de fois plus vite. 272

L’Univers millefeuille

La transition de phase d’Internet

Les lignes de communications d’Internet sont elles-mêmes bien plus performantes que les connexions du cerveau. Elles fonctionnent à une vitesse proche de celle de la lumière et leur capacité se mesure en mégabits par seconde pour une simple liaison Internet chez un particulier. Ainsi, la toile est-elle facilement traversée de gros fichiers, de musique et de films, quand notre encéphale manipule très lentement de simples impulsions. CAUSALITÉS MONTANTE ET DESCENDANTE Au niveau de la société humaine, Internet fait émerger un nouveau phénomène entre deux strates du millefeuille. Au niveau individuel, les utilisateurs adhèrent massivement aux services offerts et engendrent une puissante causalité montante. Au niveau supérieur, à l’échelle planétaire, la toile finit par créer ses propres lois. En retour, elle exerce une causalité descendante de plus en plus contraignante sur l’individu. Tel internaute devient esclave de la petite cloche de WhatsApp l’avertissant de l’arrivée des messages. Tel autre est contraint de passer sa journée devant un écran pour gérer des services en ligne ou bien simplement en raison du télétravail. À l’inverse, tel autre citoyen n’ayant jamais eu la possibilité de se former à l’informatique et à Internet voit un véritable tsunami technologique lui passer au-dessus de la tête. Certains se retrouvent au bord du rejet social. Enfin, de nombreux entrepreneurs et commerçants voient leurs affaires péricliter devant la progression des services en ligne. Les causalités montantes et descendantes constituent un tissu d’intrications très complexe. D’un côté, certains consommateurs se plaignent que leurs données personnelles (leurs déplacements, leurs achats, leurs goûts) soient exploitées par les GAFAM. Par ailleurs, les mêmes jouissent sans limite des services extraordinaires offerts par ces sociétés, le plus souvent gratuitement : recherche instantanée d’informations sur la toile, géolocalisation et guidage, possibilités de communication illimitées, lecture gratuite de la presse quotidienne à travers le monde, musique, films, etc. 273

Partie 3. Nouvelles interprétations et indications sur le futur

Nous n’imaginons plus la vie sans Internet, cette pieuvre planétaire que nous avons formée et, qui maintenant, nous lie mutuellement. Pour Joël de Rosnay52, nous vivons de plus en plus en symbiose avec nos appareils électroniques et cette combinaison fait émerger progressivement un être suprahumain. Pour autant, sommes-nous en train de fabriquer une sorte d’animal multicellulaire dont chacun d’entre nous deviendrait une simple cellule ? Les causalités montantes et descendantes observées peuvent le laisser penser. Cependant, la comparaison a ses limites, car la cellule n’est pas un être intelligent. Dans le cas d’Internet, nous pouvons plutôt imaginer l’éclosion d’une intelligence collective coexistant avec celles des individus, un peu comme une fédération fonctionne par un partage des domaines de compétence sur deux niveaux. Cette idée rappelle un peu la noosphère de Pierre Teilhard de Chardin, une « pellicule de pensée enveloppant la Terre, formée des communications humaines ». Toutefois, une telle unification risque d’être difficile. En effet, avec le développement d’Internet, on observe des mouvements antagonistes. D’abord, les nouvelles opportunités de communication permettent à tous ceux possédant des goûts ou des intérêts communs de se rapprocher. Ensuite, cette tendance à l’intégration fait aussi apparaître des cloisons isolant certains groupes et provoquant des réflexes d’intolérance entre communautés. DES POSSIBLES ADJACENTS S’OUVRENT À L’INFINI Pendant toute la phase explosive d’Internet, loin d’être terminée, des possibles adjacents se présentent à chaque instant. Ils rendent toute prévision particulièrement difficile. En parlant de ses débuts, nous avons vu qu’il existait déjà des protocoles de communication entre ordinateurs, comme Transpac en France. Ils étaient centralisés et nationaux, ce qui compliquait l’avènement d’un réseau mondial unifié. Le possible résidait simplement dans l’invention d’un nouveau protocole de communication décentralisé entre ordinateurs. Il était 52.  L’Homme Symbiotique. J. de Rosnay. 1995. 274

L’Univers millefeuille

La transition de phase d’Internet

adjacent dans la mesure où il était réalisable sans technologie vraiment nouvelle : seulement une architecture distribuée et la confiance en un système sans gouvernance capable de fonctionner de lui-même. La porte vers un immense potentiel allait s’ouvrir à partir de quelques recherches du secteur militaire visant à rendre les réseaux résilients en cas de dommages. Dès le début, la société s’est engouffrée dans Internet qui, à son tour, a ouvert de nouveaux domaines adjacents en quantité. Ce sont les fonds de commerce de milliers de startups cherchant à ouvrir les portes débouchant sur ces Eldorados. Dans cette course à l’innovation, le hasard joue un rôle-clé, comme le montre l’histoire de Wikipédia. En 2000, le projet initial Nupedia visait la réalisation d’une encyclopédie en ligne dont les contenus seraient alimentés par appel au volontariat. Le plan éditorial et l’organisation des pages et des articles devaient rester proches du modèle traditionnel des éditeurs. L’initiative a rapidement échoué en raison du manque de volontaires. Le chef du projet, Larry Sanger, a aussitôt lancé une initiative plus radicale où tout serait libre : pas de plan éditorial, pas de comités d’experts, pas de metteurs en page, etc. L’idée était de tout ramener à un jeu de règles simples définissant comment des volontaires pourraient placer eux-mêmes des articles, les modifier, les compléter, et comment d’autres volontaires, les modérateurs, garantiraient la qualité des contenus. La liberté, complète (ou presque), a payé en ouvrant un immense possible adjacent : 100 000 articles étaient publiés dès la première année, un exemple remarquable d’auto-assemblage. Aujourd’hui, Wikipédia est le septième site le plus visité au monde avec plus de 55 millions d’articles dans 309 langues. On peut lui reprocher d’importants trous dus à son absence de plan éditorial, et un style de rédaction souvent plat à cause du système de modération. Aux tout débuts, je doutais beaucoup de sa qualité intellectuelle, car mon père écrivait des encyclopédies scientifiques et j’imaginais difficilement un modèle libre et spontané atteindre le même niveau. 275

Partie 3. Nouvelles interprétations et indications sur le futur

Aujourd’hui, les contenus de Wikipédia me semblent plus fouillés que ceux des anciennes versions papier et, surtout, mis à jour beaucoup plus rapidement. Je constate souvent qu’une nouvelle y est incorporée dès le lendemain de sa survenue alors qu’auparavant, les mises à jour attendaient plusieurs années. Dans le domaine des sciences, j’ai constaté que Wikipédia n’avait rien à envier aux éditions papiers sur le plan de la qualité. La meilleure analogie historique est l’écriture du Talmud, la loi hébraïque élaborée à travers une myriade d’apports individuels au cours des siècles. Des chercheurs américains ont estimé que le temps humain fourni par tous ses contributeurs volontaires chez Wikipédia était équivalent à celui mis en œuvre pour construire le tunnel sous la Manche. Parmi les possibles adjacents ouverts ces dernières années, on peut citer les cryptomonnaies. Ce sont aussi des algorithmes autonomes, actionnés par qui le veut sur la base du volontariat et sans chef ­d’orchestre. Adepte ou détracteur du Bitcoin, il faut admettre que c’est une belle invention : il permet d’échanger de l’argent comme on envoie un mail. Bien évidemment, il n’existe pas de banque d’émission ou d’autorité monétaire. L’algorithme est opéré par des volontaires (les mineurs). Plus ils sont nombreux, plus il est difficile pour l’un d’entre eux de prendre le leadership du réseau, d’imposer des changements et, plus encore, de frauder. Cela crée un système particulièrement résilient. Les arnaques au Bitcoin n’ont jamais concerné l’algorithme de la monnaie électronique elle-même, mais plutôt les sociétés offrant les services de change avec les monnaies souveraines. En d’autres termes, si tout le monde utilisait exclusivement le Bitcoin, il s’avérerait très résistant à la fraude. Par ailleurs, les cryptomonnaies souffrent de bien d’autres maux. Elles intéressent beaucoup trop les spéculateurs. On peut espérer que cela s’amoindrisse avec le temps. De plus, elles sont souvent utilisées pour des transactions malhonnêtes et du blanchiment. Enfin, le fonctionnement de certaines crypto­ monnaies, dont le Bitcoin, est extrêmement énergivore. 276

L’Univers millefeuille

La transition de phase d’Internet

Il sera intéressant de suivre l’évolution de ces monnaies, car elles remettent en question les devises souveraines de plus en plus minées par la dette. Elles permettent d’offrir de nouveaux services : un immense possible adjacent. Leur modèle distribué ressemble à celui ayant permis l’explosion d’Internet, avec un logiciel fonctionnant tout seul, sans chef d’orchestre. Encore un système émergent, croissant de façon autonome ! Cette recette pourra certainement réussir dans de multiples autres domaines de l’activité économique ou culturelle. Internet transforme profondément la société. Il ne se passe pas un jour sans qu’une startup se crée dans le monde pour ouvrir de nouveaux possibles adjacents, en exploitant les caractéristiques révolutionnaires du réseau : le rapprochement des hommes et l’intermédiation sans frontière, l’accélération des processus, l’accès gratuit et ubiquitaire à l’information, etc. Grâce à cela, la révolution digitale s’étend par diffusion un peu à la manière des espèces remplissant toujours les niches disponibles de façon invasive. Combien de temps existera Internet ? Probablement longtemps étant donné les possibilités infinies restant à exploiter. Un jour, un protocole plus performant émergera et le remplacera en offrant plus de débouchés. INTERNET PRÉSENTE LES CARACTÉRISTIQUES D’UNE TRANSITION DE PHASE Une transition de phase est toujours déclenchée par le franchissement d’un seuil. Ici, il s’agit simplement d’un seuil technologique : l’avènement d’un nouveau protocole de télécommunication entre ordinateurs, ouvert et distribué. On peut y ajouter les inventions des adresses e-mail et du navigateur. Une fois ces technologies mises à disposition des usagers pour un coût très faible, il se crée spontanément une corrélation à grande distance entre de plus en plus d’individus intéressés par ce moyen de communication intelligent. Ce mécanisme rappelle quelque peu le changement de phase liquide-solide où les atomes, libres au départ, établissent entre eux 277

Partie 3. Nouvelles interprétations et indications sur le futur

des corrélations à distance. Cela fait émerger un nouvel état, le cristal. Ainsi, dans la société, apparaissent de nouveaux phénomènes que les hommes eux-mêmes ne peuvent plus contrôler. Certaines professions sont bouleversées par Internet, voire tout simplement détruites. L’information (dont des fake news) se propage à la vitesse de la lumière, provoquant facilement des courants d’opinion, des modes et des mouvements sociaux. Comme dans toutes les transitions de phase, on observe une transformation radicale touchant l’ensemble du milieu. L’autre caractéristique des transitions de phase est leur rapidité. Lors de précédentes révolutions telle la mécanisation industrielle, les changements étaient suffisamment lents pour qu’un homme puisse les assimiler pendant la durée de sa vie professionnelle. Le paysan qui battait le blé au fléau a pu progressivement adopter les machines batteuses. Il a eu le temps d’en apprendre le fonctionnement et de s’organiser en coopératives pour en mutualiser l’usage. Aujourd’hui, dans les professions se numérisant le plus vite, les changements sont tellement rapides que certaines personnes se retrouvent au chômage avant l’âge de la retraite, faute d’avoir pu évoluer au même rythme. Ainsi se franchit le seuil où la vitesse d’évolution du métier dépasse la capacité d’adaptation des hommes. Le phénomène n’est pas encore très sensible, cependant, une partie des jeunes entrant aujourd’hui dans la vie professionnelle y seront probablement confrontés. Ils risquent de « rester sur le quai de la gare et voir le train s’éloigner sans eux ». Cela concerne la numérisation, mais aussi le prochain tsunami à venir : la nouvelle transition de phase de l’intelligence artificielle. La société y trouvera de nombreux bénéfices, mais il lui faudra aussi prendre en compte les difficultés d’adaptation d’une partie de la population. Une autre transition induite par le net a été le Web 2.0. Elle a été très rapide : elle remonte à la création de l’iPhone d’Apple en 2007. Que de chemin parcouru en si peu de temps ! Dès sa naissance, Internet permettait virtuellement à chacun de joindre autrui à condition 278

L’Univers millefeuille

La transition de phase d’Internet

de connaître son adresse e-mail. Cependant, pour communiquer à grande échelle, il aurait fallu établir des annuaires gigantesques, une idée peu compatible avec les exigences de confidentialité et de protection de l’individu. La solution est venue des réseaux sociaux : les communications de milliards d’internautes ont été intelligemment favorisées et canalisées par les robots de Facebook, LinkedIn, Twitter, WhatsApp, Instagram, etc. Ces applications reposent sur une autre transition de phase, un phénomène connu en physique : la percolation. Lors du lancement d’un réseau social, de petits groupes d’internautes connectés commencent à se former. Puis, au fur et à mesure que de nouveaux individus adhèrent, ces « îlots » grandissent. Ils finissent par se rejoindre en formant des « continents ». À un certain stade, se produit la transition de phase de la percolation : c’est le moment où tous les continents se sont rejoints en un seul, telle la Pangée à l’époque des premiers reptiles. Il devient alors possible pour tout internaute de communiquer avec tout autre, au moins théoriquement. Le phénomène de la percolation est très étudié dans des domaines aussi différents que la circulation de l’eau au sein de milieux perméables (comme le café moulu !), la fracturation hydraulique (l’extraction des hydrocarbures mêlés aux roches) ou, encore, les séismes (la propagation et le regroupement des fissures). INTERNET S’AUTO-ORGANISE ENTRE LE CHAOS ET L’ORDRE En beaucoup d’aspects, Internet est un système à l’état critique, finement positionné entre le chaos et l’ordre excessif. Qu’appelonsnous le chaos dans ce cas ? Il s’agit des nombreux risques pesant sur un réseau entièrement libre et livré aux comportements, vertueux ou non, de myriades d’internautes. Et l’ordre ? C’est la régulation ou bien, plus probablement, l’apparition de monopoles tendant à figer le dispositif, à gêner son développement et à restreindre l’innovation. Internet est un esquif naviguant entre Charybde et Scylla. Nous allons en voir quatre exemples, en montrant comment un ajustement fin se réalise à chaque fois. 279

Partie 3. Nouvelles interprétations et indications sur le futur

Principe d’égalité de traitement des messages ou saturation des réseaux ? Un compromis doit être trouvé entre deux risques antagonistes. Côté Charybde, Internet est sous la menace de la saturation des « tuyaux ». En effet, nous avons vu que les investissements en nouvelles lignes se faisaient à la discrétion et aux frais des opérateurs. De plus, ces lignes sont mutualisées de façon tout à fait radicale. Comme nous l’avons dit, elles ne peuvent favoriser certaines catégories d’utilisateurs. De même, elles ne peuvent discriminer les messages selon leur nature ou leur taille. C’est le principe d’égalité de traitement des messages voulant que toute séquence de données envoyée sur le net soit traitée identiquement, quelle qu’elle soit. Ce principe généreux pose des problèmes à l’époque où tant d’usagers téléchargent des films : Internet doit mettre sur un pied d’égalité un mail de cinq kilooctets et un film d’un gigaoctet. En conséquence, un message professionnel de dix lignes ou une transaction d’achat en ligne pourraient être retardés aux moments où beaucoup d’utilisateurs téléchargent des films. L’impossibilité de prioriser leurs clients et les types de messages importants pour leur activité conduirait les opérateurs à sous-investir. Il en résulterait une saturation des « tuyaux » par les applications les plus gourmandes en bande passante. Les conséquences seraient gravissimes tant aujourd’hui l’individu et l’entreprise sont devenus dépendants d’Internet. La situation serait critique pour celles dont les processus vitaux reposent sur le réseau : telle usine reçoit ses commandes de façon électronique, telle autre suit ses flux d’arrivée des pièces vers la chaîne de fabrication par des protocoles Internet partagés avec les fournisseurs. Une dégradation de la performance pendant quelques heures seulement pourrait entraîner des conséquences désastreuses. Toujours du côté Charybde, il faut noter une autre menace, naturelle celle-ci : le Soleil. Il est parfois agité de grosses éruptions, des tempêtes solaires envoyant une grande quantité de particules dans l’espace et provoquant des orages électromagnétiques dans 280

L’Univers millefeuille

La transition de phase d’Internet

l’environnement terrestre. Elles peuvent détruire nos infrastructures de télécommunication par des courants électriques induits : liaisons filaires, hertziennes ou satellitaires, ordinateurs utilisés comme routeurs, etc. La dernière éruption de grande ampleur a eu lieu au xixe siècle. À cette époque, elle n’a eu aucune conséquence en dehors de provoquer de belles aurores boréales à toutes les latitudes. Cependant, le même phénomène survenant aujourd’hui mettrait en indisponibilité l’infrastructure des télécommunications pour longtemps, ainsi qu’une partie des installations de distribution de ­l’électricité. Ce risque milite en faveur d’investissements redondants pour assurer la sécurité d’Internet. Qui en supporterait le coût dans un système fondé sur la liberté totale ? Côté Scylla maintenant, le risque réside dans une « fausse bonne solution » consistant à remettre en cause la mutualisation et à laisser chaque opérateur investir en se réservant les nouvelles capacités et en les rendant payantes. Aujourd’hui, les opérateurs de télécom fournissant l’essentiel de la capacité des lignes peuvent à juste titre considérer les diffuseurs de films tels YouTube et Netflix, comme des passagers clandestins profitant intensivement des « tuyaux » sans les payer. Alors, l’idée serait d’introduire une réglementation aboutissant à un Internet à deux vitesses : les gros diffuseurs devraient choisir entre payer pour disposer d’une capacité importante ou bien se contenter du réseau gratuit avec une qualité insuffisante. J’assimile cette « solution » au risque de Scylla, car elle représente aussi une menace pour la toile : perdre la liberté de circulation des messages. Par exemple, un YouTubeur débutant se trouverait coincé entre deux contraintes : soit payer une contribution incompatible avec ses revenus, soit disposer d’une qualité insuffisante sur le net gratuit. Le réseau serait livré aux intérêts financiers et les utilisateurs seraient sollicités en permanence pour des paiements, alors qu’aujourd’hui, ils disposent de tous les services d’Internet moyennant des abonnements modiques. Où en sommes-nous dans ces débats ? Jusqu’à présent, le principe d’égalité des messages a été maintenu vent debout, mais les discussions 281

Partie 3. Nouvelles interprétations et indications sur le futur

restent vives et rien ne garantit que le libéralisme du système puisse assurer sa résilience à long terme. Le piratage et la propagation des virus Une autre source de problèmes requérant des équilibres délicats vient de l’utilisation malfaisante du réseau. Pour paralyser un site, certains le saturent en lui envoyant un très grand nombre de communications à partir de robots. Des hackers réussissent à pénétrer des sites et à accéder à tout ou partie des systèmes informatiques auxquels ils sont reliés. Ainsi, il y a quelques années, certains étaient parvenus à entrer dans les logiciels du Pentagone aux États-Unis. Ils utilisent aussi les sites Internet et la messagerie électronique comme moyen de diffusion des virus. Pour cela, ils développent les botnets (de robot et network) dont le principe est d’asservir votre PC en y logeant un virus. Alors, ils peuvent exploiter votre appareil à votre insu pour diffuser des milliers de spams et pirater votre liste de contacts. Un business lucratif se cache derrière cette pratique. Des millions d’ordinateurs sont infectés. Leurs propriétaires constatent simplement un fonctionnement très ralenti. C’est la première source de diffusion des messages publicitaires non sollicités. Bien évidemment, ces spams totalement illégaux sont facturés aux entreprises voulant en profiter pour leur publicité, à travers différentes sociétés opaques. Toujours dans l’esprit de rapprocher les différents domaines de la physique, de la biologie et de la société, on notera à quel point l’analogie entre virus informatique et biologique est pertinente. Le virus informatique est une chaîne binaire tout à fait comparable à une séquence d’ARN ou d’ADN. Il se propage aussi d’une façon analogue : par contact électronique dans un cas, corporel dans l’autre. En informatique, le traitement antiviral rappelle le vaccin : les programmes antivirus sont dotés d’une bibliothèque de morceaux de séquences suspectes provenant de chaque virus connu. Cela leur permet de reconnaître la présence de cette séquence (un antigène) dans votre 282

L’Univers millefeuille

La transition de phase d’Internet

PC, puis de neutraliser le programme malveillant associé. C’est pourquoi certaines sociétés vendant des antivirus jouent parfois un jeu de pompier pyromane : elles contribuent à l’invention des virus ! Certaines sont discrètement liées aux individus qui les développent. Elles les rémunèrent de façon occulte afin de disposer d’informations utiles sur les nouveaux virus. Face à ces menaces permanentes, on peut encore se demander si un système centralisé serait mieux à même de blinder le réseau contre de telles attaques. Là aussi, il faut trouver un juste équilibre et éviter de placer un gendarme à chaque carrefour dans une ville sous prétexte d’empêcher les incivilités et les accrochages. Aujourd’hui, la première ligne de défense est d’ordre technique : antivirus, pare-feu, recherche des brèches, etc. La seconde est judiciaire. On considère qu’Internet doit vivre avec ses maladies, comme tout écosystème supporte un certain degré de germes et de parasites. Il se forge progressivement un équilibre entre forces malveillantes et mesures de protection, ­c’est-à-dire un système auto-organisé à l’état critique. Chez l’Homme, l’immunité dite adaptative se forme d’une façon analogue : un ensemble de cellules spécialisées cherchent en permanence les intrus. Une fois ceux-ci identifiés, elles développent les anticorps permettant aux cellules tueuses d’intervenir. Sur Internet comme dans notre organisme, la cuirasse et l’obus évoluent quotidiennement, s’organisant spontanément dans un équilibre finement réglé. La liberté des contenus Une autre menace affectant le réseau est le mauvais usage que l’on peut en faire au niveau des contenus : les fake news, les messages incitant à la haine, les interventions frauduleuses lors des élections, les avertissements complotistes, etc. Quand certains me disent être dépités par tant de comportements déviants, je leur dis que cela n’est en rien spécifique à Internet. La situation est la même dans la rue ! Vous y trouverez des gens raisonnables et des fous, de bons conducteurs et des chauffards, vous y entendrez des rumeurs souvent fausses. 283

Partie 3. Nouvelles interprétations et indications sur le futur

Néanmoins, vous aurez beaucoup de plaisir à vous y promener, à condition de rester vigilant face aux pickpockets, aux agresseurs et aux bonimenteurs. La proportion d’agents malintentionnés est la même partout. Comment peut-on limiter ces usages malveillants ? Aujourd’hui, dans le monde libre, on n’en impute pas la responsabilité aux opérateurs de télécom, dont la mission se limite à transmettre des chaînes de bits. La tendance est plutôt de demander aux opérateurs des réseaux sociaux (Facebook, Twitter, etc.) d’instaurer des contrôles. Ils mettent en place une surveillance par des robots capables de reconnaître des mots-clés ou des images caractéristiques. L’efficacité de ces mesures reste douteuse. On a vu Facebook et Twitter relayer pendant des années la logorrhée quotidienne du président Donald Trump, pour finir par bloquer son compte à la fin de son mandat. Difficile de trouver un point d’équilibre ! Dans les États dirigistes restreignant des libertés, on n’hésite pas à mettre sous contrôle les opérateurs de télécom et à imposer de fortes contraintes aux réseaux sociaux pour les museler ou les encourager à se retirer du pays. En France, les volontés de régulation restent vivaces. Pour certains, les États-Unis ont la main mise sur Internet. Pourtant, il faut relativiser ce jugement : il fonctionne de façon autonome, sans intervention étatique. En revanche, les grands acteurs, les GAFAM, tous américains, jouissent d’une position oligopolistique. Avec l’avènement de grands projets tel Starlink (Elon Musk) visant à donner l’accès au réseau à l’ensemble de la planète grâce à des milliers de satellites, les politiques restrictives de liberté auront du mal à tenir dans la durée. Dans les années 1980, en commençant à circuler à travers le monde, j’avais remarqué que l’on recevait partout la chaîne de télévision américaine CNN par satellite. Ce constat m’avait conduit à entrevoir la chute des régimes communistes, car je ne voyais pas comment les pays fonctionnant ainsi, parviendraient à maintenir leur population dans un état de désinformation sur ce qu’était le monde autour d’eux. 284

L’Univers millefeuille

La transition de phase d’Internet

En résumé, en partant d’un concept de départ très simple et technique, Internet atteint la complexité d’un organisme vivant ou d’un écosystème. Il devient virtuellement impossible de chercher à diriger un tel ensemble émergent autrement que de manière homéopathique. Nous sommes condamnés à faire confiance à ce réseau fortement auto-organisé, fonctionnant lui-même au sein d’une société tout aussi auto-organisée. Par analogie, imaginerait-on réglementer et contrôler les 40 000 milliards de bactéries (un millier d’espèces) qui peuplent notre intestin, nous aident à digérer et nous protègent des germes agressifs ? Certes, la médecine trouvera les moyens de mieux équilibrer le microbiote dans les cas le nécessitant, cependant, nous ne pourrons jamais remettre en cause l’existence et l’autonomie de cette colonie vivante de micro-organismes qui, depuis 500 millions d’années, fonctionne comme un système auto-organisé en symbiose avec chaque être multicellulaire. La situation dominante des GAFAM Un quatrième exemple d’ajustement entre Charybde et Scylla concerne l’éventuel démantèlement des GAFAM. Leur puissance se déployant de façon exponentielle, en effraie plus d’un. En France, les voix protectionnistes nous poussent à les critiquer, à nous en protéger et à les taxer. Une réflexion plus productive consisterait à se demander pourquoi l’innovation se développe beaucoup plus facilement aux États-Unis qu’en Europe. Au niveau technique, notre pays dispose de tous les cerveaux nécessaires pour créer de nouveaux services Internet, mais trop souvent, ils vont se localiser outre-Atlantique où ils disposent d’un écosystème plus favorable et où ils collectent plus facilement des capitaux. Le mouvement contre les GAFAM n’est pas une exclusivité européenne : curieusement, nous le retrouvons aussi aux États-Unis. Par définition, le régime libéral et capitaliste américain favorise le lancement de toutes sortes d’innovations fortement alimentées en capital. Cependant, cela s’assortit aussi d’une réglementation sévère de la 285

Partie 3. Nouvelles interprétations et indications sur le futur

concurrence. Si Google ou Facebook abuse de sa position dominante, il tombe sous le coup des législations antitrust. Les directions de ces sociétés le savent, aussi prennent-elles beaucoup de précautions pour ne pas se faire accuser de cartellisation. Néanmoins, les faits sont là : il est bien difficile pour un petit concurrent de se tailler une part du gâteau face à de tels géants. D’ailleurs, si jamais il y parvient, il est rapidement acheté par l’un des grands, souhaitant s’approprier l’innovation et éviter de voir prospérer un concurrent potentiel. Face à cela, l’administration et la justice américaines tiennent les GAFAM dans leur collimateur. Il est probable qu’un jour, elles leur imposeront un éclatement en plusieurs sociétés plus petites. En conclusion, Internet se développe de façon auto-organisée à la frange entre le chaos et l’ordre. Sous l’action de toutes les parties prenantes, le curseur oscillera toujours entre les tendances antagonistes. Nul ne peut prévoir combien de temps cet équilibre sera maintenu, mais après tout, il n’y a rien de nouveau : toute notre société fonctionne comme cela ! UNE ENTROPIE COÛTEUSE On a longtemps pensé que le traitement de l’information n’était pas consommateur d’énergie, au moins en théorie. Pourtant, l’ensemble de l’Univers est animé par l’entropie et la numérisation n’y échappe pas : nous allons voir qu’il est impossible de créer de l’information ou de la transmettre sans dégager de la chaleur. À ce sujet, une ambiguïté était née à la fin du xixe siècle avec le démon de Maxwell. Le savant avait imaginé un paradoxe supposé remettre en question le deuxième principe. Son expérience de pensée (figure 41) consistait à séparer en deux un réservoir de gaz initialement en équilibre thermique. Entre les deux volumes, la cloison était percée d’un petit trou que les molécules pouvaient traverser dans un sens ou dans l’autre. Maxwell avait imaginé un petit démon microscopique capable de contrôler le passage du gaz par cet orifice et de trier les molécules : il laissait passer les plus rapides (chaudes) 286

L’Univers millefeuille

La transition de phase d’Internet

dans un sens et les plus lentes (froides) dans le sens inverse. Ainsi, au bout d’un moment, l’un des deux volumes devait être chaud et l’autre froid. Il s’agissait d’une infraction totale au deuxième principe qui, à l’inverse, prédit l’égalisation systématique des températures. Selon Maxwell, le démon ne faisait que traiter de l’information sans effectuer de travail physique. Il devait donc créer de l’ordre gratuitement et réduire l’entropie, contrairement à la théorie.

Figure 41 | Le démon de Maxwell semblait contrevenir au deuxième principe de la thermodynamique en triant les molécules rapides et les lentes.

Ce paradoxe a fait l’objet de nombreuses études et publications. En 1929, Leó Szilárd a apporté une contribution majeure : si un tel démon existait, il aurait besoin d’énergie libre pour connaître les vitesses des molécules et pour les trier. Ce travail n’aurait donc rien de gratuit et il se paierait d’une certaine entropie. Le physicien est parvenu à la calculer. Au bout du compte, le démon réduisait bien l’entropie en créant de l’ordre, mais au prix d’une entropie supplémentaire encore plus élevée. L’honneur était sauf et le deuxième principe aussi ! Depuis cela, on a construit expérimentalement des équivalents du démon de Maxwell. Ces expériences ont toutes confirmé l’accroissement de l’entropie. Dans le prolongement des travaux de Szilárd, en 1961, Rolf Landauer a montré que, plus fondamentalement, tout traitement 287

Partie 3. Nouvelles interprétations et indications sur le futur

d’information (irréversible) créait de l’entropie. Ce résultat d’une grande portée laisse penser que l’information est physique. Dans cet ouvrage, nous citons plusieurs fois les expériences menées par simulation informatique (le « complexoscope ») et nous posons la question : est-ce de la vraie science ? La découverte de Landauer est un indice allant dans ce sens : oui, l’information pure est à ranger dans les phénomènes physiques, car, comme eux, elle engendre inévitablement de l’entropie. Si nous revenons maintenant à Internet et à l’économie numérique, il faut bien prendre en compte son coût en termes d’entropie et, donc, de réchauffement climatique. Nous avons vu qu’un ordinateur fonctionne en forçant le passage des électrons à travers un ensemble de fils et de portes logiques. Il part d’une énergie électrique faiblement entropique, puis il canalise les électrons dans des millions de circuits jusqu’à l’obtention d’un résultat. Ce processus dégage beaucoup de chaleur. C’est une des raisons pour lesquelles les constructeurs de semi-conducteurs visent sans cesse la miniaturisation. Il leur faut toujours minimiser le dégagement de chaleur en raccourcissant au maximum le cheminement des électrons. En voici un exemple frappant. À l’époque où je dirigeais SONY France, nous disposions d’un gros ordinateur. Un samedi matin, je reçois un appel d’IBM m’informant d’une surchauffe importante ayant provoqué l’arrêt de l’appareil. Les techniciens me disent faire leur possible pour le réparer à distance pendant le week-end, sans être sûrs d’y parvenir. Le risque est de démarrer le lundi matin avec les systèmes informatiques à l’arrêt, c’est-à-dire dans une situation virtuelle de chômage technique ! Deux heures plus tard, ils n’ont pas trouvé l’origine de la panne et connectent l’appareil à l’usine de Montpellier spécialisée dans ce type de machine. Le soir, nouveau coup de fil pour m’informer que la panne persiste et pour me demander l’autorisation d’aller voir sur place. Enfin, le dimanche matin, je reçois le dernier appel : « Votre ordinateur est de nouveau en état. Un nid d’oiseau était tombé dans le conduit d’évacuation des calories. » 288

L’Univers millefeuille

La transition de phase d’Internet

La dissipation de chaleur est un des problèmes majeurs de ­l’informatique. Dans un microprocesseur, où la densité de transistors est gigantesque, le flux calorifique est de 100 watts par centimètre carré de silicium, c’est-à-dire plus que celui reçu par le bouclier d’un satellite rentrant dans l’atmosphère. Aujourd’hui, Internet et l’informatique dissipent environ 4 à 5 % de l’électricité consommée par la société, avec un doublement tous les 4 ans. Un exemple caricatural nous est apporté par le Bitcoin. Comme Internet, cette monnaie électronique est née d’un algorithme destiné à fonctionner de manière autonome, sans chef d’orchestre ni arbitre. Son logiciel est l’analogue du petit livre de 150 pages définissant la toile. Une fois l’algorithme et les règles de fonctionnement créés, des volontaires ont construit progressivement un réseau auquel les usagers ont pu se connecter partout dans le monde pour échanger de l’argent. Ces acteurs, les mineurs, doivent effectuer de gros calculs pour valider chaque transaction et l’enregistrer dans un grand registre mondial partagé. Ce travail, tout à fait artificiel, a été conçu comme le prix à payer pour barrer la route aux hackers. Dès le départ, le système a prévu une rémunération pour les mineurs qui doivent disposer de grosses capacités de calcul : ils « se paient sur la bête ». En effet, chaque opération de minage réussie crée de nouveaux Bitcoins à leur bénéfice. Au total, la cryptomonnaie est particulièrement ingénieuse et, malgré toutes les critiques formulées à son encontre, nous pouvons dire qu’elle fonctionne très bien grâce à l’intelligence des règles édictées au départ. Cependant, un grave problème se pose aujourd’hui, mal évalué par les créateurs de la monnaie : le travail très lourd du minage est extrêmement énergivore. Certes, il décourage les hackers, mais son impact écologique est déraisonnable. Désormais, nous saisissons la nature thermodynamique de cette barrière consistant à dissiper une énorme entropie dans de très gros centres de calcul. Une transaction de Bitcoin consomme 25 fois plus d’énergie qu’un virement bancaire. En 2017, la devise dissipait déjà autant d’électricité sur Terre que 289

Partie 3. Nouvelles interprétations et indications sur le futur

la population suisse. De surcroît, le protocole prévoit qu’au fur et à mesure que la technologie permet d’accélérer les calculs, ceux-ci deviennent automatiquement plus complexes pour conserver une barrière élevée. Combien de temps notre société pourra-t-elle tolérer un tel gaspillage ? D’autres cryptomonnaies prendront probablement le pas sur le Bitcoin en proposant des algorithmes moins énergivores. INTERNET, UN GIGANTESQUE CATALYSEUR Nous avons dit que l’imprimerie inventée par Gutenberg avait joué le rôle d’un formidable catalyseur pour la culture : en soi, un livre ne produit rien, mais sa transmission aisée facilite l’activité humaine en permettant le stockage et la diffusion du savoir. Toute notre culture est catalysée par le corpus de l’information livresque qui, désormais, se transfère progressivement vers Internet. Avec la numérisation, une forme universelle de catalyse se généralise. Par exemple, l’achat d’un objet en ligne est catalysé par un site marchand. Ce dernier ne produit et ne transforme rien. Il se limite à faciliter l’acte d’achat. Il vous rapproche du vendeur et il simplifie le contrat, la livraison et le paiement. En préparant ce livre, j’ai souvent utilisé Internet pour me renseigner sur différents sujets, pour communiquer mon manuscrit aux éditeurs, et, aujourd’hui, pour en assurer la promotion grâce aux réseaux sociaux et à une chaîne Youtube53. Dans tout ce travail, Internet n’a rien produit. J’ai simplement utilisé ses vertus catalytiques pour être plus efficace et plus rapide. Je n’ai rien fait de nouveau par rapport aux écrivains de l’époque de Gutenberg : je l’ai simplement fait plus vite. De même que la mécanisation au xixe siècle a considérablement développé la productivité de l’industrie, Internet catalyse toutes les activités humaines. Aujourd’hui, dans les entreprises, la mode est à la transformation numérique. Toutes leurs fonctions sont considérées comme profondément perfectibles par la numérisation. Finissons par une remarque intéressante : Internet est sujet luimême à l’autocatalyse. Tout nouveau service favorise l’éclosion 53. https://www.youtube.com/channel/UCpi_YxWjLuaHtRjSW06GobQ 290

L’Univers millefeuille

La transition de phase d’Internet

d’autres services par fertilisation croisée. Par exemple, la géolocalisation permet aux particuliers de se guider, mais aussi aux restaurants de trouver des clients. Si nous analysons bien le modèle d’affaires de Google ou de Facebook, nous découvrons qu’il repose sur une double catalyse croisée (figure 42). D’un côté, ces entreprises nous facilitent la vie par des services gratuits, une première forme de catalyse : accès facile à l’information, géolocalisation, communication avec ses proches. De l’autre, elles captent des données sur notre comportement et les revendent aux entreprises pour une autre forme de catalyse : permettre aux publicitaires de mieux cibler la clientèle. La première catalyse est gratuite et la seconde engendre le chiffre d’affaires.

Figure 42 | Le modèle d’affaires des réseaux sociaux est fondé sur une autocatalyse croisée.

Après le livre au xve siècle, la mécanisation au xixe, la téléphonie au xxe et, plus récemment, Internet, les catalyseurs les plus puissants pénètrent notre société, accélérant à chaque fois son évolution. Le prochain sera certainement l’intelligence artificielle.

291

12 Qu’attendre du futur ?

Est-il raisonnable de terminer ce livre par une vue sur le futur, après avoir dit et répété que la nature était essentiellement imprévisible ? L’incertitude est inscrite dans la science, la notion de possible adjacent provoque sans cesse des échappements imprédictibles, le rôle du hasard prime sur celui des lois physiques, etc. Autant d’arguments rendant la prospective illusoire. Pourtant, je vois deux bonnes raisons de consacrer ce chapitre à l’avenir. En premier, nous avons dit que notre néocortex, comme celui de tous les mammifères, fonctionnait en forgeant des modèles de la réalité, puis en confrontant les situations et les perceptions à ces représentations. Nos réflexions viennent quotidiennement nourrir les modèles que nous forgeons dans notre esprit. Cela nous permet de mieux appréhender ce qui nous arrive ensuite. Difficile donc, d’éviter la question ! En second, le hasard n’est pas souverain : il est encadré par les lois de la nature. Parmi elles, il y a les lois de la physique, mais aussi celles que nous enseignent les sciences de la complexité largement détaillées dans cet ouvrage : les systèmes critiques auto-organisés, l’équilibre entre l’ordre et le chaos, 293

Partie 3. Nouvelles interprétations et indications sur le futur

les transitions de phase et les brisures de symétrie, le possible adjacent et la sélection darwinienne. Toutes ces clés doivent nous aider à comprendre les subtilités du monde et à développer des vues plus pertinentes sur l’avenir. Nous nous risquerons donc à cet exercice, d’abord en parlant du cosmos, puis de la science et, enfin, en abordant ce qui nous concerne tous au premier chef : la société. LE FUTUR DE L’UNIVERS, DU SYSTÈME SOLAIRE ET DE LA TERRE Depuis la prédiction de l’expansion de l’Univers par Lemaître, nous savons qu’il a eu un début et qu’il aura une fin. Il évolue vers la mort thermique, c’est-à-dire le moment où l’entropie atteindra son maximum, conformément au deuxième principe. Bien avant cela, les grandes structures nous permettant de vivre, les étoiles, les planètes et les galaxies, auront disparu, ainsi que la vie. Concrètement, la fin peut revêtir deux formes. La première est un Big Crunch, autrement dit un « Big Bang à l’envers » : le cosmos arrête son expansion, puis il commence à se contracter en devenant de plus en plus chaud. La seconde est une mort froide : il poursuit indéfiniment sa croissance en se refroidissant. Seule certitude : il n’existe pas de schéma intermédiaire où il resterait immuable. Einstein pensait cela possible et avait conçu son modèle dans ce sens. Très rapidement, deux hommes avaient repris ses équations et lui avaient montré que c’était impossible : Alexandre Friedman et Georges Lemaître indépendamment. Entre disparaître dans un brasier ou dans un froid sidéral, quel est le scénario le plus probable ? Depuis 1998, nous savons que l’expansion de l’Univers s’accélère. Comme nous ne voyons pas quel phénomène pourrait renverser cette situation, la pensée dominante est celle du grand froid. Si nous revenons à l’image de la tasse de café au lait vue au chapitre 3, le cosmos devrait continuer à engendrer des structures complexes telles les étoiles et les galaxies pendant quelques dizaines de milliards d’années, puis s’appauvrir progressivement au fur et à 294

L’Univers millefeuille

Qu’attendre du futur ?

mesure qu’elles perdront leur énergie en dissipant de la chaleur dans le froid sidéral. Il est un scénario plus catastrophique, partant d’une idée purement théorique, que nous ne pouvons exclure. L’astrophysicien Lawrence Krauss54 a donné un schéma possible pour l’émergence du cosmos à partir de rien ou presque : un seul champ dit de Higgs. En évoluant d’une valeur à une autre, il aurait déclenché l’inflation des débuts et la création des particules. Si pour une raison inconnue, ce champ venait à se modifier de nouveau, l’Univers entier se détruirait instantanément aussi vite qu’il s’est créé. S’il est possible que le Big Bang soit une transition de phase déclenchée par une variation de ce champ, nous ne pouvons pas écarter l’idée d’une nouvelle transition du même type, faisant tout disparaître : matière et forces. À la grande question « Pourquoi existe-t-il quelque chose plutôt que rien ? », Krauss répond : « Il y a quelque chose, mais pas pour longtemps. » Qu’en est-il du Système solaire ? Dans quelque 5 milliards d ­ ’années, le Soleil commencera sa transformation en géante rouge, une étape précédant son explosion finale. Cependant, la Terre sera devenue inhabitable bien avant, car la luminosité de notre étoile est d’ores et déjà en croissance régulière de 7 % par milliard d’années. Cela limite notre horizon à environ un milliard d’années. Un tel horizon peut prêter à rire quand nous voyons à quelle vitesse nous détruisons notre planète aujourd’hui. Selon les nombreuses études sur le climat, nous pouvons douter que le confort de vie auquel nous sommes habitués puisse être garanti au-delà de la fin du siècle. Une consommation énergétique excessive, appuyée sur le recours inconsidéré aux énergies fossiles, nous place dans une situation rappelant celle de la catastrophe de l’oxygène évoquée au chapitre 2 : par la photosynthèse, les bactéries produisaient tant d’oxygène, qu’elles s’étouffaient avec ce gaz toxique pour elles. Cet évènement avait radicalement transformé le milieu terrestre chimiquement, le faisant passer de réducteur à oxydant. Un emballement de l’effet de 54.  A Universe for Nothing. L. Krauss. 2012. 295

Partie 3. Nouvelles interprétations et indications sur le futur

serre aurait sur la planète, des conséquences aussi dramatiques et bien plus rapides. Les bactéries avaient surmonté la difficulté, mais rien ne dit que l’humanité y parviendra à son tour. Une transition de phase s’est produite quand l’activité humaine a dépassé un seuil : le point où son impact sur l’environnement devenait sensible au niveau global. Il a été franchi par ma génération. Je me souviens très bien qu’à l’époque de mon enfance, les pêcheurs rejetaient toutes leurs ordures à la mer, partant du principe que l’océan était si grand que cela n’aurait aucune importance. Aujourd’hui, nous voyons avec effroi se former au milieu de ­l’Atlantique et du Pacifique des continents de plastique dont la superficie atteint des millions de kilomètres carrés. Comme toutes les transitions de phase, celle-ci a gagné rapidement l’intégralité de la surface terrestre. Face à un phénomène aussi radical, l’enjeu sera la vitesse avec laquelle nous pourrons prendre des contre-mesures. Il semble difficile de faire machine arrière quant à nos besoins énergétiques, surtout si nous pensons aux milliards d’individus vivant dans le plus grand dénuement et aspirant naturellement au confort de vie des peuples favorisés. Si nous sommes condamnés à produire de plus en plus d’entropie, alors il nous faudrait au moins être capables d’en compenser les effets en agissant directement sur l’environnement : par exemple en enfouissant du carbone, ou bien en jouant sur les nuages pour augmenter la réflexion lumineuse de la Terre et donc ajuster sa température. Nul doute que des moyens techno­ logiques seront développés dans ce sens, mais nous nous heurterons à un autre problème : notre planète fonctionne comme un immense système auto-adaptatif complexe extrêmement difficile à décrypter. Le nombre de boucles de réaction ou de contre-réaction existant entre tous les éléments de la lithosphère, de l’aquasphère, de l’atmosphère et de la biosphère est tel que nous n’en comprendrons peut-être jamais le fonctionnement global. Alors, les actions volontaristes que nous imaginerons pour restaurer un climat favorable s’avèreront peut-être contre-productives. Il nous faudrait certainement bien plus 296

L’Univers millefeuille

Qu’attendre du futur ?

de temps pour appréhender toute la subtilité de Gaïa, l’écosystème terrestre, que pour en dérégler les rouages. LE FUTUR DE LA SCIENCE « Et comme, en dépit de nos fantastiques instruments, nous ne disposerons jamais d’une information complète à propos du monde, notre vision de la réalité sera toujours limitée. Nous serons toujours tel un poisson dans un bocal, même si notre bocal grandit tout le temps. » Marcelo Gleiser, physicien brésilien

Plusieurs fois, nous avons évoqué la nécessité de nouvelles sciences plus adaptées à la compréhension des phénomènes complexes. Ce changement de paradigme est déjà largement amorcé. L’essentiel de la physique du xxe siècle a reposé sur l’approche réductionniste en cherchant systématiquement à asseoir les raisonnements sur l’élémentaire : les particules, les champs. Cette approche a été remarquablement productive et le restera probablement. Cependant, plus le temps passe depuis les pionniers des années 1910–1920, plus il devient criant que son pouvoir reste limité face à la complexité de tout ce que nous observons à notre échelle et, a fortiori, à celle des galaxies ou du cosmos. Les équations de Newton, d’Einstein et de Schrödinger ne résolvent qu’une classe infime de problèmes en comparaison de la variété infinie de ces systèmes. Pour cette raison, la physique a commencé à emprunter aussi le chemin inverse : du microscopique vers le macroscopique. Là, elle bute inévitablement sur les phénomènes émergents et sur la complexité, amplement illustrés dans ces lignes. La science émergente du xxie sera émergentiste ! Dans les décennies à venir, il est à souhaiter que la physique réductionniste soit couronnée par la découverte d’une théorie du tout unifiant la mécanique quantique et la relativité générale. Cependant, comme nous l’avons déjà dit, quand bien même elle apparaîtrait un jour, elle serait « tout sauf une théorie du tout », car elle ne resterait 297

Partie 3. Nouvelles interprétations et indications sur le futur

effective que dans les très petites dimensions, l’une des strates du millefeuille. L’astrophysicien Marcelo Gleiser a exprimé cette opinion de façon très claire55 : « Il n’y a pas d’unification ultime à atteindre, seulement de meilleurs modèles décrivant la réalité physique que nous pouvons mesurer. Et si nous améliorons nos outils et augmentons nos connaissances, nous élargissons la base de notre ignorance : plus loin nous pouvons voir, plus il y a à voir. Il est donc impossible d’envisager un point de l’histoire où nous connaîtrons tout ce qu’il y a à connaître. L’incertitude de la connaissance est aussi permanente que l’incertitude quantique. Aussi difficile qu’elle soit à accepter, c’est une limitation fondamentale de la compréhension humaine. Seule notre vanité intellectuelle nous empêche de l’admettre et de dépasser ce stade. La science ne sera pas diminuée dans sa tâche grandiose d’expliquer le monde, si elle n’a pas de rêve d’unification pour la guider. » Nous retrouvons l’opinion de Feynman, cité au début de cet ouvrage : s’il n’existe pas de théorie du tout, alors il faudra se résoudre à étudier toutes les strates d’un Univers en forme d’oignon. J’espère qu’à travers les chapitres passés, vous avez conçu à quel point cette démarche était intéressante et fructueuse. Il est enthousiasmant de savoir que, pour étudier les multiples strates du monde, le travail du physicien est infini et qu’il n’aura pas à s’ennuyer dans cet exercice. Nous pouvons aller plus loin et forger une véritable philosophie de l’Univers millefeuille fondée sur notre admiration devant toute la complexité qui s’auto-organise sous nos yeux. Le physicien Paul Davies56 en donne un exemple en parlant de la recherche de la vie dans le cosmos. Selon lui, ce sujet met en opposition deux philosophies différentes : « La recherche de la vie ailleurs dans l’Univers représente bien un test pour départager deux visions du monde radicalement opposées. D’un côté, celle de la science orthodoxe, avec sa philosophie nihiliste qui ne donne aucun sens à l’univers, lui attribue 55.  L’univers imparfait : Aux origines du temps, de la matière et de la vie. M. Gleiser. 2011. 56.  The Fifth Miracle. P. Davies. 1998. 298

L’Univers millefeuille

Qu’attendre du futur ?

des lois impersonnelles dénuées de finalité et ne voit en la vie, l’esprit, la science et l’art, l’espoir et la crainte, que des ornements apparus par un heureux hasard sur la grande tapisserie d’un cosmos en décomposition irréversible. De l’autre côté, une vision alternative, indéniablement romantique, mais pas fausse pour autant : la vision d’un univers qui s’auto-organise et s’auto-complexifie, gouverné par des lois ingénieuses qui encouragent la matière à évoluer vers la vie et la conscience. Un univers dans lequel l’émergence d’êtres pensants est une partie intégrante et fondamentale du schéma d’ensemble de ce qui existe. Un univers dans lequel nous ne sommes pas seuls. » La rétrospective de tous les thèmes présentés précédemment permet de se faire une idée des grandes directions prises par les nouvelles disciplines. Commençons par l’équilibre entre sciences théoriques et expérimentales. L’illusion newtonienne a développé l’idée que tout pourrait se décrire par des équations différentielles. Il nous faudra souvent abandonner cette idée et chercher plutôt des relations empiriques, comme nous le faisons dans des disciplines plus « soft » telles la biologie, la psychologie, l’écologie, etc. Cela peut ressembler à un renoncement dans la quête du savoir, mais il ne faut pas le voir ainsi. Certes, une telle physique sera moins prédictive, mais elle a des chances d’être plus explicative. Elle nous donnera accès à une meilleure compréhension des systèmes complexes, même si nous ne pouvons pas toujours prévoir leur évolution avec exactitude. Un bon exemple est l’écologie, objet d’intenses recherches aujourd’hui. Nous découvrons chaque jour de nouveaux aspects qualitatifs du fonctionnement de Gaïa. En revanche, les prévisions quantitatives sur le réchauffement climatique, le taux de gaz carbonique ou l’élévation du niveau des mers restent au mieux indicatives. Il est probable que ce siècle ne connaisse plus une seule physique, mais une pluralité s’adaptant aux différentes strates du millefeuille ou à des sujets précis sur lesquels nous souhaitons mettre le projecteur. Pour l’étudiant, il deviendra de plus en plus difficile d’en couvrir toutes les facettes, mais après tout, n’est-ce pas déjà le cas en bio­logie ? 299

Partie 3. Nouvelles interprétations et indications sur le futur

Qui peut prétendre maîtriser aussi bien la génétique, le système immunitaire, le métabolisme, le repliement des protéines, l’écologie de la biosphère, etc. ? Dans une science évoluant vers l’empirisme, l’outil essentiel est devenu la simulation numérique, déjà évoquée sous le surnom de « complexoscope ». Elle est utilisée depuis longtemps en météorologie : on décompose l’atmosphère en petits cubes imaginaires, dotés d’une vitesse, d’une pression, d’une température et d’un degré hygrométrique que l’on a mesurés, puis on simule par ordinateur l’évolution de chaque cellule en appliquant les lois physiques. Cette tâche repose sur les plus gros calculateurs de la planète. Ils donnent des prévisions fiables, mais limitées à quelques jours. Un autre exemple de la simulation numérique est celui des galaxies : nous n’avons vraiment compris leur formation, leur évolution, leurs collisions, etc., que le jour où nous avons pu entrer dans l’ordinateur, d’importantes collections d’étoiles fictives et observer leur comportement collectif sous l’action de la gravitation. Au niveau de la physique théorique pure, il semble que l’avenir soit aux théories relationnelles. De quoi s’agit-il ? Depuis l’époque où Descartes nous a montré comment décrire les objets dans un système de coordonnées, cette approche a guidé toutes les théories classiques et quantiques jusqu’à aujourd’hui. On les qualifie de dépendantes du cadre, car pour les formuler, on doit commencer par dresser une scène de théâtre imaginaire, formée d’axes et de coordonnées, pour ensuite y placer les objets à étudier. Cette idée du cadre a été particulièrement fertile. Au départ, l’espace considéré était celui des trois dimensions, devenu l’espace absolu de Newton. Plus tard, on a étendu l’idée à des espaces présentant plus de dimensions et de plus en plus abstraits : l’espace de configuration d’un système dynamique (évoqué au chapitre 5) pouvant atteindre des dizaines de dimensions, l’espace-temps de Minkowski en relativité, les espaces abstraits de la mécanique quantique (espaces de Hilbert, de Fock, espaces fibrés, etc.), sans parler de l’espace à 11 dimensions de la théorie des cordes. Dans 300

L’Univers millefeuille

Qu’attendre du futur ?

tous ces cas, on décrit des objets par leurs coordonnées. Cependant, nous voyons aujourd’hui les limites de cette approche. Dans beaucoup de cas, les objets eux-mêmes (la substance) sont moins importants que leurs relations. Leibniz le pressentait et contestait l’espace et le temps absolus de Newton. Par analogie, nous pourrions nous demander ce qui est le plus important dans une société : les hommes eux-mêmes ou bien leurs relations ? Il n’existe pas de « société vide et préexistante » dans laquelle les êtres humains viendraient se placer et évoluer. Tout ce qu’un individu fait se comprend par rapport aux autres. Nous avons commencé à ressentir ce problème avec la relativité générale. Elle a montré comment chaque masse influençait les voisines, dans un cadre d’espace-temps devenu malléable. Certaines théories émergentes sur la gravitation et la mécanique quantique reprennent ces idées : ne pas fixer de cadre abstrait préexistant (indépendance du cadre) et décrire les objets par leurs relations. Facile à dire, mais moins à faire : il semble que nous ne disposions pas encore des outils mathématiques nécessaires. Il faudra peut-être attendre qu’un Newton, un Riemann ou un Dirac, construise le formalisme ad hoc pour y parvenir. Dans les sciences futures, la notion d’échelle prendra une importance accrue. Nous pouvons concevoir qu’il apparaîtra un jour une loi fondamentale traitant de la façon dont elles se hiérarchisent. Nous en avons eu un avant-goût avec la relativité d’échelle de l’astrophysicien Laurent Nottale, formulée en 1979. Cette théorie particulièrement ingénieuse vise à appliquer des équations proches de celles de la relativité restreinte, non pas à l’espace-temps, mais aux échelles ! Pour en comprendre l’importance, revenons à la notion de fractale (un objet indéfiniment divisé) vue au premier chapitre. Nous avions dit qu’il était impossible de définir la longueur de la côte bretonne dans l’absolu : elle dépend de la résolution, c’est-à-dire du fait d’être mesurée au millimètre près, au mètre près, au kilomètre près, etc. Ainsi, la longueur d’un tel objet fractal ne peut pas s’exprimer comme un nombre, mais comme une fonction de l’échelle ! Notalle généralise 301

Partie 3. Nouvelles interprétations et indications sur le futur

cette idée en introduisant systématiquement l’échelle dans les coordonnées, les variables et les équations. Il énonce aussi un principe de relativité d’échelle : « les lois de la nature doivent être identiques quelle que soit l’échelle. » Cette théorie, ou d’autres s’en inspirant, devraient mieux rendre compte de l’Univers millefeuille. Dans le monde, nous avons vu de très nombreux objets fractals (un nuage, un arbre, un poumon, etc.), c’est-à-dire des formes se divisant ou se multipliant dans des échelles. L’Univers lui-même en est un. Il s’organise en structures complexes s’emboîtant à tous les niveaux : ceux de l’atome, des planètes, des galaxies et peut-être d’autres, supérieurs ou inférieurs, auxquels nous n’avons pas accès. Cela inspirera certains théoriciens. De même que nous avons sauté d’échelle en échelle tout au long de ces lignes, la science intégrera probablement cette notion dans des théories à venir. Une autre évolution largement décrite dans cet ouvrage est l’appel aux règles de l’auto-organisation  : l’émergence de phénomènes à la frange entre l’ordre et le chaos, les transitions de phase et leurs brisures de symétrie, l’échappement dans le possible adjacent, la catalyse et l’autocatalyse, la sélection naturelle. Depuis les années 1990, ces différents concepts ont été découverts et illustrés sur de très nombreux exemples, mais ils n’ont pas encore fait l’objet de théories mathématiques exhaustives, probablement pour ne pas avoir été suffisamment pris au sérieux dans une communauté savante encore très attachée au réductionnisme. Pourtant, selon le biophysicien Harold Morowitz, spécialiste de l’origine de la vie, l’émergence des sciences de la complexité dans les années 1980 est une révolution conceptuelle comparable à celle du langage ou des mathématiques. Il est à prévoir que des théoriciens s’y consacreront en embrassant les différentes strates du millefeuille. Ce faisant, ils établiront des ponts solides entre les échelles et ils trouveront des fondements théoriques plus élaborés aux sciences de la complexité. Ils apporteront peut-être des vues originales unifiant la physique et la biologie, des disciplines restant toujours très éloignées. 302

L’Univers millefeuille

Qu’attendre du futur ?

Aujourd’hui, ces nouvelles sciences sont souvent reléguées au rang d’outils heuristiques pour attaquer les problèmes où les disciplines classiques échouent. Nous ne pouvons encore prédire si elles acquerront une valeur plus quantitative et prédictive, ou bien si elles se limiteront à des descriptions, des analogies, des graphiques, des corrélations, etc. Néanmoins, il est sûr qu’elles prendront une importance croissante. Une autre tendance récente consiste à donner à l’information un statut analogue à celui d’une grandeur physique. Nous en avons vu des exemples. Les simulations du vivant par Kauffman (autocatalyse, différenciation cellulaire, cerveau, écosystèmes) ont été critiquées pour ne pas être de la vraie biologie. On les a qualifiées de « sciences en dehors des faits ». Pourtant, elles ont mis en évidence des mécanismes essentiels de la vie. On peut y voir une nouvelle discipline qui ne porte pas exclusivement sur l’espace-temps et l’énergie, mais sur autre chose : l’information pure et immatérielle. Elle est appropriée pour étudier le comportement statistique de grandes collectivités d’objets souvent organisés en réseaux richement connectés, qu’il s’agisse de galaxies, de molécules, de cellules, d’êtres vivants ou d’écosystèmes. Si l’Univers est structuré en quatre jeux de Lego emboîtés formant une combinatoire, nous pressentons bien que l’essentiel est de comprendre comment tous ces éléments se combinent pour fabriquer de l’information. Nous avons aussi vu le lien fondamental existant entre celle-ci et l’entropie, le véritable moteur du cosmos. Aujourd’hui, la notion d’information est devenue prépondérante dans le fonctionnement du génome, de la cellule, des écosystèmes, du cerveau et des sociétés. Elle demande encore à être mieux précisée sur un plan théorique, mais nous sentons bien qu’elle jouera probablement un rôle central à l’avenir. LA SCIENCE ET L’INTELLIGENCE ARTIFICIELLE Il est difficile de terminer ce tableau sans évoquer l’entrée bruyante que l’intelligence artificielle fera bientôt dans les sciences. Nous 303

Partie 3. Nouvelles interprétations et indications sur le futur

anticipons deux progrès majeurs. Le premier concerne le traitement des immenses bases de données accumulées par certaines expériences, qui dépasse les capacités humaines. Le second est plus fondamental : l’IA pourra servir à découvrir les lois de la nature. En raison de la sophistication croissante des instruments de mesure, la physique est de plus en plus confrontée à un défi : rechercher des observations signifiantes à travers un immense fouillis de données, en un mot, « chercher une aiguille dans une botte de foin ». L’accélérateur de particules du LHC à Genève a déjà été confronté à ce problème, car il enregistre chaque seconde des milliards d’observations. Pour les traiter, il a fallu créer un réseau d’ordinateurs distribué sur deux cents sites dans le monde, en faisant aussi appel aux particuliers pour qu’ils mettent leurs PC à disposition la nuit. Aujourd’hui, un défi encore plus grand se dessine avec l’Observatoire Vera Rubin en construction au Chili. Ce télescope prochainement opérationnel enregistrera des observations sur 20 millions d’objets célestes, avec la capacité de les comparer dans le temps. En d’autres termes, il fera du cinéma, là où les autres instruments font de la photographie. De plus, il verra l’Univers en trois dimensions, en distinguant les différentes distances (ou époques). Il engendrera quatre fois plus de données que le LHC, parmi lesquelles, il s’agira de rechercher des corrélations, des effets de la matière noire, des trous noirs et toutes sortes de phénomènes. Comment extraire des pépites des immenses bases de données qu’il stockera ? Il faudra utiliser l’IA, très efficace et rapide pour cela. Les mêmes besoins se retrouvent en biologie quand il s’agit de rechercher des bactéries, des virus, des mutations, des protéines au sein de cultures ou de populations. Nous avons vu à quel point les interactions entre le génome et l’organisme étaient complexes. L’IA permettra d’identifier ce qui a un sens dans ce labyrinthe infini. Et si le rôle de l’IA allait bien plus loin que rechercher des aiguilles dans des bottes de foin ? En physique théorique, la mission fondamentale du physicien est de trouver des régularités dans le chaos environnant et d’en dégager des invariants, ou mieux, des lois naturelles. Pour 304

L’Univers millefeuille

Qu’attendre du futur ?

illustrer ce point, voici une analogie : si l’on filmait plusieurs parties d’échecs pour les montrer à un physicien ignorant ce jeu, il lui suffirait de quelques heures d’observation et d’une réflexion attentive pour en trouver les règles. Si l’on définit le métier du scientifique comme la recherche des régularités, des invariants et des lois physiques qui soustendent les phénomènes, il se trouve que l’IA pourrait bien exceller dans un tel exercice. Une expérience récente a démontré ce pouvoir étonnant. Elle est un peu longue à décrire, mais sa valeur symbolique mérite que l’on s’y attarde un peu. Elle concerne le Système solaire. Une IA a trouvé par elle-même le modèle héliocentrique. Avant Copernic, les astronomes étaient confrontés à une difficulté pour comprendre le mouvement des planètes. En effet, le dogme selon lequel la Terre et l’humanité se trouvaient au centre de l’Univers imposait que toutes les planètes tournent autour de la Terre et non du Soleil. Cette idée était renforcée par le fait qu’elles semblaient se déplacer sur une sphère, la voûte céleste. Ce modèle géocentrique expliquait difficilement les mouvements rétrogrades des planètes. De quoi s’agit-il ? Si l’on observe Mars depuis la Terre, on la voit se déplacer régulièrement dans le ciel, puis à certains moments de l’année, elle s’arrête et repart en sens contraire quelque temps. Ensuite, elle rebrousse chemin et reprend sa marche vers l’avant. Ces caprices s’expliquent naturellement si l’on dessine les orbites de Mars et de la Terre autour du Soleil et si l’on suit le mouvement des deux astres à des instants successifs. En mesurant sous quel angle Mars apparaît vue depuis le Soleil, on constate une rotation régulière bien évidemment. En revanche, si l’on relève l’angle vu depuis la Terre, on observe qu’à certains moments, la Terre dépasse Mars et celle-ci paraît rétrograder quelque temps avant de repartir de l’avant. En d’autres termes, le système héliocentrique est très simple, alors que le second, géocentrique, explique difficilement ces mouvements rétrogrades. Avant Copernic, on en rendait compte par le modèle complexe des épicycles de Ptolémée (Alexandrie, iie siècle). L’idée était d’attribuer à Mars, non pas une orbite, mais deux se ­combinant : d’une part, un point ­parcourait



305

Partie 3. Nouvelles interprétations et indications sur le futur

… l’orbite principale (autour de la Terre) et, d’autre part, Mars tournait sur une petite orbite autour de ce point (figure 43). Grâce à Copernic, le modèle héliocentrique, bien plus simple et signifiant, s’imposera.

Figure 43 | Les modèles planétaires géocentrique (avec des épicycles) et héliocentrique.

J’insiste sur un fait important : le modèle géocentrique assorti d’épicycles est parfaitement rigoureux, car il reproduit avec précision les observations. Celui de Copernic l’est aussi, mais avec l’avantage d’être bien plus simple et de mieux refléter la réalité profonde des choses. Depuis les astronomes de l’Antiquité, il se sera écoulé quatorze siècles pour que la représentation la plus économique soit reconnue. Nous allons voir qu’il a suffi de quelques heures à une intelligence artificielle pour arriver au même résultat. Dans cette expérience récente, on a soumis à un système d’apprentissage profond (deep learning) un important volume de relevés astronomiques donnant la position de Mars et du Soleil vus de la Terre, sur des années. On s’est soigneusement gardé de lui donner quelque indication que ce soit en dehors de ces données brutes : rien qui puisse évoquer l’idée d’orbites centrées sur tel ou tel astre, rien non plus sur les épicycles de Ptolémée ou les lois de la physique de Kepler et Newton. Seulement les données brutes. On a demandé à cette intelligence artificielle de prévoir la trajectoire future de Mars. Elle a parfaitement déterminé les positions à venir de la planète. Quand on a cherché à comprendre le modèle élaboré par l’IA, on a découvert qu’elle avait identifié la façon la plus simple de calculer



306

L’Univers millefeuille

Qu’attendre du futur ?

… les ­trajectoires : considérer que la Terre et Mars tournaient toutes les deux autour du Soleil sur des orbites différentes, c’est-à-dire le modèle héliocentrique. Cette expérience toute simple montre sans équivoque que l’IA est capable de trouver des lois de la nature expliquant un phénomène donné.

On touche là au travail le plus noble du physicien. Dans la nouvelle physique dont nous parlons, de nombreuses lois seront à découvrir dans les différentes strates de l’Univers millefeuille et l’IA y contribuera certainement. Nous pouvons nous en féliciter, mais aussi en craindre les conséquences. En effet, dans cette expérience fort simple et en terrain connu, nous avons tout de suite compris le modèle trouvé spontanément par l’IA. En revanche, dans des domaines nouveaux et plus complexes, nous risquons de nous retrouver dans une position embarrassante : celle où l’IA nous fournirait un modèle efficient collant à la réalité, mais où elle ne pourrait pas nous « dire » de quoi il est fait. Le risque est donc de disposer de modèles qui marchent, sans pouvoir les comprendre ! Comment définirons-nous une bonne ou une mauvaise théorie ? Les critères de jugement utilisés aujourd’hui (poppériens) devront-ils être revus ? Faudra-t-il aussi créer un prix Nobel pour machines ? Ces questions rejoignent le problème général de l’IA, discuté plus loin. LE FUTUR DE LA SOCIÉTÉ « Ainsi, sommes-nous ici sur l’astronef Terre, à destination d’une ceinture d’astéroïdes faite de risques existentiels, sans plan ni même capitaine. » Max Tegmark

La prospective est un art bien difficile. À défaut de prévoir le devenir de notre société, je me limiterai à quelques éclairages en reprenant 307

Partie 3. Nouvelles interprétations et indications sur le futur

les principaux concepts détaillés plus haut pour en déduire des enseignements sur les états présent et futur de notre société. Commençons par la notion de possible adjacent qui s’applique de façon spectaculaire à la technologie. Les opportunités s’ouvrant quotidiennement donnent le tournis. La profusion de nouveaux produits ou services rappelle la créativité du domaine du vivant, à une grande différence près : sa rapidité. L’évolution darwinienne progresse extrêmement lentement, alors que l’innovation technologique est explosive. Un exemple frappant est la mise au point du premier vaccin contre le virus SARS-CoV-2 : un vaccin sorti en 9 mois, là où il fallait traditionnellement près de 10 ans de développement, et de surcroît, par la technologie ARN jamais expérimentée chez l’Homme pour ce type d’application. Des opportunités considérables naissent chaque jour, favorisant le rapprochement des individus, la diminution de la pauvreté, l’enrichissement intellectuel, le confort de vie, etc. Elles s’assortissent aussi de risques immenses comme en témoigne l’invention récente d’un ciseau moléculaire simplifiant grandement la manipulation du génome. Élaborée au début des années 2010 par les prix Nobel Emmanuelle Charpentier et Jennifer Doudna, cette méthode a conservé le nom barbare de CRISPR-Cas9. Elle exploite des protéines découvertes chez les bactéries, capables de couper un brin d’ADN et d’en éliminer un gène particulier. Elle permet d’éditer le génome en un temps et un coût bien inférieurs à ceux des techniques traditionnelles qui utilisaient des virus. L’avancée est telle qu’il deviendra possible de manipuler l’ADN dans un laboratoire amateur. D’ores et déjà, un biologiste chinois est intervenu in vitro sur des ovules fécondés pour en modifier le génome en 2018. Deux sœurs jumelles en sont nées. Il prétendait leur rendre service, car sachant que leur père avait le sida, il était parvenu à insérer un gène connu pour conférer une résistance à cette maladie. Il contrevenait aux règles mondiales d’interdiction de manipuler notre génome, ce qui lui valut la prison. Pire que cela, la technique CRISPR-Cas9 est trop récente pour garantir que l’opération n’a pas introduit d’autres modifications génétiques 308

L’Univers millefeuille

Qu’attendre du futur ?

chez ces enfants. Cet exemple montre bien que, tôt ou tard, les interventions sur l’ADN deviendront courantes, voire banales. Un jour, il nous faudra probablement accepter la manipulation du génome humain en répondant aux bonnes questions : à quelle fin, par qui, sous quelles règles et avec quel contrôle ? Plus généralement, d’importants débats d’idées se déroulent sur la l’amélioration de notre espèce ou l’Homme augmenté, essentiellement aux États-Unis. Pour certains, si l’on dispose des moyens génétiques d’accroître la durée de la vie, il faut les utiliser sans se poser de questions. D’autres se demandent quel sera l’intérêt de surpeupler la planète avec un nombre sans cesse croissant de personnes âgées. Le thème va plus loin et rejoint celui de l’intelligence artificielle. Le transhumanisme, voire le posthumanisme, prônent l’avènement futur de nouveaux êtres aux capacités surmultipliées, combinant l’homme « biologique » et la surpuissance anticipée de l’IA. Je rejoins sans réserve Luc Ferry57 pour déplorer que ce débat, pourtant crucial pour notre futur, soit en grande partie ignoré en Europe. En résumé, chaque nouvel échappement dans le possible adjacent entraîne un lot équivalent d’opportunités et de risques, et il appartient à la société de faire le tri. Le comment reste toujours la question-clé. La catalyse, si essentielle au fonctionnement de nos cellules, l’est tout autant dans la société. Parmi les innombrables machines et ordinateurs qui démultiplient nos possibilités, parlons de celle qui va probablement transformer notre vie dans les prochaines décennies  : l’intelligence artificielle. Aujourd’hui, les programmes d’IA tournent sur de gros ordinateurs traditionnels, grâce à des logiciels imitant un réseau neuronal (une émulation). Comme les transistors ne sont pas des composants optimisés pour une telle organisation, cette technique inspirée du cerveau est extrêmement consommatrice de ressources informatiques. Les résultats sont déjà stupéfiants, pourtant ils restent limités en capacité pour ces raisons technologiques : 57.  La révolution transhumaniste : Comment la technomédecine et l’uberisation du monde vont bouleverser nos vies. L. Ferry. 2016. 309

Partie 3. Nouvelles interprétations et indications sur le futur

ces réseaux comptent jusqu’à quelques millions de « neurones artificiels » quand notre encéphale en abrite 80 milliards. Sans aucun doute, l’essor de l’intelligence artificielle s’appuiera à terme sur de nouvelles générations d’ordinateurs construits totalement différemment. Sur le silicium ou sur un autre substrat, on ne gravera plus des transistors, mais d’autres types de composants, possiblement analogiques et non binaires, dont le fonctionnement sera proche de celui du neurone. Cela induira une transition de phase majeure : l’usage de l’IA se généralisera au niveau d’applications individuelles. À plus court terme, on peut prédire qu’elle se répandra rapidement dans toutes les tâches administratives et techniques, provoquant une nouvelle révolution dans le travail, analogue à celle de la mécanisation au xixe siècle. Nous sommes bien heureux de pouvoir creuser une tranchée en une heure avec une pelleteuse plutôt qu’en trois jours avec une équipe de terrassiers. Le même changement s’étendra aux tâches intellectuelles. Aujourd’hui, une grande partie de notre journée est occupée par des travaux relativement peu intéressants, susceptibles d’être transférés à l’IA. Il faudra en assumer les conséquences sociales, mais ne soyons pas trop pessimistes : n’oublions pas que les pays où il existe le plus de robots sont aussi ceux où il y a le moins de chômage (Japon, Corée, Suède, Allemagne…). L’IA va venir très vite et, avec elle, de grands dangers. Dans cet esprit, en 2015, Bill Gates, Stephen Hawking, Elon Musk, et quelque 1 500 intellectuels ont publié un avertissement sérieux à l’humanité. À titre d’exemple, ils pointaient l’émergence possible de drones tueurs qui, à terme, pourraient avoir des répercussions aussi graves que l’existence de la bombe atomique. Ces dispositifs de la taille de gros insectes seraient dotés d’une intelligence artificielle leur permettant de chercher un individu, de le reconnaître et de le tuer. Il est bien plus facile et rapide de construire de tels robots que de mettre en œuvre ladite bombe. Seules neuf nations ont réussi à franchir le seuil techno­logique pour construire l’arme atomique. En revanche, quelques jeunes diplômés de physique et d’électronique auront peu 310

L’Univers millefeuille

Qu’attendre du futur ?

de difficultés à fabriquer ces petits drones artisanalement dans un garage. Les leaders d’opinion cités plus haut nous mettaient en garde contre les progrès extrêmement rapides de l’IA. En voyant leurs noms, on se doute qu’ils ne demandaient pas l’arrêt des recherches en intelligence artificielle (ce serait d’ailleurs une utopie). Ils nous exhortaient plutôt à mettre en place des think tanks, des comités d’éthique et des institutions pour anticiper ces évolutions et éviter que le chef d’orchestre ne soit dépassé par la musique. Autre notion essentielle pour l’avenir : celle de transition de phase. Nous allons en vivre de plus en plus, toujours profondes et rapides. Aujourd’hui, toutes les conditions semblent réunies pour qu’il s’en produise une sous l’influence des réseaux sociaux. En effet, comme nous l’avons vu, une transition de phase se déclenche dans un milieu physique quand les particules se mettent à interagir à distance avec les autres. Cela fait apparaître des corrélations à grande portée et il en émerge un comportement collectif. Celui-ci provoque l’apparition de milieux radicalement nouveaux, d’objets organisés différemment, d’autres lois ou règles non observées auparavant. De nos jours, l’élargissement des relations interpersonnelles par les réseaux sociaux au niveau de la planète, nous place très exactement dans cette configuration. Les conditions sont donc réunies pour une transition de phase majeure. Laquelle ? Il pourrait s’agir d’une transformation rapide des valeurs morales avec l’abandon des valeurs anciennes fondées sur notre passé et nos religions, au profit de valeurs nouvelles, positives ou négatives, altruistes ou individualistes. L’altruisme contribuerait au bonheur de tous, ainsi qu’à la protection de la planète. Au contraire, l’individualisme provoquerait de profondes divisions et incompréhensions dans la population. Le métavers, ce possible adjacent dans lequel se lance Facebook, permettrait à beaucoup de s’échapper de la vie réelle et de ses difficultés pour se réfugier dans un monde virtuel. Toutes ces évolutions pourraient remettre en cause la démocratie sans la remplacer par une alternative solide et, donc, mener au chaos. 311

Partie 3. Nouvelles interprétations et indications sur le futur

Un mouvement inverse reste possible dans les pays très peu développés, ou bien dans ceux dirigés par des dictateurs, des extrémistes religieux, des administrations collectivistes, etc. Ils pourront connaître une transition de phase vers la démocratie, favorisée par les réseaux sociaux. Le lancement de milliers de satellites de télécommunication destinés à offrir les services Internet à l’ensemble de la planète moyennant des prix bas, risque de coûter leur place aux tyrans et autres autocrates dont les régimes se fondent sur la désinformation. Notre avenir sera-t-il fait de progrès social, économique et culturel ou bien de recul, de paupérisme et de mort ? Difficile d’y répondre, en revanche, une chose est sûre : le propre des transitions de phase est d’être brutales et de toucher tout le milieu d’un seul coup. Elles engendrent souvent des tsunamis. Impossible d’évoquer notre futur à relativement court terme sans aborder les émissions anthropiques et leur corollaire, le réchauffement de la planète. L’entropie croissante est le moteur de l’Univers. Il en va de même dans notre société. Le développement de l’économie et les aspirations constantes de la population pour un confort et un niveau de vie accrus entraînent inéluctablement une dissipation d’énergie croissante. Ces progrès sont devenus possibles grâce à l’extraction massive des hydrocarbures et à leur dégradation en chaleur et en CO2 accentuant l’effet de serre. Les terriens commencent à comprendre l’impasse vers laquelle cela les mène, un phénomène heureusement très sensible chez les jeunes. Il est à souhaiter que leurs parents aient le courage de prendre assez rapidement les décisions permettant d’arrêter la dégradation de la planète, et qu’eux-mêmes aillent plus loin en l’inversant. Il ne faut pas être totalement pessimiste, car les moyens technologiques croîtront parallèlement à cette évolution, comme la capture et l’enfouissement du carbone, à condition de faire l’objet d’investissements conséquents. Tout dépendra de la prise de conscience de la population et de sa capacité à sacrifier en partie sa prospérité à court terme. 312

L’Univers millefeuille

Qu’attendre du futur ?

Dans tous les sujets dont nous venons de parler, apparaît la notion d’équilibre entre tendances antagonistes. C’est le propre d’une société fonctionnant comme un système adaptatif auto-organisé maintenu dans l’état critique. Jusqu’à présent, elle a su maintenir son équilibre entre l’ordre et le chaos, un peu à l’image d’une bicyclette dont il faut corriger la trajectoire à chaque instant en roulant. L’ajustement fin de la société résulte non pas de quelques leaders, mais des myriades de liens de corrélation et de causalité unissant ou divisant les hommes sur tous les sujets. Cette multiplicité assure sa résilience (homéostasie). La vie quotidienne est faite de tous ces pouvoirs et contrepouvoirs s’équilibrant en permanence. Ce parcours de funambule se ­poursuivra-t-il à long terme ? Je ne saurais le dire, mais une chose est sûre : les hommes ne sont pas des particules ou des molécules. L’équilibre dont je parle se fait entre nous-autres, êtres humains, chacun étant acteur à son niveau. Plus la diffusion du savoir et des idées progressera, plus nous aurons de chances de nous positionner harmonieusement les uns par rapport aux autres et de nous respecter mutuellement. Ainsi continuerons-nous, longtemps j’espère, à ajuster finement le fonctionnement de notre société, pile sur le stade critique tout près de l’explosion.

313

REMERCIEMENTS

Écrire un livre aussi dense impose un travail d’équipe. Je remercie le docteur Alain Benoist, médecin et astronome, d’avoir toujours été à mes côtés pour relire mes travaux avec grande attention et pour exercer un contrôle qualité sans compromis.

315

BIBLIOGRAPHIE

S. Carroll. Le grand tout : L’origine de la vie, son sens et l’Univers lui-même. 2018. L. L. Cavalli-Sforza. Qui sommes-nous ? Une histoire de la diversité humaine. 1994. E. J. Chaisson. Cosmic Evolution. The rise of complexity in nature. 2001. P. Davies. The Fifth Miracle. 1998. R. Dawkins. Le Gène égoïste. 1976. C. de Duve. Une Visite guidée de la cellule vivante. 1987. J.-L. Dessalles, P.-H. Gouyon et C. Gaucherel. Le Fil de la Vie : La face immatérielle du vivant. 2016. J.-P. Dubois. Tous les hommes n’habitent pas le monde de la même façon. 2019. L. Ferry. La révolution transhumaniste : Comment la technomédecine et l’uberisation du monde vont bouleverser nos vies. 2016. R. Feynman. The Character of Physical Law. 1960. M. Galiana. Les clés secrètes de l’Univers. 2021. M. Gleiser. L’univers imparfait : Aux origines du temps, de la matière et de la vie. 2011. L. Krauss. A Universe for Nothing. 2012. J.-J. Kupiec. Et si le vivant était anarchique. 2019. R. B. Laughlin. A Different Universe : Reinventing Physics From the Bottom Down. 2006. 317

Bibliographie

R. L. Neubauer. Evolution and the emergent self. 2012. P.-Y. Oudeyer. Aux sources de la parole : Auto-organisation et évolution. 2013. I. Prigogine. La fin des certitudes. 1996. J. de Rosnay. L’Homme Symbiotique. 1995. C. Rovelli. L’ordre du temps. 2018. E. Smith et H. Morowitz. The origin and nature of life on earth. The emergence of the fourth geosphere. 2016. M. Tegmark. Notre univers mathématique – En quête de la nature ultime du réel. 2018. R. M. Unger et L. Smolin. The Singular Universe and the Reality of Time : A Proposal in Natural Philosophy. 2014. A. Wagner. Arrival of the fittest. Solving evolution’s greatest puzzle. 2014. S. Weinberg. Les trois premières minutes de l’Univers. 1978.

318

L’Univers millefeuille

LEXIQUE

Abiogenèse : Théorie de l’apparition de la vie à partir du monde minéral. Acide aminé : Petite molécule s’assemblant en chaînes, les protéines. Adénosine triphosphate (ATP) : Molécule utilisée universellement par les êtres vivants pour apporter l’énergie aux réactions chimiques du métabolisme. ADN, ARN, acide nucléique : Polymères assurant l’activité génétique. Il en existe deux versions proches : l’ADN (Acide DésoxyriboNucléique) et sa forme plus archaïque, l’ARN (Acide RiboNucléique). Agraindissement : Les phénomènes et les théories sont parfois dissemblables selon les échelles considérées (à grain fin ou à gros grain). L’agraindissement consiste à partir de ce qui est connu à grain fin et d’en tirer une extrapolation à gros grain. Algorithme : Suite d’opérations ou d’instructions permettant de résoudre un problème pas à pas. Les logiciels informatiques en sont des exemples. La sélection naturelle se résume à un algorithme très rudimentaire. Anthropocentrisme : Biais cognitif consistant à interpréter les phénomènes à l’image humaine. 319

Lexique

Apprentissage profond : En intelligence artificielle, algorithme informatique reproduisant partiellement le fonctionnement du cerveau par l’émulation de réseaux neuronaux. Ces systèmes imitent le néocortex multicouches des mammifères. Ils fonctionnent par apprentissage sur une base de données volumineuse. ARN messager : L’ADN enfermé dans le noyau des cellules produit des copies de ses gènes (transcription) sous forme de brins d’ARN, dits ARN messagers. Ils franchissent la paroi du noyau, puis ils sont traduits en protéines par les ribosomes. Attracteur : Concept mathématique dans la description des systèmes dynamiques. Il s’agit d’un état limite vers lequel le système tend à évoluer. Auto-assemblage : Une forme d’auto-organisation selon laquelle des éléments (molécules, macromolécules, cellules, individus, etc.) s’assemblent spontanément pour former un tout complexe. Autocatalytique : Se dit d’un ensemble de produits dont certains catalysent des réactions impliquant les autres. Auto-organisation : Tendance naturelle de la matière à s’assembler en phénomènes complexes plus ou moins stables. Elle repose sur les lois de la physique, mais celles-ci ne suffisent pas à l’expliquer. De nouveaux mécanismes restent à découvrir. C’est l’objet des sciences de la complexité. Autophagie : Capacité des cellules à s’autodétruire en digérant leurs propres composants. Autosimilarité : voir Fractale. Autotrophe : Cellule capable de se nourrir de molécules minérales et tirant généralement son énergie de la lumière. Belousov-Zhabotinsky (expérience de) : Comme les cellules de Bénard, cette expérience montre comment des structures se forment spontanément dans les systèmes dissipatifs éloignés de l’équilibre. Dans un premier temps, elle avait surpris car on y voyait, à tort, une contradiction avec le deuxième principe de la thermodynamique. 320

L’Univers millefeuille

Lexique

Biais de sélection : À l’origine, erreur statistique née d’un mauvais choix de l’échantillon. Par extension, limite de la pensée provenant du fait que l’on retient certains types d’informations en ignorant les autres. Bifurcation : Instabilité naissant lorsque les lois de la nature offrent à un système dynamique un choix entre plusieurs possibilités. Le hasard fait qu’il s’engage dans l’un des deux. Par exemple, les mêmes ingrédients peuvent donner une mayonnaise réussie ou ratée. Boucle de rétroaction : L’effet d’un phénomène qui rétroagit sur ses propres causes. Elle peut être positive si l’effet accentue les causes ou bien négative s’il les amoindrit. Brisure de symétrie : Mécanisme par lequel une situation symétrique bascule dans une autre, asymétrique ou bien moins symétrique. Souvent, les équations des lois physiques sont de nature symétrique, mais pas leurs solutions. La brisure de symétrie, très fréquente lors des transitions de phase, introduit le hasard dans l’évolution. Catalyseur : Substance capable d’accélérer une réaction chimique. Avec les protéines, sont apparus des catalyseurs des millions de fois plus efficaces que les catalyseurs minéraux : les enzymes. Catastrophe de l’oxygène : Lors de l’apparition de la vie sur Terre, les océans étaient dépourvus d’oxygène. Il y a environ deux milliards d’années, lorsque des bactéries utilisant la photosynthèse se sont développées, elles ont émis une quantité massive d’oxygène. On parle de catastrophe de l’oxygène parce que ce gaz était toxique. Les bactéries ont dû s’adapter à un environnement qui a basculé de l’état réducteur à l’état oxydant, une transition radicale. Causalité descendante, montante : Voir Émergence au sens de Christopher Langton. Cellules de Bénard : Motifs ordonnés apparaissant lorsqu’un liquide est chauffé dans un récipient plat. Elles illustrent le concept d’auto-organisation. 321

Lexique

Champ gravitationnel : Valeur définie en chaque point de l’espace, qui caractérise l’effet de toutes les masses environnantes. Cette valeur est une force pour Newton, une courbure de l’espace pour Einstein. Chaos déterministe : Un comportement chaotique peut apparaître même dans un système régi par des équations déterministes. Il se manifeste notamment par une forte sensibilité aux conditions initiales (voir ce terme). Chat de Schrödinger : Expérience de pensée destinée à appliquer les lois de la mécanique quantique (la superposition) à un objet macroscopique (le chat), créant ainsi une contradiction avec nos perceptions habituelles. Cheminée hydrothermale (ou fumeur) : Au fond des fosses océaniques, le magma affleure en certains endroits. Au contact avec l’eau froide, cela forme des cheminées traversées d’un courant d’eau de différentes températures, très enrichi chimiquement. Chlorophylle : Molécule fabriquée par les cellules végétales, capable de convertir la lumière solaire en énergie chimique. Combinatoire : Ensemble de propriétés apparaissant quand un grand nombre d’éléments simples interagissent entre eux. La combinatoire des atomes mène aux structures chimiques. Celle des protéines conduit à la matière vivante. Les combinatoires se prêtent aux descriptions par les mathématiques ou les simulations numériques. Complexoscope : Image que j’ai inventée pour désigner les nouveaux instruments utilisés pour appréhender la complexité : concepts d’organisation, méthodes, simulations numériques, etc. Conditions aux limites, état initial : Pour intégrer une équation différentielle, il faut connaître les conditions aux limites, par exemple les contraintes de l’environnement, et spécifier un état initial. Contingence : Se dit d’évènements qui arrivent, mais qui auraient très bien pu ne pas survenir. La contingence est le contraire de la 322

L’Univers millefeuille

Lexique

nécessité. Par exemple, la vie sur Terre devait-elle nécessairement émerger (nécessité) ou non (contingence) ? CRISPR-Cas9 : Ciseau moléculaire employé pour modifier un génome. Il repose sur des enzymes découvertes chez les bactéries, capables de reconnaître un gène et de l’éliminer par incision. Décohérence : Théorie montrant comment une particule passe du monde microscopique (état quantique superposé, intriqué) au monde macroscopique (état classique). Découplage de l’information : Évènement survenu avec l’apparition des gènes lorsque l’information héréditaire s’y est localisée. Parallèlement, les protéines ont perdu tout rôle de transmission de l’information compositionnelle et elles se sont spécialisées dans les processus de fonctionnement de la cellule. Démon de Laplace : Image symbolisant une physique entièrement déterministe où tout serait prédictible. Pierre-Simon de Laplace avait imaginé un démon qui, si l’on pouvait lui donner au temps t les positions et les vitesses de toutes les particules de l’Univers ainsi que les forces agissant sur elles, reconstituerait tout ce qui s’est produit par le passé et prévoirait tout ce qui surviendrait dans le futur par la simple application des lois de la physique. Démon de Maxwell : Expérience de pensée visant à soulever une contradiction avec le deuxième principe. Dans une enceinte fermée, un gaz est en équilibre thermique. On sépare l’intérieur en deux volumes par une cloison présentant un orifice. Un « démon » laisse passer par l’orifice les molécules rapides dans un sens et les lentes dans l’autre. Au bout d’un moment, la température devrait être différente dans les deux volumes de l’enceinte en contradiction avec le deuxième principe. Dépendance du cadre (ou du fond) : Dans les théories physiques classiques, on fixe un cadre préétabli servant de scène où se déroulent les évènements. Ce cadre matérialisé par des axes de coordonnées est purement conceptuel. Dans les théories indépendantes du 323

Lexique

cadre, on s’intéresse aux relations entre les objets sans les placer dans un tel cadre (théories relationnelles). Dépendance du chemin (ou du trajet) : Idée selon laquelle l’état d’un système à un moment donné est déterminé par tout son cheminement passé. Dérive génétique : Évolution des populations sous l’effet des mutations dues au hasard. En l’absence de sélection naturelle, la dérive génétique appauvrit l’espèce. Deuxième principe de la thermodynamique : Il énonce que tout système accroît globalement son entropie. Il s’apparente à l’idée de la dégradation universelle. Cependant, une partie d’un système peut évoluer vers l’organisation et la complexité (une entropie plus faible) à condition que le reste du système évacue une entropie supérieure à celle perdue, en général sous forme de chaleur. Différenciation cellulaire : Opération permettant à une cellule souche (indifférenciée) de se spécialiser en cellule de foie, de peau, de rein, etc. Disque d’accrétion : Dans le cosmos, lorsque la matière environnante chute vers un astre ou un trou noir, elle se met à tourner en formant un disque. Ce dernier s’échauffe et freine considérablement la chute de la matière. Échelle : Dans cet ouvrage, nous parlons des échelles comme de toute l’étendue des dimensions depuis les plus petites jusqu’au plus grandes. Au niveau astronomique, nous les mesurons par le facteur d’échelle (voir ce mot). Effet de serre : Effet par lequel la Terre reçoit des photons hautement énergétiques du Soleil (lumière visible, UV), les absorbe dans son atmosphère, puis réémet des photons moins énergétiques dans l’espace (infrarouges). Cet effet naturel, qui se traduit par un accroissement de température, se renforce si l’atmosphère contient certains gaz comme le gaz carbonique, le méthane ou la vapeur d’eau. Effet papillon : Voir sensibilité aux conditions initiales. 324

L’Univers millefeuille

Lexique

Effondrement de la fonction d’onde : En mécanique quantique, une particule est représentée par une fonction d’onde qui évolue de façon continue dans le temps en obéissant à l’équation de Schrödinger. La fonction d’onde permet de prévoir non pas la position d’une particule (ou sa vitesse, son énergie, etc.), mais plusieurs valeurs possibles affectées de probabilités. Si l’on mesure une de ces grandeurs, il se produit une discontinuité : la fonction d’onde disparaît (on dit qu’elle s’effondre) et l’une des valeurs prédites se matérialise. Cette discontinuité pose un important problème épistémologique : le problème de la mesure. Émergence au sens de Christopher Langton : Le tout apparaît à partir de ses composants par l’effet d’une causalité montante. Une fois créé, le tout impose une causalité descendante à ses parties. Émergent : Se dit d’un phénomène macroscopique émanant naturellement de composants plus petits. Une fois apparu, il présente ses propres lois qui souvent ne peuvent se déduire des lois régissant les composants au niveau inférieur. Encapsulation (ou compartimentation) : Évènement important de l’abiogenèse selon lequel les réactions chimiques du début de la vie (hypercycles) se sont logées à l’intérieur de gouttes lipidiques formant des protocellules. Énergie libre : Le deuxième principe de la thermodynamique dit qu’une machine ne peut jamais transformer l’énergie en travail à 100 %. Seule une partie peut travailler : l’énergie libre. Le reste se dissipe en chaleur (entropie). Ensemble autocatalytique : Grand ensemble constitué de réactions chimiques catalysées (hypercycles). Une grande partie d’entre elles, voire toutes, sont catalysées par certains des produits de l’ensemble. Entropie : Mesure de l’état de désorganisation de la matière. Selon le deuxième principe de la thermodynamique, tout système accroît globalement son entropie en convertissant de l’énergie en des formes plus dégradées, en général de la chaleur. Le concept d’entropie est aussi utilisé en théorie de l’information. Les états faiblement entropiques (par exemple à l’origine du Big Bang) sont 325

Lexique

improbables, ordonnés et organisés. C’est l’inverse pour les états fortement entropiques (la chaleur). Enzyme : Protéine dotée de capacités catalytiques. Équation différentielle : Équation mettant en relation de petites variations infinitésimales des variables. Pour en tirer des résultats, il faut généralement les intégrer. Toute la physique repose sur les équations différentielles et le calcul intégral inventés par Newton et Leibniz au xviie siècle. Ergodique : En mécanique statistique, l’hypothèse consistant à supposer que le système étudié va parcourir tous les états possibles. Par exemple, on peut postuler que dans une enceinte, une molécule de gaz pourra successivement occuper toutes les positions possibles. Cette hypothèse permet certains calculs, mais le concept est peu approprié à la biosphère. Espace de configuration : Espace abstrait servant à représenter tous les états possibles d’un système. Par exemple, le mouvement d’une particule sur une ligne se représente dans un espace à deux dimensions dont les coordonnées sont sa position et sa vitesse (ou sa quantité de mouvement). L’espace des protéines est un espace immense dont chaque axe exprime lequel des vingt acides aminés se trouve en chaque position. État critique auto-organisé : Un système complexe qui atteint un seuil critique, puis s’y maintient par des mécanismes de rétroaction, sans intervention extérieure. À titre d’exemple, dans le désert, toutes les dunes présentent la même pente et la même forme. Le vent pousse le sable, ce qui tend à augmenter cette pente, mais des avalanches se déclenchent dès qu’elle passe un certain seuil. Ainsi, la pente s’autorégule sur une valeur critique. Eucaryote : Type des cellules composant tous les êtres multicellulaires : animaux, végétaux et champignons. Eusocial (insecte) : Les insectes eusociaux (fourmis, termites, abeilles, etc.) sont organisés en sociétés où un partage des tâches est observé entre les individus. 326

L’Univers millefeuille

Lexique

Expansion de l’Univers : Augmentation d’échelle de l’espace-temps. Elle se traduit par la fuite des galaxies. En revanche, elle n’affecte pas les systèmes gravitationnellement liés : par exemple, la taille d’une galaxie n’est pas en expansion. Expression des gènes : Voir traduction génétique. Facteur d’échelle : Dans un univers en expansion, la notion de distance évolue avec le temps. Le facteur d’échelle est un rapport (nombre sans dimension) qui mesure de combien une distance s’est dilatée entre les temps t1 et t2. Force électromagnétique : L’une des quatre forces régissant l’Univers. Elle joue dans la structure des atomes, dans leur assemblage en molécules (la chimie), dans la lumière (les photons) et dans différents champs affectant les objets cosmiques. Fractale : Objet se subdivisant indéfiniment dans toutes les échelles. Elle présente souvent une propriété d’autosimilarité, c’est-à-dire le fait que l’une de ses parties présente une apparence similaire à celle du tout. Frange entre l’ordre et le chaos : Dans les systèmes complexes susceptibles de s’ordonner ou au contraire de tomber dans le chaos, on constate que la création d’information est maximum dans la zone étroite se situant entre les états chaotiques et ordonnés. Un système trop ordonné ou trop chaotique ne produit rien. Gène régulateur : Gène dont la fonction est d’inhiber ou d’activer d’autres gènes. Leur présence en grand nombre dans le génome fait de celui-ci un véritable circuit logique au même titre qu’un ordinateur. Gravitation : L’une des quatre forces régissant l’Univers. Elle crée une attraction entre les masses. Einstein en a donné une représentation révolutionnaire en disant qu’elle résulte de déformations de l’espace-temps. Gravitation quantique : Nouvelle théorie de la gravitation en cours d’élaboration, visant à unifier la mécanique quantique et la relativité générale. Elle présente l’espace-temps comme discret et non continu. 327

Lexique

Homéostasie : Capacité d’un système à maintenir ses caractéristiques de façon stable malgré les fluctuations de l’environnement. Par exemple, le corps humain conserve sa température de 37 °C quelle que soit la température extérieure, dans une certaine plage. Hydrophilie, hydrophobie : La forme particulière du nuage électronique de la molécule d’eau provoque une brisure de symétrie dans le monde de la chimie : les autres molécules se classent en deux catégories, selon qu’elles attirent ou repoussent celles de l’eau. Certaines, comme les détergents ou les phospholipides, présentent une extrémité hydrophile et l’autre hydrophobe. Inflation du cosmos : Épisode d’expansion fulgurante de l’espace survenu juste après le Big Bang. En une infime fraction de seconde, il est passé d’une échelle microscopique à une échelle astronomique. Inflaton : Certaines théories expliquent l’inflation initiale du cosmos par l’effet d’un champ répulsif dit inflaton. Un tel champ pourrait aussi être à l’origine de l’accélération de l’expansion observable aujourd’hui. Informatique quantique : Nouveau type d’ordinateur, une technologie émergente. Des particules sont maintenues en état quantique. Le résultat est que, au lieu de figurer un 0 ou un 1, ces particules revêtent une infinité d’états possibles entre 0 et 1 et de façon superposée. Dans certaines applications, il suffira de quelques dizaines de telles particules pour réaliser des ordinateurs massivement parallèles, plus puissants que les appareils actuels. Interactions nucléaires : Deux des quatre forces régissant l’Univers, dites forte et faible. Elles sont de portée très courte et ne s’expriment qu’à l’intérieur des noyaux atomiques. Invariant : Quantité se conservant lors d’une transformation. Par exemple, l’énergie se conserve dans le temps (1er principe de la thermodynamique). Cette invariance est liée à une symétrie temporelle : le fait qu’une expérience menée au temps t puisse l’être à tout autre moment, sans que cela ne change sa validité. 328

L’Univers millefeuille

Lexique

Loi de puissance : Loi de probabilité selon laquelle la probabilité des évènements est inversement proportionnelle à leur taille, élevée à une certaine puissance (fréquence = 1/taillen). Longueur de Planck : Longueur de 1,616 × 10– 35 mètre, en-dessous de laquelle nos théories de la relativité générale et de la mécanique quantique perdent leur sens. Elle est bien trop petite pour être accessible à l’observation. On lui associe une énergie de Planck et un temps de Planck. Macromolécule : Longue chaîne (polymère) faite de maillons d’un type particulier comme les acides aminés (protéines) ou les nucléotides (ARN, ADN). Membrane : Association de lipides formant une surface hydrophobe. La membrane bicouche est utilisée universellement par les êtres vivants. Elle est formée de deux couches de phospholipides accolées par leur face hydrophobe. Mème : Selon R. Dawkins, c’est une unité de pensée (idée, image, mot, etc.) qui se propage de cerveau en cerveau par un processus darwinien. Métabolisme : Ensemble des réactions chimiques qui animent un être vivant. On en dénombre environ cinq mille chez l’Homme. Microbiote : Ensemble des micro-organismes vivant en symbiose avec un être multicellulaire. Modèle standard des particules : Il s’agit de la théorie en vigueur pour expliquer les particules constituant l’Univers. Elle repose sur la théorie quantique des champs. Elle est remarquablement précise, mais pose de nombreuses questions fondamentales. Morphogenèse : Formation des organes et des êtres vivants. Multiréalisation : Propriété d’un ensemble complexe, fait de nombreux composants, qui reste identique si l’on supprime ou si l’on change une partie de ceux-ci. Le même tout se réalise identiquement à partir de multiples configurations possibles de ses parties. Multivers : Hypothèse selon laquelle notre univers serait un parmi une multitude d’autres que nous ne connaîtrons probablement jamais (voir principe anthropique). 329

Lexique

Mur de Planck : Voir longueur de Planck. Nucléotide : Petite molécule s’assemblant en chaînes dites acides nucléiques (ADN ou ARN). Ontologie : Discipline philosophique s’intéressant à la question : « Qu’est-ce que l’être ? ». Ordre de grandeur : Écart mesuré en puissances de 10. Dire qu’il existe trois ordres de grandeur entre la taille de l’Homme et celle de la fourmi signifie que le premier est environ 1 000 fois plus grand que la seconde (103). Organite : Au sein d’une cellule, un élément assurant une fonction tel un petit organe (appareil de Golgi, réticulum endoplasmique, mitochondrie, etc.). Percolation : Transition de phase se produisant dans un réseau. Lorsqu’il est faiblement connecté, certains nœuds ne sont pas connectés à d’autres, de sorte que les parties connectées forment des sous-ensembles disjoints (des « îles »). Lorsque le degré de connexion franchit un certain seuil, tous les nœuds deviennent connectés et des contacts à grande distance s’établissent entre eux. Petit monde : Dans un réseau connecté de façon dense, il existe toujours un chemin court permettant de passer d’un des nœuds à un autre. Dans un réseau social populaire aux États-Unis, on a constaté que deux individus choisis au hasard pouvaient entrer en contact l’un avec l’autre de proche en proche par l’intermédiaire de six autres personnes en moyenne. Phagocytose : Absorption d’une particule étrangère ou d’un nutriment par une cellule eucaryote, par invagination de sa membrane. Phénotype : Ensemble des traits observables sur un organisme. S’oppose au génotype, qui représente l’information génétique. Photon : Grain de lumière. Einstein a montré qu’il se manifestait tantôt comme un corpuscule, tantôt comme une onde, une découverte qui a été le point de départ de la mécanique quantique. 330

L’Univers millefeuille

Lexique

Polymère : Macromolécule de forme linéaire faite de l’enchaînement de petites molécules dites monomères. Deux polymères jouent un rôle primordial dans le vivant : les acides nucléiques (ARN, ADN) et les protéines. On peut y ajouter les sucres. Pool génétique d’une espèce : Ensemble des variations existant au niveau du génome au sein d’une même espèce. Elles se traduisent par des variations dans le phénotype : yeux bleus/noirs, pilosité plus ou moins prononcée, capacité digestive différente, malformations diverses, etc. Positon (ou positron) : Antiparticule de l’électron. Il présente des caractéristiques identiques sauf sa charge qui est positive. Possible adjacent : Domaine de possibilités non accessible à la nature à un moment donné, mais susceptible de le devenir dès qu’un changement élémentaire se produit au bon endroit. Quand une porte s’ouvre vers un tel domaine, la nature s’y engouffre, ce qui fait émerger un grand nombre de novations. Posthumanisme : Voir transhumanisme. Principe anthropique faible, fort : En cosmologie, principe énonçant que les propriétés de l’Univers ne peuvent pas être quelconques : elles doivent être compatibles avec l’émergence de la vie et d’un être pensant. Dans sa forme forte, il dit que l’Univers doit être tel qu’il est, ce qui sous-entend l’existence d’un Créateur. Dans sa forme faible, il se borne à constater que l’Univers possède les propriétés idoines, ce qui peut sous-entendre l’existence d’un multivers. Principe cosmologique : Principe énoncé par Einstein, selon lequel la position de la Terre dans le cosmos est quelconque. Il présuppose que le cosmos est homogène et isotrope, hypothèses utiles pour formuler simplement des modèles de l’Univers. Principe d’équivalence des échelles : Pétition de principe énonçant qu’il n’existerait aucune échelle jouant un rôle privilégié dans l’Univers et en particulier aucune borne inférieure ou supérieure. Problème à trois corps : Étude du mouvement de trois corps sujets à la force de gravitation, comme le Soleil, la Terre et la Lune. 331

Lexique

Problème du cadre : Les chercheurs en intelligence artificielle se sont demandé s’il existait un algorithme permettant de déterminer tous les changements de l’environnement (du cadre) susceptibles de perturber une opération, un calcul, une manœuvre, etc. Ils ont démontré qu’un tel algorithme n’existait pas, ce qui crée un aléa systématique : en théorie, on ne peut jamais dire « toutes choses égales par ailleurs » (ceteris paribus). Problème de la mesure : Voir effondrement de la fonction d’onde. Procaryote : Nom scientifique des bactéries. Protéine : Macromolécule faite d’une chaîne d’acides aminés. Une fois repliée, elle représente une forme servant à la structure dans l’organisme ou bien exécutant une tâche catalytique (enzyme). Proton, neutron, quark : Le noyau atomique est formé de protons (une charge positive) et de neutrons (sans charge). Ces deux particules que l’on a longtemps considérées comme élémentaires, ne le sont pas : chacune est formée de trois quarks. Qbit : Un bit dans un ordinateur quantique, pouvant prendre toutes les valeurs entre 0 et 1, et s’intriquer avec d’autres qbits. Radiation évolutive : Épisode foisonnant de l’évolution des espèces se produisant quand de nouvelles niches voient le jour, souvent à l’issue d’une grande extinction. De nombreuses espèces très variées naissent en peu de temps. Rayonnement fossile (ou cosmologique) : Photons émis quand l’Univers âgé de 380 000 ans est devenu transparent. Depuis, très affaiblis, ils circulent toujours dans tout l’espace. Ils ont été détectés pour la première fois en 1965. On parle aussi de rayonnement diffus micro-onde. Réductionnisme : La méthode cartésienne consiste à décomposer les problèmes en sous-problèmes plus faciles à résoudre. La physique, qui repose largement sur cette démarche, tend à réduire les phénomènes ou objets complexes, au seul comportement des particules. Le risque est de perdre la notion du tout. Les systèmes sophistiqués comme l’être vivant ne peuvent être compris par une réduction au seul jeu des particules. 332

L’Univers millefeuille

Lexique

Relativité générale : Einstein traite la gravitation en appliquant les équations de la relativité restreinte en chaque point de l’espacetemps, localement. Il montre que la présence de masses courbe l’espace-temps. Dans ce substrat élastique, les trajectoires des masses suivent la courbure. Relativité restreinte : Einstein étend la relativité galiléenne (relativité du mouvement) à l’électromagnétisme : la lumière doit être perçue identiquement quel que soit l’observateur et son mouvement. Ceci l’amène à postuler qu’aucun corps ne peut se déplacer à une vitesse supérieure à celle de la lumière. La théorie débouche aussi sur l’équivalence entre la matière et l’énergie (E = mc2). Renormalisation : Procédure mathématique utilisée pour éliminer les infinis qui affectent les calculs de théorie quantique des champs quand on cherche à décrire les particules du modèle standard. Ressaut hydraulique : Vaguelette se formant à la rencontre de deux courants liquides contradictoires, comme le mascaret. Ribosome : Enzyme (ou plus exactement, ribozyme) faite essentiellement d’ARN. Elle est responsable de la traduction génétique, ­c’est-à-dire la formation des protéines en suivant la séquence définie par l’ARN messager). Santa Fe Institute : voir « Sciences de la complexité ». Sciences de la complexité  : Sciences recherchant les mécanismes animant les systèmes complexes. Elles sont nées dans les années 1980 et ont été promues par le Santa Fe Institute aux États-Unis. La simulation numérique est un outil privilégié pour y parvenir. Sélection darwinienne équilibrée (K-selection) : Mode évolutif caractérisé par une reproduction lente, une descendance peu abondante, un faible nombre de mutations et une adaptation plus individuelle que collective. Sélection darwinienne opportuniste (r-selection) : Mode évolutif caractérisé par une reproduction rapide, une descendance très abondante, un grand nombre de mutations et une adaptation plus collective qu’individuelle. 333

Lexique

Sensibilité aux conditions initiales : Dans beaucoup de systèmes, pourtant régis par des équations déterministes, il apparaît que toute incertitude d’une valeur à un moment donné, même infime, engendre une forte incertitude sous un horizon de temps court. On en a donné une image avec l’effet papillon. Simulation numérique : Grâce à la puissance des ordinateurs actuels, il est devenu possible de simuler le comportement de systèmes faits de myriades d’éléments : atomes, molécules, cellules, individus, etc. Dans la simulation par agents, on dote chaque élément d’un comportement type et on le laisse agir pour observer l’évolution du système collectivement. Stochastique : Se dit d’un processus ou d’un modèle reposant au moins partiellement sur le hasard (contraire de déterministe). Supernova : Explosion finale d’une étoile de grosse taille. Symétrie : En géométrie, on connaît les symétries caractérisant certaines figures : par exemple, le carré est invariant si on le tourne de 90°. Dans la physique du xxe siècle, les notions de symétrie et d’invariance ont été généralisées. La relativité exprime une symétrie lorentzienne liant l’espace et le temps. Le modèle standard des particules repose sur différentes symétries dans des espaces abstraits (théories de jauge). Système complexe adaptatif : Système complexe (de nombreux composants, de nombreux liens entre eux) doté d’une capacité d’adaptation aux fluctuations du milieu. Système fermé : Un système clos à l’abri des influences extérieures. La physique traditionnelle s’est intéressée à ces systèmes, soit à l’équilibre, soit dans des situations proches de l’équilibre. Ils sont des simplifications de la réalité. Système ouvert : Un système ouvert aux influences extérieures. Quasiment tous les systèmes naturels en sont. Ilya Prigogine s’est intéressé aux systèmes ouverts éloignés de l’équilibre, un cas très général. 334

L’Univers millefeuille

Lexique

Théorème d’incomplétude : Théorème de Kurt Gödel prouvant formellement l’existence de propositions indécidables : il est impossible de dire si elles sont vraies ou fausses. Théorie des cordes : Théorie en développement, visant à unifier mécanique quantique et relativité. Elle repose sur l’idée que les particules seraient des cordes vibrantes à l’échelle de longueur de Planck. Les formes de la matière seraient des modes vibratoires de ces cordes. Après beaucoup d’engouement, la motivation des chercheurs pour cette théorie s’est émoussée devant les difficultés mathématiques soulevées. Théorie du tout : Se réfère au Saint Graal de la physique, une théorie qui unifierait mécanique quantique et relativité. Idéalement, les paramètres que les physiciens fixent arbitrairement, comme les masses des particules, découleraient d’une telle théorie. Théorie relationnelle (ou indépendante du cadre) : Qualifie les théories s’intéressant plus aux relations entre les objets qu’aux objets eux-mêmes. Une tendance possible de la physique du futur. Voir dépendance du cadre. Thermodynamique : Théorie physique traitant des phénomènes liés à la température et aux échanges d’énergie. Traduction génétique : Dans les bactéries et les cellules, processus convertissant une séquence d’ARN en une protéine. La machinerie enzymatique complexe du ribosome l’exécute. Transhumanisme, posthumanisme : Le mouvement philosophique transhumaniste s’intéresse à ce que les progrès en médecine, robotique, informatique, etc. peuvent apporter à l’Homme pour améliorer ses possibilités. Sa forme extrême, le posthumanisme, envisage l’émergence d’une intelligence extrahumaine pouvant à terme se découpler du corps. Transition de phase : À l’origine, il s’agit de la transition qui mène d’un état de la matière vers un autre : par exemple, le passage de l’état liquide à l’état gazeux. Par extension, s’utilise pour représenter des changements soudains affectant tout un milieu au moment 335

Lexique

précis où une variable franchit un seuil donné (par exemple, une température). Trou noir : Astre suffisamment dense pour que son champ de gravitation empêche la lumière ou tout objet matériel d’en sortir. Si l’on pouvait concentrer la matière de la Terre dans un volume inférieur à un centimètre cube, elle formerait un trou noir. Univers-jouet : Univers simulé mathématiquement en fixant arbitrairement un certain nombre de paramètres. Les univers-jouets sont fictifs, mais ils sont essentiels pour comprendre l’Univers réel.

336

L’Univers millefeuille

INDEX

Cet index récapitule deux types de notions évoquées dans l’ouvrage : – en italique : celles, techniques, reprises dans le glossaire ; – en caractères droits : les principales applications traitées. Abiogenèse : 223, 237, 240 Acide aminé  : 147, 162, 179, 200, 203204, 215, 238 Adénosine triphosphate (ATP) : 99 ADN, ARN, acide nucléique : 55, 78, 139, 149-151, 153, 206, 215, 218, 221, 228, 239, 308 Aéronef : 136 Agraindissement : 46-48, 120 Agriculture : 186, 241 Aimantation : 168 Algorithme : 180, 226 Anthropocentrisme : 23, 99, 233 Antimatière : 169 Apprentissage profond : 187, 306 ARN messager : 150 Atome : 88-89, 162, 193, 199-200 Attracteur : 132-141 Auto-assemblage  : 195, 213-219, 270271, 275 Autocatalyse  : 162, 208-209, 211-212, 238-239, 290-291

Auto-organisation : 43, 89, 94, 128, 131, 142-148, 220, 223, 279-286, 302 Autophagie : 117 Autosimilarité : 23 Autotrophie : 182 Beauté de la nature : 29-30 Belousov-Zhabotinsky (expérience de)  : 95 Biais de sélection : 38-41, 53 Bifurcation : 103, 174, 188, 190 Big Bang : 24, 26, 79-82, 161, 169, 242243 Biologie : 48, 78, 142 Bitcoin : voir cryptomonnaie. Boucle de rétroaction : 132, 143, 148, 166 Brisure de symétrie : 167-172 Catalyse  : 147, 162, 206-213, 238, 290291, 309 Catastrophe de l’oxygène : 55, 164, 183 337

Index

Causalité descendante, montante  : 108115, 152, 264, 273-274 Cellule  : 29, 43, 75, 106, 111, 117, 139, 213, 218, 239 Cellules de Bénard : 94-95 Cerveau  : 100, 113, 137, 147, 153, 232, 272 Chaos déterministe : 53-54 Chat de Schrödinger : 110, 257-261 Cheminée hydrothermale (ou fumeur)  : 111, 126, 146, 162 Chlorophylle : voir photosynthèse. Combinatoire : 142, 189-224 Complexoscope  : 97-98, 127, 140, 147, 288, 300 Conditions aux limites, état initial  : 3637, 75, 80-81, 107, 189 Conscience : 101, 113, 165 Contingence : 58 Cosmological Natural Evolution : 234 Cosmos : voir Univers. CRISPR-Cas9 : 308 Cryptomonnaie : 276, 289 Culture : 154, 165, 212, 222, 241 Cyclone : 42, 131-132 Darwinisme : 62, 141, 164, 225-244 Décohérence : 110, 121, 192-193, 256-260 Découplage de l’information : 239 Démon de Laplace : 38, 50, 61 Démon de Maxwell : 286-287 Dépendance du cadre (ou du fond) : 55, 300-301 Dépendance du chemin ou du trajet : 37, 107 Dérive génétique : 241 Descente du larynx : 185 Dessein intelligent : 179 Deuxième principe de la thermodynamique : 68, 71, 77-78, 89-90, 287 Différenciation cellulaire : 138 Digestion du lactose : 241 Disque d’accrétion  : 73, 105, 108, 178, 236, 241 Dune, barkhane : 145-146 338

L’Univers millefeuille

Échelle : 19-30, 46, 97, 193, 265, 271, 301 Écologie : 131, 211 Économie : 148 Écosystème : 211, 296 Effet de serre : 74, 111, 166, 312 Effet papillon : 51 Effondrement de la fonction d’onde : 121, 188-189, 254-255 Émergence  : 41-46, 108, 112-114, 120121 Émergence au sens de C. Langton : 109 Encapsulation (ou compartimentation) : 111, 172, 238-240 Énergie libre : 66, 107 Ensemble autocatalytique : 239 Entropie : 65-90, 95, 286-290, 312 Environnement : 55, 166, 211 Enzyme : 106, 207-208 Épicycles de Ptolémée : 305 Équation différentielle : 35-37, 187 Ergodicité : 177, 181 Espace de configuration  : 132-134, 137, 180, 300 État critique auto-organisé  : 142-148, 164-165, 283 Étoile : 108, 143, 161 Eucaryote : 164, 182, 219 Eusocial (insecte) : 96, 112 Expansion de l’Univers : 24, 27, 83, 244 Expression des gènes : 56, 150, 205 Extinction : 183, 227 Facteur d’échelle : 24 Flagelle : 216-218 Force électromagnétique : 28, 59, 81, 89, 162, 199, 201-202 Fourmi : 93-96, 112-113 Fractale : 19-23, 30, 301 Frange entre l’ordre et le chaos : 123-155, 279-286 Gène régulateur : 139 Génome : 55, 63, 78, 140, 149, 153, 240241 Gravitation : 28, 33, 81, 88, 104 Gravitation quantique : 25, 47, 264

Index

Hémoglobine : 179 Homéostasie : 57, 117, 149, 313 Hominine : 184 Homme, Homo sapiens  : 70, 149, 154, 165, 185-186, 220, 233-234, 240-244, 309 Homme augmenté : 309 Hydrophilie, hydrophobie : 170-171, 202

Multicellulaire : 112, 141, 164, 182, 218219, 233 Multiréalisation : 117 Multivers : 128, 234 Mur de Planck : 25-26, 79, 223, 264 Mythe newtonien : 35-38, 50, 80, 299 Mythe pythagoricien  : 32, 35-38, 187, 254, 262-263

Imprimerie : 186 Inflation du cosmos : 26-27, 81-82, 295 Inflaton : voir inflation Information  : 76-79, 87-89, 127, 235239, 286, 288, 303 Informatique quantique : 34 Intelligence artificielle  : 54, 155, 186, 303-307, 309-311 Interactions nucléaires : 28-29, 81, 88-89 Internet : 186, 267-291 Invariance : 59-60, 262, 304-305

Noyau de la cellule : 151, 218 Nuage cosmique : 81, 162, 200-202, 210, 238 Nucléotide : 228, 238-239

Jambe de cheval : 133 Jupiter : 51, 62, 106, 130, 135

Paradoxe EPR : 249 Particule  : 47, 110, 169, 192, 197-199, 248, 254 Pendule : 132-133 Percolation : 279 Petit monde : 181 Phagocytose : 174 Phénotype : 57, 63, 150-151 Photon : 74, 197, 248 Photosynthèse : 55, 70, 164, 182-183, 211 Physique du solide : 43, 121, 160 Planète : 62, 71, 105-106, 166, 210 Polymère : 162, 203, 208, 221, 239 Pool génétique d’une espèce : 195 Positon (ou positron) : 42, 262 Possible adjacent : 173-190, 274-277, 308 Posthumanisme : voir transhumanisme Principe anthropique faible, fort : 128 Principe cosmologique : 26 Principe d’équivalence des échelles : 25 Problème à trois corps : 33, 37, 51 Problème de la mesure  : 188, 248, 253256 Problème du cadre : 54-55, 58 Procaryote : 164

Langage : 154, 220-221 Loi de la nature, loi physique : 38, 43, 49, 58-60, 99-102, 120-122, 168, 263-264, 304-305 Loi de puissance : 144, 148, 165 Longueur de Planck : 25-26, 47, 79 Macromolécule : 162, 193, 203-206, 208209, 213-218 Matière condensée : 43 Mécanique quantique : 51-52, 110, 121, 188-189, 192, 247-265, 301 Méditerranée : 178 Membrane  : 75-76, 106, 164, 172, 238239 Mème : 222, 242 Métabolisme : 99, 149, 208 Microbiote : 285 Modèle standard des particules : 59, 197, 261-263 Molécule : 162, 200-203, 206-207 Morphogenèse : 219

Œil : 229 Ontologie : 45, 114 Ordre de grandeur : 19-21, 25, 27, 97 Organe : 43, 117-119 Organite : 106, 117, 172, 214 Origine de la vie : 159, 162, 200, 208

339

Index

Protéine  : 106, 146-147, 150, 162, 179, Symétrie : 59-60, 167-172 204-205, 214-218, 239 Système complexe adaptatif  : 148-155, Proton, neutron, quark : 20, 22, 143, 169, 166, 296, 313 197, 217 Système fermé, ouvert : 63, 129-130, 176, 187-188 Qbit : 34 Système solaire  : 51, 62, 105-106, 177178, 295, 305-307 Radiation évolutive : 183 Rayonnement fossile ou cosmologique : 20, Terre  : 61-62, 73-74, 110-111, 126, 129, 24, 83, 243 166, 211, 227, 295 Réductionnisme  : 41-46, 107, 114-116, Théorème d’incomplétude : 52-53 160, 187, 287 Théorie des catastrophes : 190 Relativité d’échelle : 301-302 Théorie des cordes : 25, 34, 47, 264 Relativité générale : 46, 59, 104 Théorie des mondes multiples : 255-256 Relativité restreinte : 32, 59, 121 Théorie du tout : 13-14, 38, 47, 263, 297Renormalisation : 261-263 298 Ressaut hydraulique : 40 Théorie relationnelle : 77, 300 Révolution industrielle : 158, 212, 278 Thermodynamique : 47, 120 Ribosome : 215-216 Tissu : 43, 118-119 Rivière : 100, 102-104 Traduction génétique : 151, 179, 215-216, 239 Santa Fe Institute : 31, 142, 148 Sciences  : 38-39, 44, 101, 189, 223, 242, Transhumanisme, posthumanisme : 309 Transition de phase  : 157-172, 277-279, 265, 297-303 Sciences de la complexité : 14, 31, 302 296, 311 Sélection darwinienne : 179-181, 225-244 Trou noir : 71-72, 79, 83-84, 98, 210, 235 Sélection darwinienne équilibrée (K-selecUnivers  : 19-23, 61, 115, 127, 194, 234, tion) : 228 294 Sélection darwinienne opportuniste (r-seUnivers-jouet : 98, 128 lection) : 228 Sensibilité aux conditions initiales  : 51, Vie, vivant  : 43, 78, 111, 126, 145-147, 53-54 170, 182-184, 207, 213-218, 237 Simulation numérique  : 138-140, 142, Ville : 56-57, 61, 174 148, 300 Société : 113-114, 154, 165-166, 184-187 Virus : 182, 206, 282 Soleil : 73, 75, 95, 109 Virus SARS-CoV-2  : 77, 154, 182, 206, Sortie de l’eau : 183, 230 308 Stochastique : 56, 61 Web 2.0 : 278 Supernova : 40, 105, 243 Wikipédia : 275-276 Supraconductivité : 159-160

340

L’Univers millefeuille