50 clés pour comprendre les grandes idées de la science 2100763032, 9782100763030


257 117 4MB

French Pages 207 [209] Year 2012

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover
Titre
Table des matières
Introduction
01 Le principe de Fermat
02 Les lois de Newton
03 La gravitation universelle
04 L'électro-magnétisme
05 La thermo-dynamique
06 La relativité restreinte
07 La relativité générale
08 La mécanique quantique
09 Les champs quantiques
10 La physique des particules
11 L'énergie nucléaire
12 La théorie des cordes
13 La théorie de l'information
14 La théorie du chaos
15 Les ordinateurs quantiques
16 L'intelligence artificielle
17 Atomes et molécules
18 Le tableau périodique
19 La radioactivité
20 Les semi-conducteurs
21 Les supra-conducteurs
22 Ballons de foot et nanotubes
23 La nano-technologie
24 Les origines de la vie
25 La photo-synthèse
26 La cellule
27 La théorie microbienne
28 Les virus
29 Les gènes
30 L'évolution
31 La diaspora d'Homo sapiens
32 La double hélice
33 Clonage et OGM
34 La biologie de synthèse
35 La conscience
36 Le langage
37 Les ères glaciaires
38 La tectonique des plaques
39 Les extinctions de masse
40 Le changement climatique
41 La révolution copernicienne
42 Les galaxies
43 Le Big Bang
44 La matière noire
45 L'énergie sombre
46 Le destin de l'Univers
47 Les trous noirs
48 Le multivers
49 Les exoplanètes
50 La vie extraterrestre
Glossaire
Index
Copyright
Recommend Papers

50 clés pour comprendre les grandes idées de la science
 2100763032, 9782100763030

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

5O

CLÉS POUR COMPRENDRE LES

GRANDES IDÉES

DE LA SCIENCE PAUL

PARSONS

&

GAIL

DIXON

Traduit de l’anglais par Charles Frankel

table des matières Introduction 3 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Le principe de Fermat 4 Les lois de Newton 8 La gravitation universelle 12 L’électromagnétisme 16 La thermodynamique 20 La relativité restreinte 24 La relativité générale 28 La mécanique quantique 32 Les champs quantiques 36 La physique des particules 40 L’énergie nucléaire 44 La théorie des cordes 48 La théorie de l’information 52 La théorie du chaos 56 Les ordinateurs quantiques 60 L’intelligence artificielle 64 Atomes et molécules 68 Le tableau périodique 72 La radioactivité 76 Les semi-conducteurs 80 Les supraconducteurs 84 Ballons de foot et nanotubes 88 La nanotechnologie 92 Les origines de la vie 96 La photosynthèse 100 La cellule 104

27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

La théorie microbienne 108 Les virus 112 Les gènes 116 L’évolution 120 La diaspora d’Homo sapiens 124 La double hélice 128 Clonage et OGM 132 La biologie de synthèse 136 La conscience 140 Le langage 144 Les ères glaciaires 148 La tectonique des plaques 152 Les extinctions de masse 156 Le changement climatique 160 La révolution copernicienne 164 Les galaxies 168 Le Big Bang 172 La matière noire 176 L’énergie sombre 180 Le destin de l’Univers 184 Les trous noirs 188 Le multivers 192 Les exoplanètes 196 La vie extraterrestre 200

Glossaire 204 Index 206

Introduction

Introduction Albert Einstein se plaisait à dire que « les grands scientifiques sont aussi des artistes ». La remarque ne laisse pas de surprendre, car la science en général semble manquer singulièrement de créativité. Régie par des observations et des données, elle laisse peu de place en apparence à l’esprit créatif. C’est loin d’être exact : le message que cherche à faire passer Einstein est qu’en science les esprits novateurs sont justement ceux qui sont les plus créatifs. Ce sont leurs idées, plutôt que leurs compétences techniques, qui révolutionnent notre conception du monde. De temps en temps, en effet, un chercheur à la créativité extraordinaire surgit sur le devant de la scène, et sa vision du monde ne se limite pas à une évolution, mais bouleverse complètement les idées reçues et nous propulse dans une nouvelle dimension du savoir. Ce fut le cas d’Albert Einstein lorsqu’il formula ses théories de la relativité ou de Charles Darwin lorsqu’il établit le principe de l’évolution par sélection naturelle. Ces chercheurs avaient aussi une grande compétence technique. Mais sans cette étincelle de génie créatif, même la maîtrise absolue des instruments mathématiques ou une connaissance encyclopédique du monde naturel n’auraient pu leur permettre de révolutionner la science comme ils l’ont fait. Ainsi, il est bon de se rappeler que la science à l’école ne doit pas se résumer à apprendre des théories par cœur. Dans les chapitres qui vont suivre sont présentés les 50 plus grands concepts qu’ont échafaudés les chercheurs à travers les siècles. Les sujets retenus sont évidemment des choix personnels ; tout autre auteur aurait sans nul doute organisé ce livre différemment. Mais nous avons recherché un juste équilibre des thèmes, et nous espérons que le lecteur aura autant de plaisir à les découvrir que nous en avons eu à les présenter. Lorsque la place le permet, nous y avons joint de courtes biographies des chercheurs concernés, présentant leur parcours et leur vie personnelle. C’est donc à un fascinant voyage que nous vous convions, à la découverte des plus belles théories scientifiques élaborées par ces créateurs hors du commun. Et l’aventure continue : quelles idées nouvelles germent dans l’esprit des savants aujourd’hui et s’épanouiront dans les années à venir ? Paul Parsons & Gail Dixon

3

4

50 clés pour comprendre les grandes idées de la science

01 Le principe de Fermat

À la fin du XVIIe siècle, le mathématicien français Pierre de Fermat décrit le comportement des rayons lumineux par une loi simple et élégante : pour voyager entre deux points, la lumière choisit le chemin le plus rapide. Ce concept a ouvert la voie à un principe encore plus fondamental de la physique moderne. À l’époque de Fermat, les physiciens connaissaient déjà bien le phénomène de la « réfraction » : le changement de direction d’un rayon lumineux lorsqu’il passe d’un milieu à un autre. Trempez par exemple un crayon dans un verre d’eau : vu de profil, le crayon semble brisé en deux segments qui font entre eux un angle prononcé. Ce phénomène de réfraction a lieu lorsque les deux milieux n’ont pas la même « densité optique », à savoir que la lumière s’y propage à des vitesses différentes : l’angle de déviation du rayon lumineux est proportionnel au rapport de ces deux vitesses, selon une formule mathématique appelée loi de Snell-Descartes (voir encadré, page ci-contre). Restait à comprendre pourquoi.

Fermat entre en scène Fermat proposa « le principe de moindre temps », à savoir que la lumière prend toujours la trajectoire la plus brève entre deux points. Cette hypothèse permettait d’expliquer mathématiquement la loi de Snell-Descartes. Une bonne analogie est celle du maître-nageur qui porte secours à une personne en train de se noyer. Il se trouve en haut de plage et pas directement en face de la personne en détresse. Quelle distance doit-il courir sur la plage, puis nager dans l’eau, pour arriver au plus vite ? La distance la plus courte entre le maître-nageur et sa cible est bien sûr la ligne droite joignant les deux, donc on pourrait penser que c’est la trajectoire à

chronologie 984

1662

1744

Le mathématicien perse Ibn Sahl est le premier à énoncer les lois de la réfraction

Pierre de Fermat propose que les rayons lumineux obéissent au principe de moindre temps

Pierre-Louis de Maupertuis propose le principe de moindre action

Le principe de Fermat suivre. Mais ce n’est pas le cas, car le maître-nageur court plus vite qu’il ne peut nager. Suivre une ligne droite l’amènerait à réaliser une trop grande partie du parcours dans l’eau. Courir le long de la plage jusqu’à se retrouver face à la personne avant de plonger n’est pas idéal non plus, car la distance courue est trop longue. La solution est un compromis entre les deux : courir en diagonale à travers la plage jusqu’à un point précisément calculé du rivage, puis changer d’angle lors de la mise à l’eau pour la seconde partie du parcours – tout comme un rayon lumineux lorsqu’il se réfracte.

La loi de Snell-Descartes

Bien qu’elle porte aujourd’hui les noms de Willebrord Snellius et René Descartes, la loi qui décrit la réfraction des rayons lumineux fut énoncée plus de 600 ans auparavant par le mathématicien perse Ibn Sahl. En présence d’une interface entre deux milieux, dans lesquels la vitesse de la lumière est respectivement v1 et v2, alors les angles respectifs θ1 et θ2 entre les rayons lumineux et une ligne perpendiculaire à l’interface sont donnés par la formule sin θ1/sin θ2 = v1/v2 (où sin est la fonction trigonométrique sinus). v1

Milieu où

la vitesse 1 L’explication physique qui de la lumière sous-tend le principe de est plus rapide Fermat touche à la nature ondulatoire de la lumière, en particulier le phénomène d’inMilieu où terférence lorsque deux ondes θ2 la vitesse se combinent en une seule. Si de la lumière v2 la crête d’une onde coïncide est moins rapide avec le creux d’une autre, elles s’effacent mutuellement. En revanche, si les deux ondes font coïncider leurs crêtes et leurs creux, leur somme est une onde amplifiée. Pour pratiquement chaque trajectoire suivie par une onde lumineuse, il en existe une autre qui interfère avec elle de façon destructive pour l’effacer. L’exception est la trajectoire de durée minimale : c’est celle où θ

1788

1915

1948

Joseph-Louis Lagrange dérive du principe précédent la mécanique analytique

Le mathématicien allemand David Hilbert dérive des actions la relativité générale d’Einstein

Le physicien américain Richard Feynman formule l’intégrale de chemin en théorie quantique

5

6

50 clés pour comprendre les grandes idées de la science la lumière nous est donc visible. Le principe de Fermat explique aussi les lois qui gouvernent la réflexion de la lumière à l’interface entre deux milieux, y compris la « réflexion totale interne » selon laquelle un rayon de lumière est incapable de s’échapper d’un milieu lorsqu’il frappe son interface selon un angle rasant, propriété exploitée dans les fibres optiques. Le principe de Fermat allait lancer d’autres pistes. En 1744, le mathématicien Pierre-Louis de Maupertuis s’est ainsi demandé si au-delà du comportement des rayons lumineux, il pouvait s’appliquer à la dynamique des solides en mouvement. Il substitua au facteur temps du principe de Fermat l’énergie cinétique d’un objet, intégrée tout au long de ses multiples trajectoires possibles. Il postula alors que la trajectoire prise par l’objet serait celle qui réclamerait le minimum d’énergie cinétique.

Des actes plutôt que des mots À la fin du

XVIIIe

siècle, l’idée fut creusée par le mathématicien italien Joseph-Louis Lagrange et le physicien irlandais William Rowan Hamilton. Ils retouchèrent le théorème de Maupertuis pour intégrer non pas l’énergie cinétique d’un objet, mais son énergie cinétique moins son énergie potentielle (par exemple un boulet que s’apprête à lancer une catapulte n’a pas encore d’énergie cinétique, mais de l’énergie potentielle, stockée dans la flexion de la catapulte). Lagrange et Hamilton raisonnèrent que c’était cette nouvelle quantité, baptisée « action », qui se devait d’être minimale sur la trajectoire suivie par l’objet. Ce « principe de moindre action » leur permit d’expliquer les lois universelles du mouvement des corps d’Isaac Newton (voir page 8). D’autres théories pouvaient être dérivées en minimisant l’action des corps, que ce soit en électromagnétisme ou en relativité générale (voir pages 16 et 28). Le principe s’avérait particulièrement utile lorsqu’il s’agissait de combiner des théories. Calculer le comportement d’un corps en présence à la fois d’un champ de gravité et d’un champ électromagnétique, par exemple, consiste à additionner les actions imputables à chacun, puis à trouver la trajectoire qui minimise cette action combinée. Le physicien américain Richard Feynman a exploité ce principe de moindre action pour construire « l’intégrale de chemin » de la théorie quantique des champs (voir page 36) : la probabilité de l’état d’une particule à un moment

«

La nature est économe dans toutes ses actions. Pierre-Louis de Maupertuis

»

Le principe de Fermat donné dans le futur se trouve en intégrant les contributions de toutes ses trajectoires possibles, divisées par la probabilité qu’elle ait pris chacune d’entre elles. Le physicien américain Edwin Jaynes s’en est inspiré pour proposer qu’il existe d’étroits rapports entre la physique et la théorie de l’information (voir page 52). Le principe de Fermat et celui de moindre action figurent parmi les outils les plus puissants de la physique moderne : ils se trouvent aujourd’hui au cœur des efforts pour tenter d’unifier les forces de la nature (voir page 48) et expliquer l’origine même de l’Univers (voir page 172).

Mécanique lagrangienne L’analyse des systèmes mécaniques complexes était un véritable cauchemar jusqu’à ce que le mathématicien Joseph-Louis Lagrange introduise le principe de moindre action, jetant les bases de la mécanique lagrangienne. Celle-ci offrait une méthode systématique pour résoudre les problèmes impliquant le mouvement de plusieurs corps sous l’influence de plusieurs forces, comme celui des planètes autour du Soleil, sujettes à des interactions gravitationnelles entre elles. La méthode de Lagrange consistait à établir des coordonnées de position et de vitesse pour chaque objet. De la sorte, il pouvait écrire une fonction, le « lagrangien »,

représentant l’énergie totale – cinétique moins potentielle – du système. Son intégration sur toutes les trajectoires possibles dans l’espace et dans le temps donnait pour résultat « l’action » (voir page 7), à rendre minimale pour obtenir les équations décrivant le mouvement de chaque objet. Dans le cas du Système solaire, les vitesses relatives des planètes se rapportaient à l’énergie cinétique totale du système, et les positions relatives des objets les uns par rapport aux autres à l’énergie potentielle totale, fournie dans ce cas par la gravité. Il en découlait les équations du mouvement, décrivant les orbites des planètes autour du Soleil.

L’idée clé Un rayon de lumière suit le parcours le plus rapide

7

8

50 clés pour comprendre les grandes idées de la science

02 Les lois

de Newton

En 1687, Isaac Newton publia un livre qui est l’une des bases de la physique mathématique moderne : une véritable révolution, fondée sur trois principes qui décrivent comment les objets se déplacent sous l’influence de forces. Ces lois allaient régir la physique du mouvement jusqu’au début du XXe siècle. Durant trois siècles, les lois de Newton ont parfaitement décrit le mouvement et l’interaction des objets dans la vie de tous les jours – une branche de la physique appelée « mécanique ». Le savant anglais les publia en 1687 dans son livre Philosophiæ Naturalis Principia Mathematica (Principes mathématiques de la philosophie naturelle), mieux connu sous son titre abrégé de Principia. Jusqu’alors, la mécanique avait reposé sur les théories du philosophe grec Aristote, théories mises à mal par l’essor de la méthode expérimentale. Celles de Newton, en revanche, reposaient sur de rigoureuses équations mathématiques et donnaient des résultats parfaitement en accord avec les observations. La première loi de Newton énonce que tout corps persévère dans l’état de repos ou de mouvement uniforme en ligne droite, à moins qu’une force n’agisse sur lui (une idée déjà émise par Galilée en 1632). En substance, un objet stationnaire restera stationnaire et un objet déjà en mouvement continuera dans la même direction et à la même vitesse, si aucune force ne lui est appliquée. On peut alors se demander pourquoi, si on lâche ce livre, il se mettra à tomber : c’est parce que la gravité exerce sur lui une force dirigée vers le sol. En dehors des champs de gravité, ou lorsque les forces s’annulent comme en orbite terrestre, les objets ont bien un comportement stationnaire ou se déplacent de façon uniforme, tel que Newton l’avait prédit.

chronologie IV e

siècle av. J.-C.

Le philosophe grec Aristote formule ses idées sur le comportement des objets en mouvement

1021

1632

Le philosophe perse Al-Biruni propose l’accélération comme cause d’un mouvement non uniforme

L’astronome florentin Galilée publie ses travaux sur le concept d’inertie

Les lois de Newton Force et inertie La deuxième loi quantifie de quelle façon le mouvement d’un objet est modifié lorsqu’une force s’applique sur lui. Newton énonce que l’objet accélère dans la même direction que la force, à un taux qui satisfait l’équation force = masse × accélération. Cela signifie que sous l’action d’une même force, les objets de petite masse accéléreront davantage que les objets de masse supérieure : divisez la masse de moitié et l’accélération sera doublée. La résistance au mouvement d’objets ayant une masse est appelée « inertie ». Elle s’explique à partir de la première loi. Un corps persévère dans son état de repos ou de mouvement uniforme, sauf si une force agit sur lui. L’inertie du corps, que lui confère sa masse, détermine de combien est changé cet état de repos ou de mouvement uniforme lorsque la force est appliquée.

Isaac Newton (1643-1727) Isaac Newton est né à Woolsthorpe, un petit hameau du comté anglais de Lincolnshire. En 1661, il entre au Trinity College de Cambridge où il obtient son diplôme de bachelier (l’équivalent d’une maîtrise) en 1665, avant qu’une épidémie de peste ne le force à retourner à Woolsthorpe. Il y passe deux ans à l’écart du monde, plongé dans des réflexions qui vont aboutir à ses plus grandes théories. De retour à Cambridge en 1667, Newton y est élu membre du corps enseignant, avant de devenir en 1669 titulaire de la chaire de professeur en mathématiques, à l’âge de 26 ans. Durant sa carrière prolifique, Newton apporte des contributions majeures non seulement à la physique du mouvement, mais

aussi à celle de la gravitation, à l’optique, à la mécanique des fluides, à la thermodynamique et aux mathématiques. Il conçoit notamment le premier télescope réflecteur. Il est nommé président de la Société Royale – la plus ancienne société scientifique – en 1703, puis chevalier en 1705. Newton est aussi connu pour ses inimitiés avec nombre de savants de son temps, notamment au sujet de la priorité de certaines de ses découvertes, et en tant que Maître de la monnaie royale s’est targué d’avoir envoyé plusieurs dizaines de fauxmonnayeurs aux galères. Il est mort dans son sommeil le 31 mars 1727 de « causes naturelles », bien qu’il ait pu s’empoisonner au mercure, du fait de ses nombreuses expériences d’alchimie.

1687

1750

1905

Isaac Newton publie ses trois lois du mouvement dans son livre Principia

Le mathématicien suisse Leonhard Euler étend les lois de Newton aux objets complexes

Dans sa relativité restreinte Albert Einstein apporte des retouches aux lois de Newton

9

10

50 clés pour comprendre les grandes idées de la science La troisième loi de Newton définit l’interaction réciproque entre les objets. Elle énonce que toute action crée une réaction d’intensité égale et de sens contraire. Si vous êtes assis sur une chaise, la force dirigée vers le bas par la masse de votre corps accélérée par la pesanteur est contrebalancée par une force égale et opposée que la chaise imprime à votre corps. La source de cette force, dite « réaction normale », est le réseau de liaisons chimiques entre les atomes qui constituent la chaise et qui assurent sa rigidité. Elle peut ne pas suffire : si vous êtes trop lourd, la chaise se brisera et la réaction normale disparaîtra.

Coup et contrecoup La troisième loi de Newton explique pourquoi une carabine recule contre votre épaule lors d’un coup de feu. Le percuteur met à feu la cartouche de poudre et l’expansion brutale des gaz de combustion dans le canon propulse la balle vers l’avant, mais en accord avec la troisième loi de Newton, une force égale et opposée propulse la carabine en sens inverse. Au passage, la seconde loi de Newton – force = masse × accélération – explique pourquoi la balle accélère beaucoup plus vite que la carabine, bien plus massive. Au sens strict, les lois de Newton ne s’appliquent qu’à des objets dont la masse peut être assimilée à un point dans l’espace, ce qui rend les calculs plus faciles, mais ne rend pas compte du monde réel. Vers 1750, le mathématicien suisse Leonhard Euler a donc adapté les lois de Newton aux objets de taille non nulle et a conclu que si l’on considère que la masse de l’objet est concentrée en son centre de gravité, alors ces lois restent pertinentes. En sus, il a découvert des lois complémentaires qui gouvernent la façon dont l’objet pivote sur lui-même – basées sur les forces de rotation ou « couples » appliqués à l’objet et sur la distribution précise de sa masse par rapport à son centre de gravité. Les équa-

Force accélérant le boulet

Accélération = force explosive/ masse du boulet

Force de recul du canon

Les lois de Newton tions résultantes, dites de Newton-Euler, donnent ainsi une description plus réaliste du mouvement des corps.

Un champ restreint Il est pourtant des cas de figure où même ces lois élargies sont prises en défaut. En énonçant sa théorie de la relativité restreinte en 1905, Albert Einstein a ainsi démontré que les objets se déplaçant à des vitesses proches de celle de la lumière ont des comportements qui diffèrent sensiblement de ceux prévus par les lois de Newton. Par la suite, sa théorie de la relativité générale (voir page 28) mena à des divergences supplémentaires, dans le cas de champs de gravité particulièrement forts. D’autre part, à partir des années 1920, il devint clair qu’à l’échelle des particules subatomiques, la vision ordonnée et déterministe de la physique newtonienne devait Dans la nuit s’effacer devant le caractère probabiliste de la se cachaient la nature mécanique quantique (voir page 32). Toutefois, et ses lois, et Dieu dit les lois d’Isaac Newton continuent d’offrir une approximation tout à fait acceptable du mou“que Newton soit”, vement des corps à nos échelles familières d’eset la lumière fut. pace, de temps et de champs de gravité, que ce Alexander Pope (1727) soit celui de billes de billard ou de planètes en orbite autour du Soleil.

«

»

L’idée clé Les objets en mouvement obéissent à trois lois mathématiques

11

12

50 clés pour comprendre les grandes idées de la science

03 La gravitation universelle

En 1687, Isaac Newton publia le premier modèle mathématique de la gravitation, expliquant tous les mouvements observés : des trajectoires des boulets de canon aux orbites des planètes autour du Soleil. Les équations newtoniennes ont des applications multiples, notamment pour calculer les trajectoires des vaisseaux spatiaux. En sus de ses trois lois sur le mouvement des corps (voir page 8), le chefd’œuvre d’Isaac Newton – son livre Principia publié en 1687 – contenait aussi le premier énoncé scientifique de la force gravitationnelle. Avec la rigueur mathématique qui est la sienne, Newton y traite plusieurs exemples, comme le mouvement de billes sur une pente, ou encore les orbites planétaires. Sa loi stipule que la force gravitationnelle entre deux objets massifs est proportionnelle au produit de leurs masses, divisé par le carré de la distance qui les sépare. Doublez l’une des masses et la force double aussi. Doublez la distance, et la force diminue d’un facteur quatre. C’est un rapport mathématique relativement simple, auquel Newton est parvenu en étudiant le comportement d’objets en chute libre, ainsi que les tables astronomiques du mouvement des planètes.

La pomme de Newton La loi stipule qu’un objet lâché au-dessus de la Terre, par exemple une pomme qui tombe de sa branche, accélère vers le sol à un taux déterminé par la masse et le rayon de la Terre. À la surface de notre planète, cette accélération due à la gravité vaut 9,8 mètres par seconde… par seconde. C’està-dire qu’à chaque seconde qui s’écoule, la vitesse de chute de la pomme croît de 9,8 mètres par seconde – ici la masse de la pomme, insignifiante par rapport à celle de la Terre, peut être ignorée. Un objet lancé verticalement vers le ciel verra sa vitesse ralentie d’autant, avant de retomber. Et un objet lancé dont la vitesse comporte aussi une composante horizontale décrira une trajectoire courbe, appelée

chronologie 1609-1619

1666

1687

Johannes Kepler publie ses trois lois décrivant le mouvement des planètes

Robert Hooke présente ses idées sur la gravité à la Société Royale de Londres

Isaac Newton publie la théorie complète de la gravitation dans son livre Principia

La gravitation universelle parabole, pour percuter la Terre à une distance calculable du point de départ. Appliquer la loi de Newton à un projectile sur Terre n’est qu’une première approximation, car notre atmosphère oppose à l’objet une certaine résistance : une force de friction qui le ralentit d’autant plus que sa vitesse est élevée. Cette résistance de l’air limite la vitesse d’un objet en chute libre à une valeur appelée « vitesse terminale » qui dépend de ses propriétés aérodynamiques. Ainsi, un parachutiste en chute libre atteint une vitesse terminale de 530 km/h. Une fois son parachute déployé, sa vitesse terminale chute à 28 km/h. Sur la Lune en revanche, où il n’y a pas d’atmosphère, la loi de Newton joue sans contrainte, comme l’a démontré en 1971 le commandant d’Apollo 14, Alan Shepard, qui transforma sa pelle de géologue en club de golf et frappa une balle qui parcourut dans des kilomètres ».

La loi de Newton En langage mathématique, la loi de la gravitation universelle stipule que si deux corps de masses m1 et m2 sont séparés par une distance r, alors chaque corps est attiré vers l’autre par une force d’attraction g qui est donnée par la formule : m1m2 g=G r2 où G est la constante gravitationnelle qui vaut 6,67 x 10–11 (0,000000000067). La force g se mesure en unités appelées newtons (N), où 1 newton accélère une masse de 1 kilogramme de 1 mètre par seconde par seconde.

le vide lunaire « des kilomètres et

En orbite Augmentez la vitesse d’un projectile lancé depuis la Terre et au-delà d’un certain seuil il ne retombera plus. S’il suit la courbure de la Terre, il décrira une orbite autour de notre planète. Augmentez encore sa vitesse, et il échappera à l’emprise de la gravitation terrestre pour voguer indépendamment à travers le Système solaire. Newton était particulièrement fier du caractère universel de sa théorie : le fait qu’elle s’appliquait à des objets à la surface de la Terre autant qu’à des planètes dans l’espace. Il dériva d’ailleurs mathématiquement les lois de Kepler sur le mouvement des planètes à partir de sa loi de la gravitation (voir page 167). L’œuvre de Newton ne fut pas encensée par tous ses contemporains. Le philosophe Robert Hooke accusa même Newton de plagiat, clamant qu’il avait

1798

1916

1945

Henry Cavendish démontre pour la première fois la gravitation newtonienne au laboratoire

Albert Einstein retouche l’équation de Newton pour les cas extrêmes de la relativité générale

À partir de la théorie de la gravitation, Arthur C. Clarke imagine le concept d’orbite géostationnaire

13

14

50 clés pour comprendre les grandes idées de la science

L’expérience du canon Isaac Newton a conçu un exercice mental pour démontrer que sa loi de la gravitation était adaptée autant à décrire l’orbite des planètes que la chute d’une pomme. Il propose d’imaginer ainsi un canon tirant son boulet depuis une haute montagne, à l’horizontale. La trajectoire du boulet est déterminée par sa vitesse et la force d’attraction de la Terre. A B À des vitesses relativement modestes, le boulet suit une trajectoire courbe qui lui fait rapidement percuter le sol E (trajectoire A sur le diagramme). Augmentez sa vitesse et le point d’impact sera de plus en plus éloigné du canon (trajectoire B). Augmentez-la encore, et le moment viendra où la vitesse du boulet donnera à sa trajectoire une courbure identique à celle du globe terrestre en dessous d’elle : le boulet ne touchera jamais le sol. On dit alors C qu’il est en orbite (trajectoire C). Une vitesse plus grande encore donnera à sa trajectoire une forme en ellipse (D), D et au-delà d’une certaine valeur le boulet échappera à la gravité terrestre pour errer dans le cosmos (E) : c’est ce qu’on appelle la « vitesse de libération ». Celle-ci est dictée par la gravité de la planète et est indépendante de la masse du projectile : dans le cas de la Terre, cette vitesse est de 11,2 kilomètres par seconde.

lui-même déjà indiqué que la gravitation était proportionnelle à l’inverse du carré de la distance (le facteur/r2 de la formule de Newton, voir encadré page 13). Il est vrai que Robert Hooke avait présenté ses idées sur la gravitation à la Société Royale de Londres en 1666, mais le concept d’une gravitation proportionnelle à l’inverse du carré de la distance était déjà bien établi à l’époque, et ni Hooke, ni Newton n’en méritent la paternité. Ce qui ressort, en revanche, c’est que Newton est le seul chercheur à avoir intégré le concept dans une théorie complète, et à en avoir vérifié l’exactitude.

«

Je peux calculer le mouvement des corps célestes, mais pas la folie des hommes. Isaac Newton

»

La gravitation universelle Le « grand G » La première expérience conduite au laboratoire pour confirmer la loi de Newton ne fut entreprise qu’en 1798 : elle est l’œuvre du physicien britannique Henry Cavendish. Ce dernier mesura la torsion d’un fil soutenant une barre avec deux petites sphères métalliques à ses extrémités, attirées par deux sphères massives à proximité. D’après l’attraction infime entre les sphères, et la minuscule torsion du fil résultante, on peut déduire la constante de proportionnalité G de l’équation de Newton : 6,67 × 10–11 m3/kg/s2. La théorie de la gravitation de Newton demeura incontestée jusqu’à ce qu’Albert Einstein publie sa théorie de la relativité générale qui prend en compte la courbure de l’espace-temps (voir page 28). Dans celle-ci, Einstein réussit à gommer un certain nombre d’anomalies qui affectaient la version initiale de Newton, comme le décalage entre la position prédite de Mercure sur son orbite et celle réellement observée, ou encore la courbure de rayons lumineux à proximité du Soleil. Ces corrections ne concernent que les champs gravitationnels particulièrement forts, l’équation du savant britannique restant tout à fait acceptable dans la vie de tous les jours. L’une des conséquences de la loi de gravitation, appliquée aux satellites artificiels de la Terre, fut soulevée dans les années 1940 par le romancier britannique Arthur C. Clarke. Celui-ci réalisa qu’à une certaine altitude, un satellite fait le tour de la Terre dans le même temps (24 heures) que la planète tourne sur elle-même. Vu depuis le sol, le satellite semble alors immobile dans le ciel. Cette orbite « géostationnaire », à 35 786 km d’altitude, est celle utilisée aujourd’hui pour nombre de satellites de télécommunications et d’observation de la Terre.

L’idée clé Les objets massifs s’attirent mutuellement

15

16

50 clés pour comprendre les grandes idées de la science

04 L’électro­

magnétisme

L’une des plus grandes inventions technologiques du monde moderne est la télécommunication par ondes radio. Elle découle d’une série de découvertes faites au XIXe siècle, notamment celle de l’Écossais James Clerk Maxwell montrant que l’électricité et le magnétisme sont deux manifestations du même phénomène. L’un des premiers indices montrant un lien entre électricité et magnétisme apparaît lors d’une expérience conduite par le physicien danois Hans Christian Ørsted. En 1820, le chercheur remarque que le passage d’un courant électrique dans un fil fait bouger l’aiguille d’une boussole à proximité. En déplaçant la boussole, il s’aperçoit que les lignes de force magnétique sont des cercles centrés sur le fil. Informé du phénomène, le physicien français André-Marie Ampère échafaude une théorie pour l’expliquer. Il note que les champs magnétiques dégagés par deux fils parallèles conduisent les fils à s’attirer si les courants circulent dans le même sens et à se repousser si les courants circulent en sens inverse. Le physicien exprime ce comportement par une loi mathématique connue aujourd’hui sous le nom de théorème d’Ampère : elle décrit le champ magnétique autour de chaque fil en fonction du courant et permet de calculer la force entre les deux.

Le courant passe En 1831, le physicien britannique Michael Faraday démontre l’effet inverse. Il enroule une bobine de fil autour de la moitié gauche d’un anneau de fer et la raccorde à une pile. Sur la moitié droite, il enroule une seconde bobine reliée à un galvanomètre (qui mesure le courant électrique). En branchant le courant dans la bobine de gauche, Faraday détecte un bref courant dans le galvanomètre de droite. Il en déduit que la bobine de gauche a généré un champ magnétique dans l’anneau, qui a généré à son tour un courant électrique dans la bobine de droite. Le physicien obtient également

chronologie 1820

1820

1831

Ørsted découvre qu’un courant électrique génère un champ magnétique

Ampère élabore une théorie pour expliquer l’observation d’Ørsted

Faraday démontre comment créer un courant électrique à partir d’un champ magnétique

L’électromagnétisme un courant dans la bobine en déplaçant un aimant à proximité. Il en conclut que c’est la variation d’un champ magnétique qui génère un courant électrique – un effet baptisé « induction », et se fonde sur ce principe pour construire le premier générateur électrique : la dynamo. C’est le physicien écossais James Clerk Maxwell qui révèle, en 1861, toute la complexité de l’interaction entre électricité et magnétisme. Maxwell reprend les travaux de Faraday, Ampère, Ørsted et leurs contemporains pour échafauder un système de quatre équations, reliant charge électrique, courant électrique et champ magnétique : les célèbres équations de Maxwell. On y associe aujourd’hui le nom des pionniers qui y ont contribué : équations de MaxwellGauss, Maxwell-Thomson, Maxwell-Faraday et Maxwell-Ampère. Les deux premières équations reprennent les travaux du physicien allemand Carl Friedrich Gauss. La première statue que le champ électrique autour d’une charge électrique statique croît de façon directement proportionnelle à la charge en question. La seconde équation, dite de Maxwell-Thomson, précise que si le champ électrique « net » autour d’un tel point a une valeur non nulle, représentée symboliquement par des flèches partant radialement du point dans toutes les directions, le champ magnétique « net » autour d’un tel point est, quant à lui, nul. En d’autres termes, alors qu’il existe des charges électriques isolées (« monopoles »), les pôles magnétiques ne peuvent exister que par paires (« dipôles »), avec un champ magnétique courant de l’un à l’autre. Notre expérience courante nous le confirme : les aimants ont toujours un pôle « nord » et un pôle « sud ». La troisième équation de Maxwell découle de la découverte de Faraday que le champ électrique autour d’un point (ou le courant circulant dans un circuit) peut être causé par le taux de changement, en fonction du temps, d’un champ magnétique. Quant à la quatrième équation, dite de Maxwell-Ampère, elle statue que le champ magnétique autour d’un point est défini par le courant en ce point, mais intègre aussi, conformément à la

«

Il m’a été donné de découvrir un lien direct entre magnétisme et lumière, ainsi qu’entre électricité et lumière, et le champ ainsi ouvert est si vaste et, me semble-t-il, si fertile. Michael Faraday

»

1835

1861

1864

Gauss définit le champ électrique et le champ magnétique autour de charges électriques statiques

Maxwell formule ses quatre équations reliant électricité et magnétisme

Maxwell déduit de sa théorie l’existence d’ondes électromagnétiques

17

18

50 clés pour comprendre les grandes idées de la science troisième équation, la contribution supplémentaire à ce champ magnétique de toute variation d’un champ électrique à proximité. Cette mise en évidence que non seulement les variations temporelles d’un champ électrique peuvent créer un champ magnétique, mais aussi que les variations d’un champ magnétique peuvent créer un champ électrique, a mené à une autre découverte fondamentale. Maxwell a également démontré qu’il est possible pour une paire de champs électrique et magnétique, si elle varie périodiquement, de coexister dans le vide, en l’absence de charges ou de courants électriques. L’amplitude de tels champs croît et décroît de façon rythmique, leurs oscillations étant liées entre elles par la troisième et la quatrième équation. Ayant ainsi mis en évidence l’existence d’ondes électromagnétiques, Maxwell s’est attaché à calculer leur vitesse. Pour leur déplacement dans le vide, il a trouvé une valeur extrêmement proche de celle de la lumière (qui est de 299 792 458 mètres par seconde, d’après les mesures actuelles). Sa conclusion, qu’il publie en 1864, est simple : la lumière est elle-même une onde électromagnétique.

Ondes positives La lumière visible a une longueur d’onde comprise entre 380 et 760 nanomètres (millionièmes de millimètre). Or la théorie de Maxwell prévoyait l’existence d’ondes de toutes les longueurs possibles. Certaines étaient déjà connues, comme l’infrarouge et l’ultraviolet, d’autres restaient à découvrir. En 1888, le physicien allemand Heinrich Hertz utilisa un instrument inspiré de la théorie de Maxwell pour générer et détecter des ondes électromagnétiques de longueurs d’onde comprises entre un millimètre et plusieurs kilomètres. Ainsi furent découvertes les ondes radio.

+–

Interrupteur

Pile électrique

Anneau de fer avec deux bobines de fil

Dans son expérience de 1831, Michael Faraday démontre que le courant d’une pile, passant dans la bobine de gauche, induit un bref courant dans le circuit de droite. Mesure du courant

L’électromagnétisme Tout comme la mécanique de Newton, la théorie classique de l’électromagnétisme échafaudée par Maxwell fut dépassée au début du XXe siècle par une approche plus complète (voir page 36). Mais les équations de Maxwell n’en demeurent pas moins une véritable révolution. Elles ont introduit en physique le concept de champs de forces, et annoncent celui d’une grande unification qui vise à intégrer toutes les forces fondamentales de la nature en une seule « théorie du tout » – véritable Graal poursuivi par les physiciens aujourd’hui.

James Clerk Maxwell (1831-1879) James Clerk Maxwell est né à Édimbourg en Écosse en 1831. Reconnaissant son talent et sa curiosité, sa mère prend en charge son éducation jusqu’à l’âge de huit ans, lorsqu’il intègre la prestigieuse Académie d’Édimbourg. D’abord moqué par ses camarades de classe, il gagne des prix dès l’âge de 13 ans. L’année suivante, il publie sa première communication scientifique à la Société Royale d’Édimbourg, sur la façon mécanique de tracer des courbes mathématiques au moyen d’une ficelle.

En 1847, Maxwell intègre l’université d’Édimbourg, où il publie deux nouveaux articles, avant de poursuivre ses études à l’université de Cambridge de 1850 à 1856. Il accepte un poste de professeur au Marischal College d’Aberdeen pendant quatre ans, avant de s’installer au King’s College de Londres où il conduit ses célèbres recherches sur l’électromagnétisme. Maxwell prend pour épouse Katherine Mary Dewar en 1858, mais le couple n’aura pas d’enfant. Il meurt en 1879 d’un cancer, à l’âge de 48 ans, et est inhumé à Galloway en Écosse.

L’idée clé L’électricité et le magnétisme sont deux faces du même phénomène

19

20

50 clés pour comprendre les grandes idées de la science

05 La thermo­

dynamique

Motivés par le besoin de rendre les machines à vapeur plus efficaces à l’heure de la révolution industrielle, les savants se sont penchés sur les interactions entre chaleur, énergie et mouvement. Aujourd’hui la thermodynamique est omniprésente, de la mise au point des moteurs aux spéculations sur le destin de l’Univers. Chaleur et mouvement sont intimement liés, comme on peut le noter en actionnant une pompe à vélo dont la température se met à grimper. La thermodynamique est la branche de la physique qui gouverne ce genre de phénomène. Elle détermine comment la chaleur, c’est-à-dire un transfert d’énergie qui se manifeste par un changement de température, peut être convertie en « travail » : le terme consacré en physique pour représenter un mouvement mécanique utile. Lorsque vous actionnez une pompe à vélo, vous comprimez mécaniquement l’air qui se trouve à l’intérieur, un effort qui est converti en chaleur et augmente sa température. Un atomiseur opère de façon inverse : son énergie interne est convertie en travail mécanique avec un refroidissement à la clé, dû à l’expansion du gaz. La science de la thermodynamique est née à la fin du XVIIe siècle, lorsque les Britanniques Robert Hooke et Robert Boyle d’une part, et l’Allemand Otto von Guericke de l’autre, ont conçu des pompes à air. Leur étude a conduit Hooke et Boyle à découvrir une loi simple qui gouverne le comportement d’un gaz, à savoir que sa pression est inversement proportionnelle à son volume : réduisez l’un des deux, et l’autre augmentera en contrepartie.

L’ère de la vapeur En 1697, l’inventeur anglais Thomas Savery s’inspire de ces études pour construire la première machine à vapeur opérationnelle, qui utilise l’expansion calorifique de la vapeur pour entraîner un piston. En 1712, son concitoyen Thomas Newcomen met au point une pompe à eau qui

chronologie 1698

1738

1824

Thomas Savery dépose le brevet d’une machine à vapeur

Daniel Bernoulli publie les fondements de la théorie cinétique des gaz

Sadi Carnot publie ses travaux sur l’efficacité énergétique de la machine à vapeur

La thermodynamique fonctionne sur le même principe. Durant la seconde moitié du XVIIIe siècle, l’Écossais James Watt y apporte d’autres modifications, mais même sa machine ne convertit que 3 % de l’énergie calorifique en travail utile. C’est l’ingénieur français Sadi Carnot qui en découvre la raison. En 1824, il postule que c’est la différence de température qui importe : le piston se déplace parce que le gaz chaud d’un côté est en expansion par rapport à l’air froid de l’autre. En augmentant la différence de température, on augmente l’efficacité de la machine. Grâce à cette découverte, l’efficacité des machines à vapeur passe de 3 % à près de 30 %. Mais qu’en est-il de la part d’énergie qui n’est pas transformée en travail utile ? En 1850, le physicien Rudolf Clausius invente le concept d’entropie pour décrire ce qui est essentiellement de la chaleur résiduelle. On peut considérer l’entropie comme étant le « degré de désordre » d’un moteur thermique. Une faible entropie signifie que le moteur est bien ordonné, avec une bonne différence de température entre côté chaud et côté froid. À l’inverse, une entropie élevée signifie que la machine exploite une différence de température minime, procurant peu de travail utile.

L’état de désordre Clausius découvre également que cette entropie ne peut qu’augmenter. Placez un objet chaud et un objet froid côte à côte (un état de basse entropie au départ), et la chaleur circulera de l’un à l’autre jusqu’à ce que les deux corps partagent la même température (état de haute entropie). Cette augmentation inévitable de l’entropie constitue la deuxième loi de la thermodynamique. Prenez comme autre exemple une boîte divisée en deux par une paroi, avec de chaque côté un gaz différent. Il s’agit là d’un système ordonné, de basse entropie. Ôtez la paroi et les deux gaz diffusent l’un dans l’autre jusqu’à se mélanger complètement : le système est alors désordonné et son entropie élevée. La tendance inverse, où

Dans la machine de Watt, la vapeur de la chaudière pousse le piston vers le haut. Au sommet du cycle, la soupape de détente s’ouvre et laisse passer la vapeur chaude dans le condensateur où elle est réfrigérée par de l’eau froide. La pression atmosphérique refoule le piston vers le bas, et le cycle recommence.

1850

1906-1912

1935

Clausius énonce la première et la deuxième loi de la thermodynamique

Walther Nersnt formule la troisième loi de la thermodynamique

Apparaît le concept d’une loi « zéro » de la thermodynamique

21

22

50 clés pour comprendre les grandes idées de la science un mélange de deux gaz se sépare spontanément en ses deux composantes, est virtuellement impossible. Il est toutefois possible de violer cette seconde loi à l’échelle locale. Prenez l’exemple d’une voiture où il fait aussi chaud à l’intérieur qu’à l’extérieur : un état de haute entropie. Mettre en route le climatiseur établit une différence de température, donc une réduction de l’entropie. Mais le moteur de la voiture effectue un travail pour alimenter le climatiseur, qui se traduit de son côté par une hausse d’entropie… supérieure à la baisse d’entropie générée à l’intérieur de la voiture. Le bilan est que l’entropie de l’Univers augmente : la seconde loi reste donc inviolée.

Respecter la loi La thermodynamique possède au total quatre lois. La première stipule que la variation d’énergie d’un système fermé est égale à la chaleur qui y pénètre moins le travail qui en ressort. Une autre stipule qu’une température de zéro kelvin correspond à une entropie également nulle. Quant au principe « zéro », il statue que si un corps « A » est en équilibre thermodynamique avec un corps « B » (pas de flux de chaleur entre les deux), et que le corps « A » est en équilibre avec un corps « C », alors « B » doit également être en équilibre avec « C ». Développée pour le compte de la mécanique, la thermodynamique s’applique également à des phénomènes aussi variés que le transfert de chaleur lors de réactions chimiques, ou le comportement des systèmes climatiques. L’entropie joue également un grand rôle en statistique et en théorie de l’information (voir page 52). L’astrophysicien anglais Stephen Hawking et ses confrères s’en sont inspirés pour étudier la physique des trous noirs (voir page 188), les décrivant au moyen de quatre lois mathématiques qui reflètent étroitement les principes de la thermodynamique. Quant à la hausse inexorable de l’entropie à l’échelle cosmique (voir page 184), elle soutient l’un des scénarios probables concernant le destin de l’Univers.

«

En ce monde rien n’est certain, à part la mort, les impôts et la seconde loi de la thermodynamique. Seth Lloyd

»

La thermodynamique

Que le monde est petit La thermodynamique classique décrit le comportement de la matière « macroscopique », au moyen de quantités mesurables comme la température et la pression. En 1738, le mathématicien suisse Daniel Bernoulli se pencha sur des unités beaucoup plus petites, comme les molécules et les atomes. Il développa une théorie cinétique de la matière : l’idée que la température d’un gaz est due aux mouvements individuels de ses particules constituantes. La sensation physique de chaleur que l’on ressent n’est autre que le choc de ces particules contre la peau. Les particules d’un gaz ne se déplacent pas toutes à la même vitesse. L’Écossais James Clerk Maxwell et l’Autrichien Ludwig Boltzmann établirent une distribution

statistique, donnant le pourcentage de particules se déplaçant dans chaque tranche de vitesses pour une température donnée. Cette « mécanique statistique » applique les lois de la statistique et des probabilités à la dimension microphysique de la matière pour prévoir son comportement macrophysique. Au cours du XXe siècle, la mécanique statistique fit un nouveau bond en avant en incorporant les lois de la mécanique quantique qui gouvernent le comportement des particules subatomiques (voir page 32). Les lois de la probabilité prennent une tournure très différente à cette échelle – un comportement quantique qui apporte à la thermodynamique un éclairage nouveau.

L’idée clé La chaleur obéit à quatre principes fondamentaux

23

24

50 clés pour comprendre les grandes idées de la science

06 La relativité restreinte

En 1905, Albert Einstein change à jamais notre perception du monde en reformulant les lois séculaires qui décrivaient jusqu’alors le mouvement des corps. Sa théorie de la relativité restreinte prédit qu’à des vitesses proches de celle de la lumière, notre perception de la réalité est déformée et l’écoulement du temps est ralenti. La relativité restreinte d’Albert Einstein n’est pas à proprement parler une idée nouvelle. Dès le début du XVIIe siècle, le savant florentin Galilée établit que le mouvement apparent d’un corps dépend fondamentalement de celui de l’observateur. Si vous conduisez une voiture à 50 km/h, alors le trafic venant dans l’autre sens à la même vitesse vous paraîtra, de votre point de vue, rouler à 100 km/h. Inversement, si vous roulez à côté d’une autre voiture et à la même vitesse qu’elle, elle vous paraîtra stationnaire. Dans ce cadre habituel, Galilée a formulé des lois mathématiques simples, d’addition et de soustraction, qui permettent de calculer la vitesse relative d’un mobile par rapport à un autre. À la fin du XIXe siècle, le jeune Albert Einstein s’est demandé toutefois ce qu’il adviendrait si l’un de ces corps en mouvement était un rayon de lumière. À quoi ressemblerait ce rayon si un observateur pouvait se déplacer à ses côtés, à la même vitesse ? Non seulement Einstein ne possédait pas de véhicule lui permettant de voyager à la vitesse requise de 300 000 kilomètres par seconde, mais il réalisa qu’un autre problème se posait. D’après la théorie de l’électromagnétisme énoncée par Maxwell (voir page 16), la vitesse de la lumière dans le vide était une constante universelle : elle devait être la même pour tous les observateurs, qu’ils soient stationnaires ou en mouvement. En particulier, la loi de Galilée ne pouvait s’appliquer à des vitesses approchant celle de la lumière, car l’addition de leurs vitesses relatives risquait de dépasser cette dernière.

chronologie 1632

1818

1864

Le physicien florentin Galilée propose une première ébauche de la relativité des vitesses

Le physicien français Augustin Fresnel développe une théorie ondulatoire de la lumière

James Clerk Maxwell démontre que la vitesse de la lumière est une constante

La relativité restreinte Le mirage de l’éther Depuis que le Français Augustin Fresnel avait établi la nature ondulatoire de la lumière au début du XIXe siècle, les physiciens s’étaient convaincus que cette ondulation devait nécessairement s’effectuer dans un milieu, tout comme les vagues se transmettent dans l’eau. Mais ce milieu, baptisé « éther luminifère », se révélait impossible à détecter. Ainsi, en 1887, les physiciens américains Albert Michelson et Edward Morley conçurent une expérience pour détecter le mouvement de la Terre à travers l’éther : l’absence de toute vitesse mesurable les laissa perplexes. Le Néerlandais Hendrik Lorentz parvint à justifier le résultat en postulant que les objets en mouvement se contractaient légèrement dans le sens de leur mouvement : il exprima même ce concept original sous la forme d’une équation. Nous savons aujourd’hui que l’éther est une idée fausse : une onde électromagnétique comme la lumière se déplace dans le vide sans besoin d’un milieu. L’échec de l’expérience de Michelson et Morley n’est donc pas étonnant ; l’équation avancée par Lorentz pour l’expliquer eut en revanche une portée insoupçonnée : c’était exactement la formule dont Einstein avait besoin pour effacer la divergence entre les vitesses relatives de Galilée et

Albert Einstein (1879-1955) Né à Ulm en Allemagne le 14 mars 1879, Albert Einstein émigre en Suisse en 1896 pour éviter le service militaire et étudie les mathématiques et la physique à l’École polytechnique de Zurich. Il prend un emploi à l’Office des Brevets de Berne, ce qui lui laisse du temps pour poursuivre ses recherches, notamment sur la relativité restreinte. Sa théorie est publiée en 1905, qu’il complète par la théorie de la relativité générale en 1915. Einstein reçoit le prix Nobel de physique en 1921, mais pour ses travaux sur l’effet

photoélectrique (la génération d’électricité par la lumière) plutôt que pour la relativité. À la fin de sa carrière, il s’évertue en vain à trouver une théorie unifiée de toutes les forces de la nature (voir page 48). Albert Einstein a eu trois enfants issus de deux mariages, et on lui prête plusieurs autres liaisons. Du fait de ses origines juives, il a émigré aux États-Unis en 1933 pour fuir la montée du fascisme en Europe, et s’est établi à l’université de Princeton où il est mort en 1955, à l’âge de 76 ans.

1887

1895

1905

Michelson et Morley ne parviennent pas à détecter le milieu qui sert de support à la lumière

Le Néerlandais Hendrik Lorentz propose une équation de contraction de la longueur

Albert Einstein publie sa théorie de la relativité restreinte

25

26

50 clés pour comprendre les grandes idées de la science

Plus vite que la lumière ? Einstein a montré qu’à mesure qu’un objet accélère, sa masse effective augmente. Il en découle une augmentation de son inertie, c’est-à-dire de sa résistance au changement de mouvement, de sorte qu’il est de plus en plus difficile de l’accélérer davantage. À la vitesse de la lumière, sa masse effective est infinie : il est donc impossible pour un objet massif d’atteindre une telle vitesse. La relativité restreinte impose ainsi une limitation de vitesse cosmique. En outre, à la vitesse de la lumière, le temps s’arrête littéralement. Si on pouvait aller plus vite que la lumière, le temps s’écoulerait en sens inverse, mais comme une telle vitesse est impossible, voyager dans le temps l’est aussi.

la constance de la vitesse de la lumière, en redimensionnant les 2

2

premières par un facteur 1 − v / c où v est la vitesse de l’objet et c la vitesse de la lumière. Dans ce nouveau cadre, on retrouve les équations de Galilée pour de faibles vitesses (v négligeable par rapport à c), mais à mesure que v tend vers c, les résultats divergent. E = mc2 Comme Lorentz l’avait pressenti, la théorie d’Einstein implique que les objets très rapides se contractent dans le sens de leur mouvement. Par exemple, un vaisseau spatial voyageant à 86 % de la vitesse de la lumière verrait sa longueur réduite de moitié. Mais il y a plus étrange encore. La relativité restreinte traite l’espace et le temps de la même façon : ce dernier est donc également affecté par un facteur

1 − v 2 /c 2 . À bord du même vaisseau spatial, voyageant à 86 % de la vitesse de la lumière, une horloge égraine le temps deux fois plus lentement que la même horloge au repos. Si le vaisseau quittait la Terre et voyageait à cette vitesse pendant toute une année (mesurée par l’horloge de bord), les astronautes à leur retour constateraient que deux années se seraient écoulées sur la Terre « au repos » : c’est ce qu’on appelle la dilatation du temps. Ces étranges prévisions sont bel et bien observées, lorsque des particules subatomiques sont accélérées à des vitesses proches de celle de la lumière et entrent en collision, créant une gerbe de particules exotiques (voir page 40). Nombre de celles-ci sont instables et se désintègrent à un rythme connu des physiciens. Mais aux grandes vitesses atteintes dans ces expériences, le rythme de désintégration se trouve étiré dans le temps, d’un facteur qui correspond exactement à ce que prévoit la dilatation du temps. Cette unité de l’espace-temps a une autre conséquence importante. Les objets en mouvement dans l’espace ont une propriété appelée énergie cinétique : l’énergie qu’ils possèdent en vertu de ce mouvement. Lorsque Einstein a étendu ce concept à

La relativité restreinte l’espace-temps à quatre dimensions, il a trouvé que même les objets au repos possèdent une énergie, du seul fait de leur mouvement à travers le temps. Appelée « énergie de la masse au repos », elle est donnée par la célèbre équation E = mc2, soit la masse multipliée par la vitesse de la lumière au carré.

«

Il était une bergère, bien plus rapide que la lumière, partie un jour sur son relatif parcours, et rentrée juste à temps le jour d’avant. librement inspiré de A.H. Reginald Buller

»

Lorsque de la masse est perdue, de l’énergie est libérée, conformément à cette équation d’Einstein. Par exemple, si on brûle un bout de bois, en mesurant la différence de masse entre le bois au départ, et les cendres et les gaz à l’arrivée, et en la multipliant par c2, on obtient l’énergie libérée.

La fission À la fin des années 1930, les physiciens ont noté qu’en scindant le lourd noyau d’un atome d’uranium, on obtenait deux noyaux plus petits dont la somme des masses était inférieure à celle du noyau d’uranium initial. Si tous les noyaux d’un bloc d’uranium étaient scindés de la sorte, une énergie colossale pouvait donc être libérée – le principe de l’énergie nucléaire (voir page 44). Aujourd’hui, la relativité restreinte continue d’animer la recherche fondamentale à toutes les échelles, du monde infiniment petit des particules subatomiques au monde infiniment grand de l’Univers.

L’idée clé Notre perception de la réalité dépend de notre vitesse de déplacement

27

28

50 clés pour comprendre les grandes idées de la science

07 La relativité générale

Au bout de dix ans de recherches, Einstein réussit à incorporer la force de gravité dans sa théorie de la relativité. Appelé relativité générale, ce nouveau modèle revient à courber l’espace-temps : il explique les anomalies observées dans la loi de gravitation de Newton et s’avère indispensable à la précision des systèmes GPS. La théorie de la relativité restreinte d’Einstein (voir page 24) était déjà un exploit en termes de créativité et d’imagination. Mais elle était incomplète, car elle ne s’appliquait qu’à des objets se déplaçant à vitesse constante. Albert Einstein a donc cherché à l’étendre à tous les cas de figure, à savoir aux objets subissant des accélérations, comme ceux qui tombent par exemple dans un champ de gravité. La meilleure théorie de la gravitation à l’époque, celle de Newton, remontait à 1687 (voir page 12). Mais son modèle était en contradiction avec les lois de la relativité, puisqu’il sous-entendait que la force gravitationnelle se propage instantanément à travers l’espace, alors que la relativité postule que rien ne peut voyager plus vite que la lumière.

Accélérons En réfléchissant aux expériences de Galilée, Einstein se demanda si l’action de la gravité ne pouvait pas simplement se résumer à un taux d’accélération (Galilée avait lâché du haut de la tour de Pise des boulets de masses différentes et observé qu’ils accéléraient tous pareillement). Einstein imagina une expérience de pensée qui consistait à tirer des balles à l’intérieur d’une chambre close. En observant la trajectoire courbe des balles, il n’y avait aucun moyen de savoir si ces courbes étaient dues à la gravité, ou si la chambre n’était soumise à aucun champ de gravité, mais accélérait au contraire vers le haut : les effets observés seraient identiques. Einstein avoua plus tard que cette réalisation fut « l’idée la plus heureuse de [sa] vie ».

chronologie 1687

1854

1905

Issac Newton publie sa loi de la gravitation dans son livre Principia

Le mathématicien allemand Bernhard Riemann met au point la géométrie différentielle

La relativité restreinte d’Einstein traite des corps voyageant à des vitesses proches de celle de la lumière

La relativité générale Le physicien enchaîna une autre expérience de pensée pour saisir le rapport entre accélération et courbure. Il imagina un disque en rotation rapide : un tel mouvement circulaire implique une accélération dirigée vers le centre du cercle. Or, à cause de la « contraction de la longueur » qu’impose la vitesse dans le cadre de la relativité restreinte (voir page 26), la circonférence du disque doit diminuer : pour garder un rayon constant, le disque doit donc se déformer et prendre la forme d’un bol.

Équations de champ Einstein était convaincu qu’il pouvait expliquer la gravitation en ajoutant cette courbure à l’espace-temps à quatre dimensions de la relativité restreinte. La question était de savoir comment exactement cette courbure était déterminée par le contenu de l’espace. Cette question occupa son esprit jusqu’en 1915. Einstein mit au point une « équation de champ », faisant correspondre d’un côté la mesure de la courbure, et de l’autre les « termes sources ». Dans la gravitation newtonienne, ces termes sources se résument simplement à la masse. Mais en relativité restreinte, énergie et masse sont équivalentes (E = mc2), de sorte qu’elles devaient toutes deux trouver place dans une théorie relativiste de la gravitation. De fait, Einstein trouva que masse, énergie, pression et quantité de mouvement étaient toutes impliquées. Cette équation de champ permet de déterminer combien l’espace et le temps sont courbés par la distribution de la matière. À partir de là, on peut calculer la trajectoire d’objets en mouvement, un peu comme la trajectoire d’une bille sur une surface ondulée faite de bosses et de creux. La confirmation qu’Einstein avait bel et bien trouvé l’équation de champ n’allait pas tarder à suivre. D’après la relativité générale, la gravité courbe non seulement la trajectoire des objets, mais aussi celle de la lumière. Einstein calcula que la lumière d’une étoile passant à proximité du Soleil devait être infléchie d’un angle de 0,0005 degré. Mais comment observer un tel rayon lumineux dans l’éclat aveuglant du Soleil ? L’astronome britannique Arthur

«

tenter d’enseigner à votre chat la relativité générale est une entreprise vouée à l’échec. Brian Greene

»

1915

1919

2016

La relativité générale d’Einstein incorpore dans la théorie restreinte l’effet de la gravitation

Arthur Eddington mesure la courbure de la lumière à proximité du Soleil, confirmant la relativité générale

Les chercheurs de l’observatoire LIGO annoncent la découverte d’ondes gravitationnelles

29

30

50 clés pour comprendre les grandes idées de la science Eddington trouva la solution : il fallait le faire lors d’une éclipse totale de Soleil. En 1919, il rallia la petite île de Principe, au large de l’Afrique, d’où l’on pouvait observer une éclipse : ses observations confirmèrent les prévisions de la relativité générale. De nos jours, on peut observer la courbure de la lumière par gravitation à une échelle plus grande encore. Lorsqu’une galaxie lointaine est alignée avec une galaxie plus proche (ou un amas de galaxies), son image se trouve « grossie » par un effet de lentille gravitationnelle, voire même multipliée en plusieurs images. Le premier phénomène de ce genre fut observé en 1979 dans un alignement de galaxies situé dans la constellation de la Grande Ourse.

Mercure prend du retard La relativité générale a également permis d’expliquer un vieux mystère. En 1859, l’astronome français Urbain Le Verrier s’était aperçu que l’orbite de la planète Mercure n’était pas conforme aux prévisions, notamment la précession des équinoxes. La valeur observée par Le Verrier pour la dérive de cet axe orbital était légèrement différente de ce que prévoyait la mécanique newtonienne. Les équations de la relativité générale permirent à Einstein d’expliquer et d’effacer ce désaccord.

Calculer la courbure Pour développer sa théorie relativiste de la gravité, Einstein avait besoin d’outils mathématiques capables de quantifier la courbure de l’espace-temps à quatre dimensions. Heureusement pour lui, le mathématicien allemand Bernhard Riemann avait développé au XIXe siècle le concept de la « géométrie différentielle » : l’extension des principes de la géométrie « plate » (cantonnée dans un espace à deux dimensions) à des espaces comprenant des dimensions supplémentaires, de courbure aléatoire. Dans un espace-temps à quatre dimensions, le système de Riemann se résume ainsi à assigner dix nombres à chaque point de l’espace, arrangés en un objet mathématique appelé « tenseur ». L’équation de champ de la relativité générale dérive les composantes d’un tel tenseur du contenu matériel de l’espace.

Mais peut-être la plus belle illustration de la relativité générale concerne notre réseau GPS. Les signaux de positionnement de ces satellites de navigation acquièrent en effet de l’énergie en tombant dans le champ gravitationnel de la Terre. Le logiciel du GPS utilise les équations mathématiques d’Einstein pour corriger ces signaux relativistes, sinon les positions annoncées par le système seraient décalées de 10 kilomètres par jour par rapport à la réalité ! Jusqu’à tout récemment, il manquait une pièce au puzzle. La relativité générale prédit que de puissantes

La relativité générale sources de gravitation qui varient dans le temps, comme deux trous noirs en orbite l’un autour de l’autre, doivent émettre des « ondes gravitationnelles ». Lors de leur passage, de telles ondes doivent causer une distorsion brève, mais mesurable, dans la distance qui sépare deux points. Il a fallu un siècle aux physiciens pour la détecter (voir encadré, ci-contre). Cette découverte a ouvert un nouveau champ d’étude de l’Univers, qui concerne notamment la physique des trous noirs (voir page 188) et le déroulement du Big Bang (voir page 172).

La chasse aux ondes gravitationnelles Le 11 février 2016, des astronomes ont annoncé la première détection d’ondes gravitationnelles. Réunis au sein du projet LIGO (Observatoire d’ondes gravitationnelles par interférométrie laser), ils ont surpris un train d’ondes gravitationnelles dans l’hémisphère sud de la voûte céleste, dû à la collision de deux trous noirs. Le signal fut détecté par deux interféromètres laser géants, en Louisiane et dans l’État de Washington. Chaque détecteur consiste en deux tunnels à angle droit (en forme de « L »), longs de quatre kilomètres, dans lesquels un faisceau de lumière dédoublé accomplit de nombreux allers-retours grâce à un système de miroirs, avant de se recombiner à la jonction du « L » pour dessiner un motif d’interférences. Le passage des ondes gravitationnelles a causé de minuscules changements dans la longueur des bras, décalant le motif d’interférences. Chaque observatoire a vu exactement le même décalage, ce qui exclut toute forme de perturbation locale.

L’idée clé La gravité est une distorsion de l’espace-temps

31

32

50 clés pour comprendre les grandes idées de la science

08 La mécanique quantique

Au cours du XIXe siècle, les physiciens se sont aperçus que quelque chose ne tournait pas rond dans les lois de la mécanique – cette branche de la science qui s’intéresse au mouvement des objets soumis à des forces. Une nouvelle théorie était nécessaire pour traiter de ce mouvement à l’échelle des atomes. Tout a commencé par une révolution dans notre conception de la lumière. Les physiciens avaient longtemps débattu la question de savoir si la lumière était une onde ou une particule. En 1803, le physicien britannique Thomas Young avait prouvé que les rayons lumineux sont bien des ondes, en démontrant que deux rayons qui se rencontrent forment des motifs d’interférence, comme deux rides qui se croisent à la surface d’un plan d’eau. Mais en 1905, Albert Einstein relance le débat en étudiant l’effet photoélectrique – la genèse d’un courant électrique dans un métal sous l’effet de la lumière.

Planck et les quanta Einstein s’est inspiré pour ce faire des travaux de son confrère allemand, le physicien Max Planck. Quelques années auparavant, celui-ci avait trouvé une relation mathématique entre la température d’un objet et la fréquence du rayonnement qu’il émet (par exemple un métal que l’on chauffe change de couleur, passant du rouge au bleu). Planck avait expliqué le phénomène en supposant que la lumière était émise en « paquets » distincts, dont l’énergie correspondait à sa fréquence multipliée par 6,63 × 10–34, un nombre aujourd’hui appelé constante de Planck. Cette équivalence était lourde de sens, mais Planck ne l’a perçue que comme un caprice supplémentaire dans le comportement de la lumière et son interaction avec la matière. Einstein, toutefois, a pris cette équivalence au pied de la lettre, interprétant les « paquets » comme étant des particules distinctes ou « quanta »

chronologie 1803

1900

1905

Thomas Young démontre que la lumière se comporte comme une onde

Max Planck explique le rayonnement en traitant la lumière comme une particule

Albert Einstein s’appuie sur la théorie de Planck pour expliquer l’effet photoélectrique

La mécanique quantique

«

de lumière. C’est ce modèle dont il se servit pour explorer l’effet photoélectrique. Le nœud du problème était d’expliquer pourquoi seule la lumière qui dépassait une certaine fréquence déclenchait un courant électrique dans un métal. Pour Einstein la réponse était désormais évidente : les quanta de lumière entraient en collision avec les électrons du métal comme dans un jeu de billard, et seuls ceux qui avaient suffisamment d’énergie pouvaient les déloger pour créer un courant – une énergie qui dépendait de la fréquence lumineuse, selon la formule de Planck. Ce dernier, d’ailleurs, n’aimait pas du tout l’idée, mais dut se rendre à l’évidence : les quanta de lumière – qui reçurent plus tard le nom de « photons » – furent découverts de façon expérimentale par l’Américain Arthur Compton en 1923.

Quiconque n’est pas choqué par la théorie quantique ne l’a pas bien comprise. Niels Bohr

»

Dualité onde-particule

Einstein et Compton avaient prouvé que la lumière était faite de particules, alors que Thomas Young, un siècle auparavant, avait établi qu’elle se comportait comme une onde. Pour se sortir du paradoxe, il fallait supposer que les deux approches étaient justes. C’est ce que démontra Louis de Broglie, en formulant en 1924 une équation reliant la longueur d’onde de la lumière et la quantité de mouvement de ses photons. Puis il réalisa qu’en retournant l’équation, on pouvait assigner des longueurs d’onde à des particules, par exemple aux protons et aux électrons de l’atome (voir page 68). L’hypothèse de De Broglie – la « dualité onde-particule » – fut testée avec succès en 1927 par Clinton Davisson et Lester Germer. Les chercheurs tirèrent un faisceau d’électrons sur une cible cristalline en nickel, en ayant calculé que la longueur d’onde des électrons utilisés, déduite de l’équation de De Broglie, serait semblable à l’écartement des atomes dans le cristal de la cible. Or lorsque des ondes passent à travers un réseau aux espacements comparables à leur longueur d’onde, elles subissent une diffraction, se dispersant à sa sortie. Ce fut bien le résultat observé : les chercheurs virent l’étroit faisceau d’électrons s’épanouir en un beau motif de diffraction en traversant la cible, se comportant comme des ondes, tout comme De Broglie l’avait prédit.

1923

1924

1926

Les photons sont découverts par le physicien américain Arthur Compton

Louis de Broglie démontre que les particules se comportent aussi comme des ondes

Schrödinger dérive des travaux de De Broglie une fonction d’onde pour les particules

33

34

50 clés pour comprendre les grandes idées de la science

Le chat de Schrödinger Source et détecteur La théorie de la mécanique quantique avance que les particules subatomiques de particules sont décrites par une fonction d’onde qui donne la probabilité de trouver une particule en tout point de l’espace. Quand on effectue une mesure, la fonction d’onde Diffuseur s’effondre et la particule est observée dans Boîte scellée de poison une certaine position. Ce compromis est devenu connu sous le nom « d’interprétation de Copenhague », suite aux débats des physiciens dans la capitale danoise en 1927. Erwin Schrödinger ne s’est jamais résigné à cette vision du monde, où l’état d’une particule dépend du fait qu’on le mesure ou non. Pour souligner son absurdité, il a proposé l’expérience de pensée suivante. Enfermez un chat dans une boîte avec une fiole de poison dont l’ouverture est déclenchée par un détecteur de particules. Si la particule est détectée, le poison se répand et le chat meurt, sinon il continue à vivre. Parce que la détection d’une particule est un processus quantique gouverné par la loi des probabilités, alors, selon l’interprétation de Copenhague, le chat doit être dans les deux états – mort et vif – jusqu’à ce que l’on ouvre la boîte pour effectuer une observation. Aujourd’hui les physiciens délaissent cet effondrement de la fonction en faveur de la notion de « décohérence », où la transition d’un comportement d’onde à celui de particule est due à l’interaction du fragile système quantique avec son environnement. Dans le cas du chat de Schrödinger, l’interaction de la particule avec le détecteur causera cette décohérence, à savoir que le chat est bien mort ou vif, avant qu’on n’ouvre la boîte.

La correspondance entre ondes et particules devint plus claire lorsque le physicien autrichien Erwin Schrödinger se pencha à son tour sur la question. Il reprit la relation classique entre énergie et quantité de mouvement de la mécanique newtonienne et remplaça les termes par leur nouvelle expression en tant qu’ondes, obtenue des équations de Planck et De Broglie : il obtint pour résultat un objet mathématique appelé fonction d’onde. L’équation de Schrödinger prévoyait la structure de l’atome d’hydrogène, telle qu’elle est observée, ce qu’aucune autre théorie n’était parvenue à faire. Mais le physicien restait perplexe quant à la signification profonde de son équation.

La mécanique quantique Cette étrange fonction d’onde permettait de déterminer des quantités physiques, mais que représentait-elle exactement ?

La grande incertitude Ce fut le physicien allemand Max Born qui trouva la clé du mystère. L’équation de Schrödinger pour une particule prédit la façon dont la fonction d’onde de la particule varie suivant sa position, et Born réalisa qu’en élevant cette fonction au carré, on obtenait la probabilité de trouver la particule en un point donné de l’espace. L’équation signifiait donc qu’il n’était pas possible de prévoir la position d’une particule avec certitude, comme c’était le cas en mécanique newtonienne : la théorie quantique donnait seulement la probabilité de la trouver à un endroit, quand on y effectuait une mesure. C’est ainsi qu’un électron pouvait être une particule et une onde à la fois. La probabilité de la présence de l’électron a l’allure d’une onde, et seulement lorsqu’on effectue une mesure peut-on espérer voir l’électron comme une particule douée d’une position dans l’espace. Cet indéterminisme ne plut pas beaucoup à Einstein, auteur de la phrase célèbre : « Dieu ne joue pas aux dés avec l’Univers ». Toutefois, la mécanique quantique n’a jamais été prise en défaut, et ses applications ont permis de grandes percées technologiques comme les lasers, les diodes électroluminescentes (LED), l’imagerie médicale, le cryptage des données et l’énergie nucléaire.

L’idée clé Quand vous passez de la pomme à l’atome, laissez tomber Newton

35

36

50 clés pour comprendre les grandes idées de la science

09 Les champs quantiques

En appliquant la relativité d’Einstein à la mécanique quantique, on obtient un modèle quantique du comportement des « champs » : grandeurs qui expliquent comment les forces de la nature affectent la matière. La théorie quantique du champ électromagnétique est l’une des théories les plus réussies de la physique moderne. Malgré son succès (voir page 32), la théorie de la mécanique quantique tarda à intégrer l’autre révolution de la physique au XXe siècle : la relativité. Celle-ci stipule que les lois du mouvement pour des objets voyageant à des vitesses proches de celle de la lumière sont très différentes des lois classiques. Et de fait, la mécanique quantique était incapable de décrire le mouvement des particules à très haute vitesse. Le physicien britannique Paul Dirac remit les pendules à l’heure en 1928, en reformulant la fonction d’onde de Schrödinger pour une particule quantique, la rendant cohérente avec la relativité restreinte. Ainsi naquit l’équation de Dirac, une fonction d’onde quantique adaptée au mouvement des électrons – ces particules qui orbitent autour des noyaux atomiques.

L’antimatière L’équation de Dirac cachait en fait quelques révélations supplémentaires. Elle expliquait notamment le concept de « spin quantique » : un genre d’analogue quantique de la rotation classique, introduite par le physicien suisse Wolfgang Pauli pour expliquer le comportement des électrons. Non seulement l’équation de Dirac offrait une solution mathématique pour décrire ce comportement, mais elle offrait une seconde solution correspondant à une particule de même masse que l’électron mais de charge électrique opposée, positive. Cette particule, baptisée positron et premier exemple d’antimatière, fut détectée par le physicien américain Carl Anderson en 1932.

chronologie 1928

1932

1948

Paul Dirac développe la première théorie unifiant mécanique quantique et relativité restreinte

Carl Anderson découvre l’antimatière, prédite par les équations de Dirac

Feynman, Schwinger et Tomonaga achèvent la théorie de l’électrodynamique quantique

Les champs quantiques Les champs de force En sus de décrire le mouvement des électrons, l’équation de Dirac décrivait aussi leurs interactions, dues à leurs charges électriques. Jusqu’alors, cette branche de la physique dépendait de la théorie classique de l’électromagnétisme de James Clerk Maxwell, qui explique comment les charges électriques créent des champs électriques, et comment d’autres charges se déplacent sous l’action de ces champs. L’équation de Dirac permettait de remplacer l’électromagnétisme classique par une théorie quantique des champs.

Le principe d’incertitude de Heisenberg

Le principe d’incertitude est un aspect fondamental de la théorie quantique, concernant la précision avec laquelle on peut connaître les propriétés des particules quantiques. Il a été énoncé en 1927 par le physicien allemand Werner Heisenberg. Le principe stipule que l’incertitude de la position d’une particule multipliée par l’incertitude de sa quantité de mouvement est toujours plus grande ou égale à la constante de Planck (6,63 × 10–34, voir page 32) divisée par 4π. Donc, si on réduit l’incertitude de l’une des quantités, elle augmente nécessairement pour l’autre. Le principe d’incertitude montre aussi que l’énergie et le temps ont une relation semblable à celle entre position et quantité de mouvement, expliquant création et annihilation de particules dans la théorie quantique des champs.

Planck et Einstein (voir page 32) avaient déjà établi que le photon était une particule associée aux ondes électromagnétiques. Les travaux de Dirac permettaient de préciser que chaque fois qu’une particule chargée interagit avec un champ électromagnétique, elle le fait à travers l’échange de photons. Les photons sont ainsi les « transmetteurs de force » du champ électromagnétique. Ils peuvent surgir à tout moment du champ ambiant – paires de « photons virtuels » qui ont le droit d’exister quelques courts instants, en accord avec le principe d’incertitude d’Heisenberg (voir encadré, ci-dessus). Ce principe permet en effet au champ d’emprunter l’énergie nécessaire pour créer une paire de particules, à condition que la paire s’annihile et rende l’énergie peu de temps après. Plus l’emprunt d’énergie est grand, plus le temps de restitution est court.

1954

1972

1979

Yang et Mills développent une théorie de jauge appliquée aux champs quantiques

Fritzsch, Gell-Mann et Leutwyler développent la chromodynamique quantique

Glashow, Salam et Weiberg remportent le prix Nobel 1979 pour leur modèle de l’interaction électrofaible

37

38

50 clés pour comprendre les grandes idées de la science

«

tout ce que l’on peut faire en physique classique, on le fait encore mieux en physique quantique. Daniel Kleppner

Des infinis gênants L’équation

de Dirac était toutefois entachée par deux problèmes agaçants. Pour certaines quantités physiques elle donnait des résultats absurdes, car infinis. Et elle ne parvenait pas à prédire la petite différence observée entre deux niveaux d’énergie de l’atome d’hydrogène, appelée décalage de Lamb. Il fallut attendre les années 1940 pour que ces deux problèmes soient résolus. Dans le cas des solutions infinies, les physiciens Julian Schwinger et Sin-Itiro Tomonaga proposèrent une technique appelée « renormalisation ». En théorie quantique, il est souvent impossible de résoudre exactement une équation mathématique : les physiciens proposèrent de la développer en une série de termes de complexité croissante dont la somme est une approximation du résultat recherché, puis d’éliminer tous les termes de la série qui font intervenir une valeur infinie. Cela paraît cavalier à première vue, mais il y a une explication physique à cette manœuvre : les paramètres d’une théorie dépendent de leur observation et du niveau d’énergie utilisé pour ce faire.

»

Quant au décalage de Lamb, il fut résolu par le physicien américain Richard Feynman. Partant du principe qu’une particule allant d’un point à un autre peut emprunter un grand nombre de trajectoires possibles, calculer la probabilité de son déplacement revient à additionner les probabilités qu’elle prenne chaque trajectoire différente – une nouvelle approche quantique appelée « intégrale de chemin ».

Les diagrammes de Feynman Feynman compléta son approche par une représentation visuelle : un diagramme pour chaque chemin que pouvait prendre une interaction quantique. Chacun de ces diagrammes illustre ainsi une contribution mathématique particulière à ajouter à l’intégrale de chemin. Lorsque Feynman appliqua cette approche à l’électromagnétisme, le décalage de Lamb fit son apparition, avec une valeur calculée correspondant exactement à la valeur observée. La nouvelle théorie fut baptisée électrodynamique quantique et connut un tel succès – ses prévisions concordant avec les observations avec une précision de 11 décimales – qu’elle valut à Feynman, Schwinger et Tomonaga le prix Nobel de physique en 1965. Les autres forces de la nature peuvent aussi être décrites par des modèles quantiques. Ainsi la chromodynamique quantique, introduite en 1972, décrit la force nucléaire forte (celle qui lie les quarks pour former protons et neutrons). Le modèle de l’interaction électrofaible fut dérivé dès 1967 en combinant l’électrodynamique quantique avec la force nucléaire faible (responsable de

Les champs quantiques la désintégration radioactive, voir page 76). Des expériences ont validé ces deux modèles. On cherche désormais à combiner l’interaction faible avec la chromodynamique pour obtenir une théorie de « grande unification » (voir page 48).

e-

γ

Gravité quantique

Le seul champ qui échappe encore à la théorie quantique est la force de gravité : même la renormalisation ne parvient pas à la débarrasser des solutions infinies. Sa meilleure description demeure la relativité générale (voir page 28) qui attribue la gravitation à la courbure de l’espacetemps, plutôt qu’à des particules et à des champs qui s’y trouveraient. Il se peut que la différence soit fondamentale et que l’on n’obtienne jamais une théorie quantique complète de la gravité : seul l’avenir nous le dira.

e-

e-

e-

Ce diagramme de Feynman montre deux électrons se dispersant l’un l’autre avec échange d’un photon. Ici la flèche du temps va de gauche à droite.

L’idée clé Les actions à distance obéissent aussi à la physique quantique

39

40

50 clés pour comprendre les grandes idées de la science

10 La physique

des particules

En 2012, les physiciens du Grand collisionneur de hadrons ont détecté le très recherché boson de Higgs. Sa découverte est venue sceller le « modèle standard » de la théorie des particules subatomiques et des forces qui les relient – particules qui ont présidé à la naissance de l’Univers. Le modèle standard de la physique des particules, établi au début des années 1970, découle d’une série de percées en théorie quantique des champs (voir page 36), en particulier celles de l’électrodynamique quantique (années 1940), de la théorie électrofaible (années 1960) et de la chromodynamique quantique (1972). Les chercheurs pouvaient alors faire converger toutes leurs connaissances du monde des particules en un seul modèle.

En famille

Ce modèle divise les particules en fermions et bosons, d’après leur « spin quantique » : une propriété similaire, mais différente de la rotation classique telle que nous la connaissons. Chaque espèce de particule possède un spin qui décrit sa symétrie par rapport à une rotation. Ainsi, une particule de spin 1 montre le même aspect après une rotation, alors qu’une particule de spin 1/2 doit accomplir deux rotations pour revenir à son état de départ. Les bosons ont pour spin un nombre entier (0, 1, 2, etc.), et les fermions un spin valant la moitié d’un nombre entier (1/2, 3/2, 5/2, etc.).

La famille des fermions se divise à son tour en hadrons (particules qui ressentent la force nucléaire forte) et en leptons (qui ne la ressentent pas). La classe des leptons inclut l’électron, ainsi que deux particules sœurs appelées muon et tauon (ou tau). Toutes trois ont une charge électrique de – 1 et un spin de 1/2. Elles ont toutefois des masses très différentes : celle du muon vaut deux cents fois celle de l’électron, et celle du tau dix-sept fois celle du muon. Chacune d’entre elles est en outre apparentée à un type de neutrino : une particule fantomatique qui n’a pas de charge

chronologie 1964

1974

1983

La théorie des quarks est proposée par Murray Gell-Mann et George Ewieg

John Iliopoulos présente le « modèle standard » pour la première fois

Première détection des particules W et Z de la théorie électrofaible

La physique des particules électrique, pratiquement pas de masse, et un spin de 1/2. Ces six leptons possèdent aussi chacun sa propre antiparticule, qui a la même masse et le même spin, mais dont les autres propriétés sont inversées.

Les quarks ont du charme Chez les fermions,

Les accélérateurs de particules Les théories de la physique des particules sont testées dans des accélérateurs qui utilisent une série d’aimants pour accélérer des particules électriquement chargées à des vitesses proches de celles de la lumière, puis les faire entrer en collision. On cherche alors dans les débris la signature de particules rares ou nouvelles. On cherche notamment à comprendre le comportement des particules dans le passé, lorsque l’Univers naissant était très dense et très chaud : explorer cet environnement nécessite des accélérateurs de taille et de puissance sans cesse croissantes. L’accélérateur le plus puissant actuellement est le Grand collisionneur de hadrons du CERN à Genève. Sa dernière version, achevée en 2015, a doublé sa puissance par rapport à celle de 2012 qui avait permis la découverte du boson de Higgs.

la classe des hadrons consiste essentiellement en quarks. Tous ont un spin de 1/2, mais n’ont que des fractions de charge électrique (+2/3 ou – 1/3), et une propriété qu’on appelle leur « saveur » : up (u), down (d), strange (s), top (t), bottom (b) et charm (c). D’après le modèle, les particules familières comme les protons et les neutrons sont composées d’un assemblage de trois quarks. Le proton, par exemple, est formé de deux quarks « u » (+2/3 de charge chacun) et d’un quark « d » (charge de – 1/3), soit une charge globale de +1.

Les quarks ont aussi une « couleur », terme qui n’a rien à voir avec son sens habituel. Il s’agit d’une charge : alors que la charge électrique est responsable d’une force électromagnétique, la charge de couleur est responsable de la force nucléaire forte qui lie les quarks pour former protons et neutrons. La chromodynamique quantique décrit trois types de charge de couleur, dénommées « rouge », « vert » et « bleu », lesquelles peuvent être positives ou négatives, comme pour les charges électriques. À noter que des quarks solitaires ne se rencontrent jamais, mais

1995

2000

2012

L’insaisissable quark top est découvert par les physiciens du Fermilab

Le neutrino tau est découvert par le détecteur DONUT du Fermilab

Le boson de Higgs est finalement détecté par le Grand collisionneur de particules

41

42

50 clés pour comprendre les grandes idées de la science seulement en groupe de trois (formant les baryons, comme le proton et le neutron), ou alors en paires quark-antiquark, appelées mésons. Le modèle des quarks fut proposé indépendamment par Murray Gell-Mann et George Zweig en 1964. Les six flaveurs de quark ont toutes été observées, avec en dernier le quark top qui se manifesta en 1995 dans un accélérateur de particules du Fermilab à Chicago.

Les transmetteurs de force La théorie quantique des champs stipule que les forces sont transmises par des « particules d’échange » du champ concerné, qui auraient toutes un spin de 1 : elles appartiendraient à la famille des bosons. Par exemple, en électromagnétisme, la particule d’échange est le photon. En chromodynamique quantique, les particules d’échange sont des bosons appelés « gluons ». Il en existe huit variétés : un gluon pour chaque combinaison de couleurs, tant négatives que positives. De même, la force nucléaire faible est transmise par l’échange de particules appelées W et Z. Ce dernier est électriquement neutre, mais le W se décline en deux variétés, avec pour charge électrique +1 ou – 1. Ces particules ont été observées expérimentalement en 1983, avec des masses pratiquement identiques aux prévisions. Reste un dernier boson prédit par le modèle standard. Les chercheurs du Grand collisionneur de particules du CERN, à la frontière franco-suisse, ont défrayé la chronique lorsqu’ils ont annoncé en 2012 la découverte de cet insaisissable boson de Higgs.

Le boson de Higgs et au-delà

De manière à expliquer la masse des particules dans le modèle standard, le physicien britannique Peter Higgs et d’autres chercheurs ont proposé en 1964 l’existence d’une particule sans charge, sans couleur et de spin zéro. Ce boson de Higgs serait la particule du champ quantique, appelé champ de Higgs, qui imprégnerait tout l’espace. Les particules sujettes à ce champ en dériveraient leur masse observée. J’avais fait un pari Avant que ce boson ne soit proposé, avec Gordon Kane le modèle standard ne parvenait pas à de l’université du Michigan prédire la masse des différentes partique l’on ne trouverait jamais cules.

«

la particule de Higgs. Il semblerait que je vienne de perdre 100 dollars. Stephen Hawking

»

Le boson de Higgs fut proposé dans le cadre du modèle électrofaible, théorie qui unifie l’électromagnétisme et la force nucléaire faible aux hautes énergies, notamment juste après le

La physique des particules Big Bang (voir page 172). Aux énergies moins élevées qui sévissent aujourd’hui, l’électromagnétisme et la force nucléaire faible se seraient séparées en deux phénomènes distincts. Le prochain défi qui reste à relever en physique des particules est de chercher désormais une unification de la force électrofaible et de la force nucléaire forte, pour les rassembler en une « grande théorie unifiée » (acronyme GUT). Plusieurs théories s’y efforcent : le problème est de sélectionner la bonne. Les tester demanderait un accélérateur de particules mille milliards de fois plus puissant que l’actuel Grand collisionneur de hadrons.

La symétrie Une grande partie de la physique moderne des particules repose sur la notion de symétrie. En physique classique, les symétries concernent des « quantités conservées ». Par exemple en mécanique newtonienne, la loi de conservation de l’énergie – énergie qui ne peut être ni créée ni détruite – découle de la symétrie du temps. En d’autres termes, les lois de la physique doivent rester les mêmes, aujourd’hui comme demain. En 1915, le mathématicien allemand Emmy Noether prouva qu’en physique les quantités conservées correspondent à des symétries. Par exemple l’électromagnétisme n’a qu’une symétrie, ce qui veut dire qu’il n’y a qu’une quantité conservée. Ce qui est le cas : la charge électrique. En chromodynamique quantique – la théorie de la force nucléaire forte – il y a trois symétries : une pour chacun des trois types de charge de couleur. Les symétries des diverses théories des particules sont classées au moyen d’une branche des mathématiques appelée théorie des groupes.

L’idée clé L’ordre caché des particules fondamentales de la matière

43

44

50 clés pour comprendre les grandes idées de la science

11 L’énergie

nucléaire

La théorie quantique a ouvert la voie à des applications électroniques comme les ordinateurs et les lecteurs de DVD. Elle nous a aussi donné l’énergie nucléaire, dérivée des noyaux atomiques. Malgré plusieurs accidents qui ont entaché sa réputation, le nucléaire demeure l’une des sources d’énergie les moins polluantes. En 1911 le physicien d’origine néo-zélandaise Ernest Rutherford fit une découverte fondamentale. Avec ses confrères de l’université de Manchester, il établit que la quasi-totalité de la masse de l’atome est concentrée en un « noyau » central bien plus petit que l’atome lui-même. En fait si un atome avait la taille d’un terrain de football, le noyau ne serait pas plus grand qu’un petit pois. Rutherford compléta sa découverte en démontrant en 1919 que le noyau n’est pas une masse uniforme, mais qu’il est composé de particules appelées protons, chacune portant une charge positive. Il en découlait toutefois un mystère supplémentaire : pourquoi est-ce que les gros noyaux atomiques, formés de nombreux protons, ne volent pas en éclats sous l’action électrostatique répulsive de leurs charges positives ? Le physicien britannique James Chadwick résolut le problème en 1932 en découvrant une nouvelle particule subatomique avec la même masse que le proton, mais sans aucune charge électrique : le neutron, qui s’insère entre les protons du noyau, modère leur force répulsive, et participe à la cohésion de l’ensemble.

Briser le noyau En 1938, les physiciens allemands Otto Hahn et Fritz Strassmann se livrent à une expérience, bombardant de l’uranium avec les neutrons nouvellement découverts, dans l’espoir que certains de ces neutrons seraient capturés par les noyaux d’uranium et se changeraient en protons, par une désintégration de type bêta (voir page 76). Hahn et Strassmann espéraient

chronologie 1911

1919

1932

Ernest Rutherford, épaulé par Geiger et Marsden, découvre le noyau atomique

Rutherford et ses confrères déduisent que le noyau contient des protons

James Chadwick, ancien élève de Rutherford, découvre le neutron

L’énergie nucléaire ainsi transmuter l’uranium en un nouvel élément encore plus lourd, à savoir le neptunium, qui n’avait pas encore été découvert. À leur grande surprise, ils obtiennent à la place de petites quantités d’éléments plus légers : du baryum et du krypton. L’explication fut apportée par les physiciens autrichiens Lise Meitner et Otto Frisch. Alors qu’un certain nombre de neutrons assure la cohésion d’un noyau, un excès peut au contraire le rendre instable. Meitner et Frisch réalisèrent que le baryum et le krypton provenaient de la cassure en deux d’un noyau d’uranium. Ils baptisèrent le phénomène « fission nucléaire », terme emprunté à la biologie qui désigne la division d’une cellule.

L’énergie de liaison nucléaire Pourquoi la fission (scinder les noyaux atomiques lourds) et la fusion (rassembler des noyaux légers) relâchent-elles toutes deux de l’énergie ? Cela devrait être soit l’une, soit l’autre. Si de l’énergie de liaison nucléaire est relâchée dans les deux cas (en donnant un petit coup de pouce aux atomes), c’est parce que cette énergie n’est pas la même pour chaque élément : en passant de l’un à l’autre, si la cohésion du noyau devient meilleure, de l’énergie est relâchée. C’est le cas en assemblant deux atomes légers (la fusion), jusqu’à un maximum correspondant à l’atome de fer, qui est le plus stable. Mais à partir du fer, la cohésion du noyau diminue pour les éléments plus lourds : on n’obtient plus d’énergie en tentant de les fabriquer. Au contraire, il faut en dépenser. L’obtention d’énergie est alors inversée : c’est en scindant ces gros noyaux atomiques, de masse supérieure à celle du fer, que l’on obtient une libération d’énergie : le processus de fission.

La masse combinée du baryum, du krypton et des trois neutrons relâchés dans l’opération était légèrement inférieure à celle de l’uranium initial. Meitner réalisa que ce déficit de masse avait été converti en énergie, selon la formule d’Einstein E = mc2, et correspondait au mouvement rapide des neutrons relâchés. Or ces neutrons pouvaient rentrer en collision avec d’autres atomes d’uranium, les scindant à leur tour, et ainsi de suite. Les physiciens entrevoient tout le potentiel énergétique que peut revêtir une telle « réaction en chaîne ».

1938

1945

1986

Des physiciens allemands et autrichiens opèrent une fission atomique

Les premières bombes atomiques sont utilisées contre le Japon, faisant 200 000 victimes

Accident important à la centrale nucléaire de Tchernobyl en Ukraine

45

46

50 clés pour comprendre les grandes idées de la science Les premiers réacteurs

En 1942, ce potentiel est testé pour la première fois. Une équipe dirigée par Enrico Fermi construit le premier réacteur nucléaire sur un court de squash désaffecté de l’université de Chicago : un stock d’uranium, entouré et lardé de couches de graphite pour absorber l’excès de neutrons. En sus, des barres de contrôle amovibles en graphite permettent aux opérateurs de contrôler l’ampleur de la réaction, le retrait des barres permettant de l’accélérer à leur gré. Le 2 décembre 1942, le réacteur est activé et produit assez de neutrons pour entretenir une petite réaction en chaîne. Appelé Chicago Pile-1, le réacteur fut une étape importante sur la voie menant à la construction de la première bombe atomique : le projet Manhattan. L’armée américaine comptait l’utiliser contre l’Allemagne nazie, mais celle-ci déposa les armes avant le premier test de la bombe. En revanche, l’arme nucléaire fut utilisée contre le Japon, avec deux bombes lâchées sur Hiroshima et Nagasaki les 6 et 9 août 1945. À l’issue de la guerre, les recherches reprirent sur une utilisation pacifique de la réaction nucléaire. La première centrale nucléaire commerciale fut mise en service à Calder Hall en Angleterre en 1956. Il existe aujourd’hui environ 250 centrales nucléaires civiles faisant opérer plus de 440 réacteurs et assurant 11 % de l’électricité mondiale. L’énergie nucléaire présente de notables problèmes de sécurité, mais ses défenseurs, tel le spécialiste de l’environnement James Lovelock, soutiennent que c’est la source d’énergie la moins polluante, et que les accidents médiatisés, comme ceux de Tchernobyl en 1986 et de Fukushima en 2011, sont moins polluants que l’opération permanente des centrales classiques à carburants fossiles. Quant aux énergies renouvelables, notamment solaire et éolienne, elles pourraient ne pas suffire à notre demande sans cesse croissante d’énergie.

La fusion Les ingénieurs espèrent remplacer un jour la fission nucléaire par la fusion, beaucoup plus propre. Plutôt que scinder des noyaux lourds,

La fission nucléaire consiste à scinder des noyaux atomiques lourds, et la fusion à les rassembler.

Fission

Fusion

Noyaux plus légers

Noyau lourd instable 

Protons (noyaux d’hydrogène)

Noyau de deutérium (hydrogène lourd)

L’énergie nucléaire celle-ci repose sur la fusion d’éléments légers comme l’hydrogène, avec pareillement un dégagement d’énergie. C’est le phénomène à l’œuvre au cœur du Soleil, qui requiert des températures extrêmement élevées (des millions de kelvins). À la différence de la fission, la fusion ne produit pas de déchets radioactifs. Déjà exploitées dans les bombes « H » à hydrogène, de telles réactions thermonucléaires sont très difficiles à conduire à petite échelle de façon à générer de l’énergie électrique. Les efforts portent sur l’utilisation de champs magnétiques pour confiner les ions d’hydrogène en vue de les faire entrer en collision, mais au rythme actuel des recherches, il est peu probable qu’une première centrale à fusion puisse entrer en service avant au moins la décennie 2050. Alors que nous devons faire face au problème pressant d’assurer nos besoins énergétiques sans polluer la planète, prendre du retard dans cette recherche est un luxe que nous ne pouvons pas nous permettre.

L’idée clé Les noyaux atomiques recèlent une énergie prodigieuse

47

48

50 clés pour comprendre les grandes idées de la science

12 La théorie

des cordes

Pour tenter d’unifier les forces fondamentales de la nature, la théorie la plus en vogue consiste pour les chercheurs à assimiler toutes les particules de l’Univers à de minuscules cordelettes vibrantes, empreintes d’énergie et de tension, ce qui peut même impliquer l’existence de dimensions invisibles. Au cours du XIXe siècle, le physicien écossais James Clerk Maxwell parvint à combiner les théories de l’électricité et du magnétisme en un modèle unifié, baptisé électromagnétisme (voir page 16). Cette nouvelle théorie était plus puissante que la somme de ses parties, puisqu’elle a ouvert de nouvelles perspectives quant au comportement de la lumière, menant même à la relativité d’Einstein. En physique, l’unification des théories est très recherchée pour son élégance et sa simplicité, visant à expliquer les lois de l’Univers en faisant le moins d’hypothèses possible.

La théorie du tout

Dans les années 1970, les physiciens sont parvenus à unifier l’électromagnétisme avec la force nucléaire faible (l’une des deux forces opérant dans le noyau, responsable de la radioactivité bêta, voir page 76). L’effort porte aujourd’hui sur une tentative d’y associer la force nucléaire forte. Reste la quatrième force de la nature : la gravité. Tenter de l’associer aux trois autres est un véritable cauchemar mathématique. Les forces nucléaires forte et faible opèrent uniquement au sein des noyaux, de sorte que toute tentative d’unification les impliquant doit satisfaire aux lois de la physique quantique. Or la gravité ne s’y prête pas : certaines quantités physiques tendent vers l’infini et ces « divergences » ne peuvent être effacées par « renormalisation » – la technique utilisée avec succès pour supprimer les problèmes similaires dans la théorie quantique de l’électromagnétisme (voir page 38).

chronologie 1921

1968

1981

Theodor Kaluza publie son modèle d’unification introduisant un espace-temps à 5 dimensions

Gabriele Veneziano développe une première version de la théorie des cordes

La théorie des supercordes est formulée par Michael Green et John Schwarz

La théorie des cordes

«

La théorie quantique traite les particules comme étant des points de dimension zéro, ce qui a conduit les physiciens à soupçonner que l’origine du problème se trouvait là. Une particule, aussi minuscule soit-elle, doit toujours avoir des dimensions. Rassembler sa masse dans un volume nul conduit évidemment à une densité infinie et c’est cela, se sont dits les physiciens, qui mène aux divergences constatées en gravité quantique.

Les bonnes fausses idées sont extrêmement rares, et aucune ne peut rivaliser, de par sa majesté, avec la théorie des cordes. Edward Witten

»

La théorie des cordes contourne le problème en supposant que les particules ne sont pas des points, mais de minuscules « cordelettes » d’énergie à une dimension. Leur longueur est de l’ordre de 10– 33 cm de long (un zéro et une virgule, suivi de 32 zéros avant le chiffre « 1 »), une taille tellement infime que si un atome était gonflé en une boule grosse comme l’Univers, une cordelette ne serait pas plus grande qu’un arbre. Cette cordelette vibre, et la fréquence de vibration définit le type de particule représentée, un peu comme les différentes notes jouées sur une corde de guitare.

D’autres dimensions

Ce qui défie l’imagination, c’est qu’afin de garder une cohérence mathématique à la théorie des cordes, l’espace et le temps doivent avoir au moins dix dimensions, soit six de plus – au minimum – que les quatre que nous percevons (trois d’espace et une de temps). La théorie explique que ces dimensions supplémentaires sont « compactées » : enroulées sur elles-mêmes au point d’être indécelables, un peu comme un câble vu de loin n’a qu’une dimension, mais vu de près possède une seconde dimension qui lui donne un volume. Dans la théorie des cordes, ces dimensions compactées doivent être enroulées en une sorte de pelote d’espace-temps appelée espace de Calabi-Yau. La première version de la théorie des cordes fut élaborée en 1968 par le physicien italien Gabriele Veneziano. En travaillant sur un modèle de la force nucléaire forte, il trouva qu’une approche utilisant le concept de cordelettes permettait d’expliquer nombre de ses caractéristiques. Si son modèle de force nucléaire forte finit par s’effacer devant celui de la chromodynamique

1983

1991

1995

Witten et Alvarez-Gaume élaborent une théorie des supercordes gravitique et quantique

Veneziano montre comment la théorie des cordes a pu affecter l’Univers naissant

Avec sa théorie M, Witten fait la synthèse de plusieurs versions de la théorie des cordes

49

50

50 clés pour comprendre les grandes idées de la science Diagramme de Feynman pour l’interaction de deux particules ponctuelles (à gauche), et sa version où les particules sont remplacées par des cordelettes (à droite). La flèche du temps est dirigée de haut en bas.

quantique (voir page 39), l’idée des cordelettes continua à susciter l’intérêt. Au cours des années 1980, le physicien américain Edward Witten démontra que le concept des cordes menait à une théorie recevable de la gravité quantique, en éliminant les divergences auxquelles celle-ci se heurtait. D’autres physiciens ont utilisé la théorie des cordes depuis, pour explorer la physique des trous noirs, ou encore pour spéculer sur l’état de l’Univers avant le Big Bang. La théorie des cordes présente néanmoins des failles. Malgré le fait qu’elle est cohérente et non divergente d’un point de vue mathématique, elle a toujours besoin d’être correctement définie. D’ordinaire, en physique des particules, les chercheurs font leurs calculs en utilisant les outils de la « théorie des perturbations » comme les diagrammes de Feynman (voir page 38) pour faire des approximations, lorsque le traitement de la théorie est trop complexe. En élaborant la théorie des cordes, les physiciens n’ont fait que remplacer dans cette manipulation les particules ponctuelles par des cordelettes : un nouveau type d’approximation. Le problème, c’est que l’on ne sait toujours pas exactement de quoi elle est une approximation. Tester la théorie est également problématique, parce que l’échelle d’énergie à laquelle la gravité entre en jeu dans les modèles unifiés se trouve bien au-delà des capacités de nos plus puissants accélérateurs de particules. L’espoir demeure néanmoins qu’il sera possible de détecter une signature de la forme exacte de compactification de l’espacetemps, ce qui permettrait de tester la théorie.

La théorie M En 1995, Edward Witten éleva la théorie des cordes à un niveau supérieur en introduisant sa théorie M, la lettre signifiant « membrane » ou « magique » au choix. La théorie des cordes prend en effet plusieurs formes selon les paramètres choisis, et Witten les a consolidées sous une nouvelle approche,

La théorie des cordes où les cordelettes unidimensionnelles dans un espace-temps à 10 dimensions sont remplacées par des membranes bidimensionnelles dans un espacetemps à 11 dimensions. Toute forme particulière de la théorie des cordes correspond alors à une « tranche » de la théorie M. La théorie des cordes et la théorie M sont en plein développement depuis des décennies, sans avoir encore délivré les grandes réponses tant attendues. L’optimisme demeure, toutefois, quant à la possibilité qu’elles mèneront à une théorie unifiée des quatre forces de la nature. Car l’histoire des sciences nous a maintes fois enseigné que repousser les limites de nos connaissances demande de l’ingéniosité, de l’inspiration, et du temps.

Les supercordes En 1983, l’Anglais Michael Green et l’Américain John Schwarz ont réussi à combiner la théorie des cordes et la supersymétrie : un modèle qui pourrait réussir l’unification des forces et qui stipule que pour chaque fermion (particule dont le spin est un nombre demi-entier) existe un partenaire boson (spin au nombre entier). Il n’y a pas de preuve directe de la supersymétrie : celle-ci est postulée pour son élégance et parce que la symétrie conventionnelle joue un rôle clé dans le modèle standard. Cette théorie des supercordes pourrait néanmoins devenir la première théorie fonctionnelle de la gravité quantique.

L’idée clé À l’échelle la plus petite, la matière n’est pas ponctuelle mais filiforme

51

52

50 clés pour comprendre les grandes idées de la science

13 La théorie

de l’information

Une théorie mathématique gouvernant le comportement de l’information peut paraître abstraite, mais elle est devenue essentielle dans les technologies de l’information, l’informatique et l’analyse des données. Ses applications vont de l’étude des trous noirs au mécanisme qui permet de continuer à lire un CD rayé. Jusqu’à la fin des années 1940, personne ne savait exactement ce qu’était l’information, ni comment la décrire mathématiquement, jusqu’aux travaux du mathématicien et électronicien américain Claude Shannon. Durant la Seconde Guerre mondiale, Shannon avait travaillé dans les laboratoires Bell dans le New Jersey, développant des concepts de cryptographie (notamment avec le « briseur de codes » Alan Turing) et améliorant le contrôle de mise à feu des engins d’artillerie. En particulier, Shannon s’était penché sur le cas où du bruit électronique pouvait perturber le canal de communication entre l’artilleur et son canon, développant des méthodes pour minimiser l’effet du bruit et augmenter l’efficacité de la transmission des signaux. Le sujet intéressa suffisamment Shannon pour qu’il continue ses recherches après la guerre, publiant notamment en 1948 un livre fondateur, intitulé Théorie mathématique de la communication. Grâce à lui, la science de l’information était née.

Bit et byte Le premier problème auquel Shannon s’attaqua dans sa théorie fut de définir le concept flou d’information en termes mathématiques. Pour ce faire il introduisit une unité fondamentale : le bit. Celui-ci représente à l’origine le simple état allumé (1) ou éteint (0) d’un interrupteur. En enchaînant deux bits, on peut décrire deux fois plus d’états ou de nombres, 0-0 représentant 0 ; 0-1 représentant 1 ; 1-0 représentant 2 ; 1-1 représentant 3… Shannon baptisa « byte » cette séquence de

chronologie 1850

1924

1948

Rudolph Clausius met en avant le concept d’entropie thermodynamique

Harry Nyquist publie une étude des facteurs affectant la vitesse de la télégraphie

Claude Shannon publie son livre Théorie mathématique de la communication

La théorie de l’information bits encodant un nombre. Ainsi, un byte à « n » bits peut encoder tout nombre entre 0 et (2 n–1). Aujourd’hui, nos ordinateurs fonctionnent avec des bytes à 64 bits et peuvent donc exprimer jusqu’à 18 milliards de milliards en un seul byte. Petite anecdote : en utilisant nos dix doigts et ce codage, on peut compter non pas jusqu’à 10, mais jusqu’à 1023 !

«

Nombreux furent ceux à Bell et au MIt qui comparèrent la vision de Shannon à celle d’Einstein ; d’autres trouvèrent la comparaison injuste… pour Shannon. William Poundstone

»

Entropie informationnelle

Le code source Une fois mis en place le concept du bit, Shannon a commencé à considérer comment transmettre ces bits de la façon la plus efficace possible entre un émetteur et un récep1,0 teur. L’une de ses premières propositions fut le « codage de source » qui consiste à réduire le nombre de bits d’un signal à son strict minimum. Par exemple, si l’on joue à pile ou face 1 000 fois et que l’on veut transmettre tous les résultats, on peut encoder un bit pour chacun d’entre eux (1 0,5 pour pile et 0 pour face), ce qui revient à utiliser 1 000 bits dans le message. Mais supposons que le jeu est biaisé d’une façon ou d’une autre et que la probabilité de tomber sur pile n’est que de 1 sur 1 000, ce qui arrive dans notre cas de figure. Tout 0 0 0,5 1,0 ce que nous devons alors transmettre est la posiProbabilité des « piles » tion de ce résultat « pile » dans notre séquence, ce L’entropie informationnelle du résultat que nous pouvons faire avec seulement 10 bits, pile ou face dans un jeu de hasard puisqu’en fixant n = 10, la formule ci-dessus nous 10 atteint un maximum lorsque donne (2 – 1) = 1 023, une gamme de valeurs plus que suffisante. C’est beaucoup plus éconola probabilité vaut 0,5 ou 50 %. mique que de transmettre 1 000 bits. C’est l’état d’incertitude maximale. Shannon a ensuite réfléchi à comment comprimer davantage un message. Plus il y a d’incertitude dans son contenu, moins il se prête à la compression et plus il nécessite de bits pour être transmis.

1956

1989

1997

Kelly utilise la théorie de l’information pour calculer la mise optimale d’un joueur

Le format de compression de fichier zip est inventé par Phil Katz

Hawking postule que les trous noirs détruisent de l’information

53

54

50 clés pour comprendre les grandes idées de la science

Claude Elwood Shannon (1916-2001) Claude Shannon, né le 30 avril 1916 dans le Michigan, est le fils d’un homme d’affaires et d’une professeur de langues. Enfant, il s’intéresse à la mécanique et à l’électricité, et construit son premier système de télégraphie électrique, entre sa maison et celle d’un ami. Diplômé de l’université du Michigan en mathématiques et en ingénierie électrique (1936), il fait des études supérieures au MIT, avant de rejoindre l’Institut d’études avancées de Princeton en 1940. Inventeur prolifique, il construit des objets aussi variés qu’un frisbee propulsé par moteur-fusée et une machine à résoudre le Rubik’s cube. Il a également conçu le premier ordinateur portable, pour tricher plus facilement au jeu de roulette. L’inventeur a rencontré sa future femme Betty aux laboratoires Bell : mariés en 1949, ils ont eu trois enfants. Claude Shannon est mort en 2001, à l’âge de 84 ans.

Cherchant un nom pour cette nouvelle propriété, Shannon a adopté la suggestion de son ami mathématicien John von Neumann qui proposait « entropie », en référence à la quantité utilisée en thermodynamique pour caractériser le degré de « désordre » des systèmes physiques (voir page 20). L’incertitude de Shannon lui ressemble et peut être calculée par des méthodes similaires.

La chasse au superflu

Chaque fois que l’on compresse en format zip des fichiers sur son ordinateur avant de les transmettre, que ce soit des photos, musiques ou vidéos, on utilise le concept d’entropie de l’information pour se débarrasser de toute information redondante et minimiser leur taille. Il s’agit d’une compression sans perte, car aucune information n’est éliminée au cours du processus. D’autres types de compression impliquent une perte, en éliminant de l’information. C’est le cas de nombreuses compressions audio qui rejettent les fréquences au-delà de celles perceptibles par l’oreille humaine : l’opération permet ainsi à un fichier MP3 de n’occuper que 9 % environ du volume initial du morceau original. Une autre contribution majeure de Shannon est le concept du « codage de canal » ou « codage de voie », qui cherche à estimer la quantité de bruit présent dans un canal de communication et à le réduire. La technique consiste pour l’émetteur du signal à inclure dans son message une séquence de bits préétablie et connue du récepteur. Celui-ci peut alors analyser comment cette séquence a été brouillée, de façon à établir la forme du bruit et à le soustraire du reste du message. Ce concept a mené à nos algorithmes de correction qui réduisent les bruits parasites d’une conversation téléphonique, permettent à un lecteur de CD d’ignorer une rayure, ou à un lecteur de code-barres de déchiffrer celui d’un sac tout froissé.

La théorie de l’information L’ère de l’information Aujourd’hui, la théorie de l’information joue un rôle essentiel dans les télécommunications, l’informatique et l’analyse des données. Elle contribue à la sécurité des transmissions en nous permettant de créer et de briser des codes, et de détecter des activités criminelles ou terroristes. Elle permet des prises de décision optimales dans les jeux de hasard et les opérations boursières. Elle joue également un rôle en science, par exemple pour expliquer comment les gènes s’organisent au sein des cellules vivantes. Comprendre comment l’information peut échapper à un trou noir a mené pour sa part à d’intéressantes avancées en gravité quantique et théorie des cordes (voir page 48), menant à d’autres concepts radicaux en cosmologie, comme la notion insolite que notre Univers pourrait n’être en fait qu’un hologramme.

Le critère de Kelly En 1956, le mathématicien américain John Kelly a publié un article de recherche dans la revue Bell System Technical Journal sous le titre anodin de « Nouvelle interprétation du taux d’information ». Kelly y utilise la théorie de l’information pour dériver une formule indiquant à un joueur la fraction de ses fonds qu’il doit miser lors d’une série de paris, de façon à optimiser ses gains. Kelly trouve que si la probabilité de gagner a une valeur p (comprise entre 0 et 1) et que la cote offerte par le bookmaker est b/1, alors la fraction optimale des fonds à miser est [p × (b+1) – 1]/b. Si le résultat est négatif, on ne mise pas. Ce critère de Kelly est utilisé non seulement par les parieurs, mais aussi par les investisseurs qui jouent dans le plus grand casino du monde : la Bourse.

L’idée clé La communication obéit à des lois mathématiques

55

56

50 clés pour comprendre les grandes idées de la science

14 La théorie du chaos

Placez un crayon en équilibre sur sa pointe et lâchez-le. De quel côté tombera-t-il ? Tout infime changement dans son état d’équilibre l’enverra dans une direction, ou bien une autre. La physique qui décrit le comportement du crayon est pourtant simple, mais nous n’avons aucune idée du résultat. C’est ce qu’on appelle le chaos. Nombre de phénomènes dans la nature sont tellement sensibles à leur état de départ que prévoir leur évolution est pratiquement impossible, même lorsque le système où ils évoluent est bien connu. Ce sont des phénomènes dits « chaotiques » : ils sont pourtant « déterministes », mais semblent évoluer de façon tout à fait aléatoire. Leurs systèmes dépendent en fait d’équations non linéaires. Les équations linéaires sont celles de type y = 2x. Si x augmente, alors y augmente en proportion. Dans cette équation, si x varie de 1 000 à 1 000,1 – un infime changement de 0,1 – alors y varie de 0,2, ce qui n’est pas grandchose. Les équations non linéaires, en revanche, donnent des résultats tout autres. Prenez par exemple y = x2. Si vous augmentez x, alors y augmente de façon disproportionnée. Si x varie de 1 000 à 1 000,1, on observe un bond en avant supérieur à 200 dans la valeur de y. Les équations non linéaires peuvent donc mener à de grands changements, à partir d’infimes fluctuations dans l’état de départ, et c’est pour cela qu’on n’a aucune idée de la direction dans laquelle tombera notre crayon. Ce ne sont pas tant les mathématiques qui en sont responsables, mais notre incapacité à mesurer avec assez de précision les minuscules variations de l’état de départ. C’est le mathématicien Henri Poincaré qui a cherché le premier à quantifier les effets du chaos dans le monde réel. En étudiant dans les années 1880 la loi de la gravitation de Newton (voir page 12), il s’est aperçu que si les solutions

chronologie 1880

1961

1972

Henri Poincaré signale le caractère chaotique de la gravitation newtonienne

Edward Lorenz révèle le comportement chaotique des phénomènes météo

Lorenz invente l’expression « effet papillon » pour décrire les systèmes chaotiques

La théorie du chaos étaient prévisibles pour deux objets (comme deux planètes) se déplaçant dans leurs champs de gravitation mutuels, ajouter un troisième corps rendait l’évolution du système extrêmement difficile à prévoir.

En suivant la météo Malgré les travaux de Poincaré, il fallut attendre la seconde moitié du XXe siècle pour que la théorie du chaos se développe. En 1961, le mathématicien américain Edward Lorenz cherchait à modéliser par ordinateur la convection dans les systèmes météorologiques – les courants atmosphériques causés par l’ascension de l’air chaud. À un moment de ses recherches, Lorenz a eu besoin de reproduire des données qu’il avait déjà obtenues auparavant. Plutôt que d’exécuter à nouveau tout le programme depuis le début, il a rentré dans l’ordinateur les données intermédiaires du calcul, qu’il avait gardées, et relancé le programme depuis ce stade. Or, quelle ne fut pas sa surprise d’obtenir un résultat – en l’occurrence un état météo – très différent de ce qu’il avait obtenu la première fois ! Lorenz finit par trouver la solution de l’énigme. Pendant ses calculs, l’ordinateur stockait les nombres jusqu’à six chiffres après la virgule, mais les données intermédiaires que Lorenz avait imprimées et réutilisées avaient été tronquées à trois chiffres après la

«

Le chaos : si le présent détermine le futur, un présent approximatif ne prévoit pas approximativement le futur. Edward Lorenz

»

Edward Norton Lorenz (1917-2008) Edward Lorenz est né le 23 mai 1917 dans le Connecticut aux États-Unis. Il étudia les mathématiques, d’abord à Dartmouth College dans le New Hampshire, puis à Harvard où il obtint son master en 1940. Durant la Seconde Guerre mondiale il remplit les fonctions de météorologue dans l’armée de terre américaine – domaine qui l’intéressa au point d’y consacrer le reste de ses études au MIT (Massachusetts Institute of Technology) au sortir de la guerre, obtenant un doctorat en 1948. Il resta au MIT le reste de sa carrière, y devenant professeur titulaire en 1962. L’essor des ordinateurs numériques dans les sciences au cours des années 1950 et 1960 lui permit d’appliquer ces nouveaux outils à la compréhension des systèmes météorologiques. Ce sont ces recherches qui l’amenèrent à découvrir la théorie du chaos. Marié, Lorenz a eu trois enfants. Il est décédé le 16 avril 2008 à Cambridge dans le Massachusetts.

1975

1982

1984

Le nom de « théorie du chaos » est proposé par James Yorke et TienYien Li

Mandelbrot publie son livre fondateur Géométrie fractale de la nature

La sonde Voyager 2 photographie la rotation chaotique d’Hypérion, lune de Saturne

57

58

50 clés pour comprendre les grandes idées de la science virgule, par exemple 0,437261 était devenu 0,437. Cette infime différence s’était traduite par un gigantesque écart dans les résultats finaux : la parfaite illustration du chaos. Cette sensibilité explique pourquoi il est impossible de faire des prévisions météo plus de quelques jours à l’avance. Lorenz publie ses recherches en 1963. Il formule plus tard un terme célèbre, devenu synonyme du chaos : « l’effet papillon ». Le terme est tiré du titre de l’une de ses conférences, donnée en 1972 à l’Association américaine pour l’avancement des sciences : « Le battement d’ailes d’un papillon au Brésil peut-il déclencher une tornade au Texas ? », à savoir qu’un mouvement insignifiant peut être amplifié au point d’avoir des répercussions inattendues. Les chercheurs peuvent aujourd’hui identifier la nature chaotique d’un système grâce à une technique développée à l’origine par le mathématicien russe Alexandre Liapounov, en 1892. Sans se préoccuper du chaos, ce dernier avait travaillé sur la stabilité des solutions issues d’équations non-linéaires, notamment en introduisant de petites perturbations dans les données d’une équation dont la solution est connue. Si, au fil de l’évolution des calculs, l’effet de la perturbation s’estompe, la solution est dite stable. S’il prend de l’ampleur, la solution est dite instable. Ce test d’instabilité, quantifié par une série de nombres appelés « exposants de Liapounov », permet aujourd’hui de repérer les comportements chaotiques.

L’attracteur d’étrange

Le flocon de Koch (en haut) est une fractale simple dans laquelle chaque segment de droite se dissout en triangles équilatéraux à toutes les échelles. L’attracteur de Lorenz (en bas) est une fractale plus complexe, à la base du chaos des systèmes météorologiques.

La théorie du chaos a un corollaire géométrique. Le mouvement d’un objet peut être décrit par un « portrait de phase » : un graphique qui représente la vitesse de l’objet en fonction de sa position. Par exemple un mouvement à vitesse constante y est décrit par une ligne droite, alors que celui d’un pendule est un cercle. Ces représentations sont appelées « attracteurs » : prenez pour position du mobile n’importe quel point du diagramme et ses déplacements le feront converger vers l’attracteur.

La théorie du chaos Les attracteurs des systèmes chaotiques sont de nature fractale. Les fractales sont des formes géométriques qui se reproduisent à toutes les échelles. Un exemple en est le flocon de Koch, nommé d’après le mathématicien suédois Helge von Koch : dessinez un triangle équilatéral, puis au centre de chaque côté un nouveau triangle équilatéral de longueur égale au tiers du premier. Répétez l’opération à l’infini. Le résultat est un motif en flocon de neige et en zoomant sur le dessin, le même motif se répète à l’infini. Les systèmes chaotiques réels sont souvent décrits par des fractales complexes. Les systèmes météorologiques de Lorenz, par exemple, exhibent un attracteur qui ressemble à une figure en huit déformée. Les rapports précis entre les fractales et le chaos furent explorés par le mathématicien franco-américain Benoît Mandelbrot dans son livre fondateur de 1982 : La Géométrie fractale de la nature. Le chaos se retrouve aujourd’hui dans nombre de disciplines, que ce soit dans l’étude des turbulences et des courants océaniques, la théorie quantique et la relativité générale, l’ingénierie, la biologie et le monde des finances, la rotation des astéroïdes, et même en psychologie dans l’étude des mouvements dans une foule. Comme si le monde que l’on croyait si ordonné s’amusait à nous vanter son désordre.

L’idée clé Et de l’ordre surgit le chaos

59

60

50 clés pour comprendre les grandes idées de la science

15 Les ordinateurs quantiques

Les ordinateurs quantiques sont des calculateurs superpuissants fondés sur les lois de la physique quantique. Ils peuvent accomplir en quelques minutes un calcul que votre ordinateur portable mettrait plusieurs milliards d’années à boucler. Les premiers modèles sont déjà testés en laboratoire. Les ordinateurs classiques stockent et manipulent des bits d’information (voir page 52) en se fondant sur les états allumé et éteint d’interrupteurs appelés transistors. Ces transistors opèrent selon les lois de la physique classique. Or une nouvelle branche de la physique s’est développée au début du XXe siècle : la mécanique quantique (voir page 32). Alors que la physique traditionnelle se contente d’approximations dans de nombreux cas, cette dernière donne une représentation plus précise de la réalité. En 1985, le physicien britannique David Deutsch a réalisé que le calcul par ordinateur reposait sur des bases dépassées, et a refondé une théorie du calcul dans un cadre quantique, appelant la création d’ordinateurs infiniment plus puissants que leurs prédécesseurs.

Débouchez le qubit Dans ce nouveau cadre, les bits d’information – qui prenaient classiquement la valeur de 0 ou de 1 – sont remplacés par des bits quantiques ou « qubits » qui valent à la fois 0 et 1 en même temps. La mécanique quantique permet en effet à une particule d’exister simultanément dans plusieurs états jusqu’à ce qu’elle soit physiquement mesurée (voir page 34). Ainsi, si vous stockez de l’information quantique, elle existera en une combinaison de tous ses états possibles. On pourrait croire qu’il s’agit d’un casse-tête, mais c’est ce qui fait la force d’un ordinateur quantique. Lorsqu’un bit d’information est traité par un micropro-

chronologie 1985

1994

1998

David Deutsch jette les bases théoriques du calcul quantique

Peter Schor développe un algorithme quantique pour factoriser les grands nombres

Des chercheurs à Oxford font fonctionner le premier calculateur quantique

Les ordinateurs quantiques cesseur classique, seule une valeur de 0 ou de 1 est retenue. En revanche, quand un qubit passe dans un microprocesseur quantique, le 0 et le 1 sont traités simultanément. Prenez par exemple huit bits classiques pour construire un byte, lequel peut stocker un nombre entier compris entre 0 et 255. Un ordinateur quantique, codant pour sa part avec huit qubits (un « qubyte »), stocke tous ces nombres à la fois et les traite dans le même temps qu’un ordinateur classique traite un seul nombre. Un ordinateur quantique à n qubits peut ainsi stocker et traiter 2n nombres simultanément. Deutsch appelle cette propriété le « parallélisme quantique », en clin d’œil au calcul parallèle des ordinateurs classiques où plusieurs microprocesseurs travaillent simultanément sur la même tâche. Dans ce cas précis, le terme « parallèle » est lourd de sens. Deutsch croit en effet au concept d’univers multiples que suggère la théorie quantique, à savoir que le comportement quantique d’une particule est dicté par ses interférences avec des copies d’elle-même dans d’autres univers (voir page 192). En ce sens, un ordinateur quantique tirerait sa force d’univers parallèles ! Ce n’est pas si absurde, quand on sait que stocker toute l’information nécessaire à certains calculs quantiques requiert plus de bits classiques qu’il n’y a d’atomes dans notre Univers. Selon Deutsch, les ordinateurs quantiques doivent donc nécessairement exploiter d’autres univers, sinon ils n’auraient tout simplement pas assez de mémoire pour effectuer les tâches qu’on les voit déjà accomplir à l’heure actuelle.

« Latitude » du qubit – dans cet exemple : 67°N

Mesure

Les physiciens représentent l’état d’un qubit par une latitude sur une sphère où le « pôle nord » représente une valeur de 1 et le « pôle Probabilité de 1 sud » une valeur de 0. Entre (exemple : 70 %) les deux pôles la valeur est Probabilité de 0 un mélange des deux, la (exemple : 30 %) probabilité qu’elle soit 1 ou 0 dépendant d’une formule trigonométrique fondée sur la latitude du qubit par rapport au pôle.

2011

2012

2014

Mise sur le marché du D-Wave One, premier calculateur quantique commercial

Création de la firme 1QBit, première société de logiciels quantiques

Edward Snowden révèle que la NSA développe des calculateurs quantiques pour décrypter les codes

61

62

50 clés pour comprendre les grandes idées de la science Le quantique en action En

Le cryptage quantique Les ordinateurs quantiques ont des applications importantes en termes de sécurité nationale. Les systèmes d’encryptage moderne, utilisés pour transmettre des messages ultraconfidentiels, utilisent de très grands nombres qui sont le produit de deux facteurs. Envoyer le message ne requiert que le nombre lui-même (qui est « publiquement » disponible pour ce faire), mais le lire nécessite la connaissance des deux facteurs, extrêmement difficiles à calculer. Appelé cryptographie à clé publique, ce procédé repose sur le fait que trouver les facteurs de très grands nombres demanderait à un ordinateur classique des milliards d’années. Le problème désormais, c’est qu’un ordinateur quantique pourrait le faire en quelques minutes.

1998 eut lieu la première démonstration d’un calculateur quantique à l’université d’Oxford. Il opérait seulement avec deux qubits, mais était capable d’exécuter un algorithme simple. Depuis lors, les progrès ont été énormes. En août 2015, l’entreprise canadienne D-Wave Systems a mis en vente son ordinateur quantique D-Wave 2X qui mobilise 1 024 qubits consistant en boucles supraconductrices en niobium. Seuls inconvénients : la taille – il a besoin d’une salle de dix mètres carrés – et le prix qui dépasse 15 millions de dollars. Cela n’a pas empêché Google d’en acheter un exemplaire pour mettre au point ses algorithmes de reconnaissance de formes, à l’intention de ses lunettes Google Glass à réalité augmentée. Le constructeur aéronautique Lockheed Martin en a fait de même pour tester ses logiciels de pilotage.

Les critiques soulignent que les ordinateurs de D-Wave ne sont pas quantiques au sens strict, et qu’ils ne peuvent pas être programmés pour accomplir n’importe quelle tâche. De fait, ils utilisent une technique appelée « recuit simulé quantique » où les qubits pour les données d’entrée sont en configuration d’énergie minimale. C’est suffisant pour résoudre les problèmes d’optimisation, qui consistent à trouver la meilleure solution possible à un problème. Ces calculs ont de nombreux débouchés, par exemple indiquer à une société comment gérer son budget de la façon la plus efficace possible, mais pour les problèmes plus complexes ils peuvent être chronophages, et D-Wave déclare que ses ordinateurs peuvent les résoudre 600 fois plus vite que les machines classiques.

Vers le zéro absolu

Construire un véritable « ordinateur quantique universel » est difficile à cause de la fragilité des bits quantiques. Dès qu’un qubit interagit avec son environnement, son état quantique est perturbé et ses calculs peuvent être perdus : le problème de la « décohérence » (voir page 34).

Les ordinateurs quantiques Généralement, un qubit ne persistera que quelques secondes avant de subir une décohérence. Les chercheurs tentent de prolonger leur vie en utilisant des techniques de refroidissement pour réduire le bruit de fond thermique, à des températures de l’ordre de quelques millièmes de kelvin au-dessus du zéro absolu. Les calculateurs quantiques ont le potentiel de révolutionner les industries qui dépendent de la force brute de calcul, comme la finance, l’ingénierie et l’analyse des données. Ils auront le pouvoir un jour de briser les codes les plus secrets (voir encadré page 62) et intéressent au plus haut point les agences de sécurité. Mais l’une de leurs applications les plus prometteuses est la recherche scientifique, où les ordinateurs quantiques simuleront justement le comportement des systèmes quantiques eux-mêmes, approfondissant notre compréhension du monde étrange de la physique subatomique.

«

La mécanique quantique est bizarre. Je ne la comprends pas. Il faut faire avec. Vous n’avez pas besoin de comprendre la nature des choses pour construire des trucs sympas. Seth Lloyd

»

L’idée clé Des calculateurs qui plongent dans le monde quantique

63

64

50 clés pour comprendre les grandes idées de la science

16 L’intelligence artificielle

Bien avant l’essor des ordinateurs numériques dans les années 1940, les chercheurs rêvaient de construire des machines qui pouvaient penser par elles-mêmes, comme les êtres humains. Ces intelligences artificielles ont aujourd’hui des applications multiples, du contrôle d’un aspirateur à celui d’un vaisseau spatial. Les machines pensantes ont une longue histoire. Les anciennes civilisations, notamment les Égyptiens et les Grecs, ont tenté sans succès de construire des automates pour accomplir leurs tâches. Il fallut attendre la construction des premiers ordinateurs numériques en 1943, à l’image du Colossus construit par les décrypteurs de codes durant la Seconde Guerre mondiale, pour que l’on se penche sérieusement sur leur potentiel en matière de réflexion autonome.

Cerveau artificiel Le mathématicien britannique Alan Turing, qui dirigea la fabrication du Colossus, avait mis au point une théorie du calcul qui montrait comment un ordinateur pouvait simuler n’importe quel processus mathématique. Si l’on pouvait décrire le cerveau humain par les mathématiques, alors il semblait raisonnable que l’on puisse l’imiter. Turing conçut un test qui détecterait l’émergence d’une intelligence dans une machine (voir encadré) et élabora le premier logiciel de jeu d’échecs. Il mourut quelques années avant la première conférence sur les « machines pensantes », à Dartmouth dans le New Hampshire, en 1956. L’année précédente, alors qu’il préparait la conférence, l’informaticien américain John McCarthy utilisa pour la première fois le terme d’intelligence artificielle. Le climat d’optimisme qui présida lors des premières recherches fut quelque peu tempéré dans les années 1960, lorsqu’il apparut que simuler la pensée humaine serait beaucoup plus difficile que prévu. Au milieu des années 1970, les investissements s’étiolent et les travaux ralentissent.

chronologie 1950

1956

1997

Le mathématicien britannique Alan Turing élabore le premier test d’intelligence artificielle

Première conférence sur l’intelligence artificielle, tenue à Dartmouth dans le New Hampshire

Deep Blue, un ordinateur d’IBM, bat aux échecs le champion du monde Garry Kasparov

L’intelligence artificielle Élégant ou brouillon Deux camps se forment, quant à la meilleure approche pour tenter d’établir une intelligence artificielle. L’approche « élégante » consiste à utiliser les techniques conventionnelles de programmation informatique pour conférer à la machine un comportement qui ressemble à l’intelligence. L’approche « brouillonne » est plus expérimentale, plus intuitive : elle consiste à improviser, voire à imiter des schémas naturels, pour voir ce qui en ressort. De l’approche brouillonne sont nés les réseaux de neurones artificiels – logiciels qui émulent les neurones du cerveau et l’architecture de leurs connexions. Comme le cerveau, ils tirent des leçons de leurs expériences vécues, aidant l’ordinateur à prendre des décisions intelligentes. C’est l’une des techniques d’apprentissage automatique utilisées par les machines aujourd’hui, qui leur permet de détecter les fraudes ou de recommander des chansons au propriétaire d’un smartphone. Le développement de « systèmes experts » dans les années 1980 a également relancé l’intelligence artificielle. Il s’agit pour eux de répliquer les connaissances humaines ayant trait à un domaine particulier, par exemple prendre des décisions pertinentes et rapides lors d’une crise, ou

Le test de Turing Le mathématicien et décrypteur de codes Alan Turing conçut un test en 1950 pour déterminer à quel stade un ordinateur pouvait être qualifié d’intelligent. Le concept consiste à mettre un juge en conversation simultanément avec un ordinateur et une personne en chair et en os, et à constater si le juge peut décider lequel est humain et lequel est une machine. Cette philosophie a mené à l’invention des « chatbots », logiciels d’intelligence artificielle conçus pour converser avec des êtres humains, dans le but entre autres de passer le fameux test. Le premier chatbot, baptisé ELIZA, fut mis au point en 1966 par l’informaticien d’origine allemande Joseph Weizenbaum. En 2014, le chatbot « Eugène Goostman », développé par une équipe russe, fut le premier à passer le test de Turing lors d’une épreuve tenue à l’université anglaise de Reading. Aujourd’hui les chatbots sont utilisés sur les espaces clients en ligne pour leur porter assistance ; quant au test de Turing, il est désormais utilisé par le système CAPTCHA pour distinguer justement les personnes véritables des programmes automatiques dans les échanges en ligne. Le test de Turing et la vie du mathématicien sont le sujet du film Imitation Game (Le Jeu de l’imitation), sorti en 2014.

2004

2009

2014

Les robots automobiles de la NASA circulent de façon autonome à la surface de Mars

Google teste des automobiles sans conducteur qui se passent d’un contrôle humain

Un agent conversationnel artificiel, « Eugène Goostman », passe le test d’intelligence de Turing

65

66

50 clés pour comprendre les grandes idées de la science diagnostiquer une maladie infectieuse. Mais cette embellie fut de courte durée et les recherches stagnèrent de nouveau vers la fin de la décennie. Il fallut attendre l’aube du troisième millénaire pour que l’intelligence artificielle décolle pour de bon, sous l’impulsion d’ordinateurs de plus en plus puissants et d’une meilleure communication entre les domaines disparates de la recherche, de la cybernétique à la linguistique.

La théorie des jeux

En 1997, un superordinateur d’IBM spécialisé dans le jeu d’échecs a réussi à battre Garry Kasparov, champion du monde en titre : sur les six jeux joués, Deep Blue enregistra une défaite, trois parties nulles et deux victoires. La même époque vit l’essor des jouets intelligents, avec la sortie de la peluche interactive Furby de Tiger Electronics et du chien robotique Aibo de Sony. En 2002 fut mis sur le marché l’aspirateur intelligent Roomba, et en 2004 se posèrent sur Mars les automobiles robotiques Spirit et Opportunity.

En 2009, le géant de l’internet Google développa la première automobile sans conducteur, et sortit l’année suivante un système d’exploitation androïde pour mobiles, à reconnaissance de voix. Après les échecs, l’intelligence artificielle est désormais capable de battre les hommes aux dames et au poker, et en 2011 une machine développée par IBM a battu à plate couture deux champions de Jeopardy, jeu télévisé américain de questions-réponses. Enfin, en 2014, un chatbot du nom d’Eugène Goostman, conçu par une équipe d’informaticiens russes, est devenu la première machine à passer le test d’intelligence de Turing (voir page 65).

Superintelligence

L’une des raisons de l’essor actuel de l’intelligence artificielle est la puissance sans cesse croissante des ordinateurs. Celle des PC double environ tous les 18 mois, une progression connue sous le nom de loi de Moore, d’après Gordon Moore, fondateur d’Intel, qui le premier l’a remarquée. Cette tendance, et les progrès qu’elle a apportés à l’intelligence artificielle, fait dire à certains que nous sommes sur la voie de créer des « superintelligences » artificielles.

«

Je suis désolé, Dave. Je ne pense pas pouvoir faire cela. Ordinateur HAL 9000,

»

2001 : L’Odyssée de l’espace

L’intelligence artificielle Un tel système serait capable d’évoluer et de se perfectionner de façon autonome, beaucoup plus vite que l’homme ne serait capable de l’instruire – un processus en boucle qui l’amènerait à un point de superintelligence appelé « singularité », terme avancé en 1958 par le mathématicien d’origine hongroise John von Neumann. Quel regard porterait alors une telle entité sur les hommes, race inférieure qui l’aurait conçue ? L’informaticien Ray Kurzweil pense que nous atteindrons cette singularité d’ici la fin du siècle. D’autres doutent que l’intelligence artificielle puisse parvenir à cet état de perfectionnement incessant, et que la complexité technologique nécessaire à son développement, voire à sa reproduction, se heurtera forcément à un mur. Pour d’autres encore, l’intelligence humaine ne peut pas être décrite en termes uniquement mathématiques. Enfin il y a ceux qui pensent, sans doute naïvement, que l’homme ne saurait programmer sa propre perte…

L’idée clé Les machines peuvent réfléchir

67

68

50 clés pour comprendre les grandes idées de la science

17 Atomes

et molécules

Tout ce qui nous entoure est constitué d’atomes et de molécules, que ce soit les minuscules composants de notre ADN, l’air que nous respirons, ou les pages de ce livre. Ce sont les pièces maîtresses de l’Univers et leur découverte est l’une des grandes aventures de la science. On dit qu’il y a plus d’atomes dans un verre d’eau qu’il n’y a de verres d’eau dans tous les océans du globe. Cela donne une idée de la taille minuscule des atomes : leur diamètre tourne autour d’un dixième de millionième de millimètre. Une seule cellule du corps humain en contient 100 billions. Pourtant, chaque atome est principalement constitué de vide, sa masse étant principalement concentrée dans son noyau central. Depuis l’aube de la civilisation, la structure de la matière a fasciné l’homme, notamment les philosophes grecs. Au Ve siècle av. J.-C., Leucippe de Milet est ainsi l’un des premiers penseurs à proposer la philosophie atomiste, développée ensuite par son disciple Démocrite. Leur théorie postule que tout est composé d’atomes, indestructibles et en nombre infini (le nom « atome » vient du grec atomos qui signifie indivisible). Démocrite pensait notamment que les atomes donnaient à la matière ses caractéristiques uniques. Il proposait par exemple que les atomes de fer étaient par essence solides et résistants, alors que la glace se devait d’avoir des atomes lisses et sphériques. Le concept de base est correct : toute la matière de l’Univers peut être démantelée jusqu’à ses minuscules atomes constituants, ceux de chaque matière ayant des propriétés chimiques particulières.

chronologie 400 av. J.-C.

1808

1811

Démocrite propose que la matière est bâtie d’unités minuscules et indestructibles

Le chimiste anglais John Dalton publie un premier modèle de structure atomique

L’Italien Amedeo Avogadro propose que les molécules sont des associations d’atomes

Atomes et molécules

«

La théorie de Dalton La Les protons confèrent théorie moderne de l’atome se à un atome son identité, développe à partir de 1805, lorsque et les électrons le chimiste anglais John Dalton reprend la notion que la matière est sa personnalité. faite de particules indivisibles que Bill Bryson lui aussi appelle atomes. Il s’appuie sur les résultats d’une expérience conduite par le Français Joseph-Louis Proust, montrant que les substances tendent à se combiner en proportions fixes et précises. Par exemple, lorsque l’étain réagit avec de l’oxygène, la quantité d’oxygène impliquée est égale à 13,5 % de la masse de l’étain, ou un multiple de 13,5. Il en déduit qu’un atome d’oxygène a une masse égale à 13,5 % de celle d’un atome d’étain.

»

Sur la base de cette découverte, Dalton élabore sa théorie de l’atome, fondée sur cinq axiomes : 1. Tous les éléments chimiques sont constitués de particules appelées atomes. 2. Les atomes d’un même élément sont tous identiques en taille, masse et autres propriétés. 3. Les atomes d’un élément sont différents de ceux d’un autre élément. 4. Les atomes sont indivisibles et indestructibles. 5. Les corps composés sont constitués lorsque les atomes d’un élément se combinent avec ceux d’un autre, en quantités égales ou multiples. Certains des axiomes de Dalton ont été réfutés depuis dans le détail, mais le premier et le troisième restent valides. Le chimiste présenta ses réflexions pour la première fois en 1803 et les précisa dans son livre de 1808 : Un nouveau système de philosophie chimique. Dalton ouvrit ainsi la voie à la chimie moderne, mais il fallut attendre encore un siècle avant qu’Albert Einstein ne prouve effectivement l’existence des atomes en interprétant le mouvement chaotique de grains de pollen, vus au microscope. Il en déduisit à l’époque qu’ils étaient ainsi ébranlés par leurs collisions avec d’invisibles atomes.

Les composés chimiques En 1811, un chimiste italien du nom d’Amedeo Avogadro développe la théorie de Dalton et fait la distinction entre atomes et molécules, les secondes étant une association des premiers par le biais d’une réaction chimique. Le mot « molécule » avait été proposé au XVIIe siècle

1905

1909

1926

Einstein prouve l’existence des atomes en observant le comportement de grains de pollen

Jean Perrin réalise la première estimation du nombre d’Avogadro

Perrin reçoit le prix Nobel pour ses travaux sur les masses moléculaires

69

70

50 clés pour comprendre les grandes idées de la science

Les liaisons chimiques Comment deux atomes arrivent-ils à se combiner ? Au sein de l’atome, le noyau a une charge positive, entouré d’électrons de charge négative. Deux atomes qui se rencontrent peuvent entremêler ces électrons pour les lier et former une molécule. Il existe deux types de liaisons. Dans la liaison covalente, deux atomes partagent une paire d’électrons : c’est le cas des nonmétaux, comme le carbone et l’oxygène. Dans la liaison ionique, les atomes cèdent ou accaparent des électrons, et ne sont plus neutres électriquement : on les appelle des ions. Les non-métaux acquièrent des électrons et une charge négative, alors que les métaux et l’hydrogène cèdent des électrons, prenant une charge positive. La force d’attraction électrique assure alors leur liaison.

Les atomes l’une liaison covalente (en haut) partagent des électrons, alors que dans une liaison ionique (en bas), l’électron est transféré, un atome prenant une charge positive, et l’autre une charge négative.

par le philosophe René Descartes, et était utilisé jusqu’alors de façon lâche pour tout corps simple ou composé de la nature. Avogadro apporte la précision que les atomes sont des unités indivisibles d’un élément chimique, alors que les molécules sont les unités d’un corps composé, où des atomes sont liés ensemble. Avogadro énonce également une loi importante qui porte son nom, à savoir que pour une pression et une température données, des volumes égaux de gaz différents, quelle que soit leur nature physique ou chimique, ont le même nombre de molécules. C’est effectivement le cas pour un « gaz idéal », si l’on ignore certains détails comme les forces que peuvent exercer les molécules l’une sur l’autre.

Le nombre d’Avogadro Avogadro est également connu pour une autre découverte qui concerne le nombre d’atomes dans un matériau. Il a d’abord posé que si l’on additionne toutes les masses des atomes formant une molécule, on définit la « masse moléculaire » de celle-ci. Par exemple, si le carbone a une masse atomique de 12 et l’oxygène une masse atomique de 16, la

Atomes et molécules masse moléculaire du dioxyde de carbone (CO2) est 44 (un carbone plus deux oxygènes). À l’inverse, toutes les substances dont on prélève une quantité qui est égale à leur masse moléculaire auront le même nombre de molécules. Ce nombre est aujourd’hui connu sous le nom de constante ou nombre d’Avogadro : il vaut 6,022 × 1023 (approximativement un 6 suivi de 23 zéros). Les chimistes appellent « mole » ce nombre de molécules d’une substance : par exemple, une mole de CO2 contient 6,022 × 1023 molécules de CO2 pour une masse totale de 44 grammes. Pour la petite histoire, le nombre d’Avogadro ne fut pas défini par le chimiste italien lui-même, mais par le Français Jean Perrin. C’est lui qui proposa que le nombre soit nommé en honneur du savant italien dont les travaux en matière de chimie moléculaire avaient été peu diffusés de son vivant. Quant à Jean Perrin, qui prouva l’existence desdites molécules, il reçut le prix Nobel de physique en 1926.

L’idée clé La matière est constituée d’atomes

71

72

50 clés pour comprendre les grandes idées de la science

18 Le tableau

périodique

Au cours des années 1860, le chimiste russe Dmitri Mendeleïev révolutionna notre approche de la chimie et des éléments chimiques en tentant de classer ces derniers selon leurs propriétés. Ainsi est né le tableau périodique des éléments, qui en donne une vision synthétique, la classification faisant apparaître le rôle des électrons dans leur comportement. Dans les écoles du monde entier, toutes les salles de chimie ont un tableau périodique des éléments accroché au mur, aux nombres et aux symboles colorés. Tous les éléments de l’Univers y sont arrangés par rangées et par colonnes, en fonction de leurs propriétés chimiques et de leur masse atomique. Les éléments sont les blocs constituants du monde qui nous entoure, que ce soit sous leur forme libre ou « élémentaire », ou en association les uns avec les autres sous forme de molécules (voir page 68). À l’aube des années 1860, 62 éléments étaient connus et les chercheurs tentaient de trouver leurs points communs pour les classer. L’un des premiers à y parvenir fut le Russe Dmitri Mendeleïev.

Faire du rangement Mendeleïev dressa la liste des éléments en fonction de leur masse atomique (nombre que l’on sait aujourd’hui représenter celui des protons et des neutrons dans le noyau). Le chimiste nota chaque élément sur une carte, avec sa masse atomique et ses propriétés. Il aligna d’abord ses cartes en une seule rangée, par ordre de masse atomique croissante. Puis il se rendit compte qu’en divisant la rangée en segments, disposés l’un sous l’autre en un tableau, il pouvait obtenir un motif où les éléments de chaque colonne affichaient des propriétés semblables. Par exemple, dans la colonne la

chronologie 1789

1862

1864

Antoine Lavoisier regroupe les éléments selon leurs principales propriétés

Alexandre-Émile de Chancourtois découvre parmi eux un motif répétitif

L’Écossais John Newlands confirme cette périodicité de façon indépendante

Le tableau périodique plus à gauche, lithium, sodium et potassium sont trois métaux qui réagissent violemment avec l’eau. Chaque colonne représente ainsi un « groupe » aux propriétés communes, alors que dans une rangée, appelée « période », des propriétés différentes s’échelonnent d’un élément au suivant, et la séquence se répète d’une rangée sur l’autre. Mendeleïev publia sa première « table périodique » en 1869, et la peaufina par la suite, bougeant les éléments pour les ranger dans les colonnes qui lui paraissaient les plus appropriées. Il laissa des trous dans la table, là où il pensait qu’un élément non encore découvert prendrait place, tout en prédisant les propriétés qu’il aurait. Ainsi le chimiste proposa qu’il y avait un espace à remplir sous l’aluminium, élément manquant qui aurait une masse atomique de 68 : il baptisa l’élément inconnu « eka-aluminium ». L’élément fut découvert six ans plus tard par le chimiste français Paul-Émile Lecoq de Boisbaudran, affichant bien les propriétés prévues, et reçut le nom définitif de gallium. De la même façon furent découverts en 1879 et 1886 les éléments scandium et germanium, confirmant le bien-fondé du tableau. La découverte par l’Écossais William Ramsay des gaz nobles dans les années 1890 ajouta d’ailleurs une nouvelle colonne au tableau.

Le numéro atomique Le tableau périodique s’est enrichi par la suite, jusqu’à compter 118 éléments. Quant à la démarche flexible de Mendeleïev, réarrangeant les éléments jusqu’à obtenir des correspondances, elle lui permit de découvrir que l’arrangement n’obéissait pas toujours à une masse atomique croissante. Il attribua donc un « numéro atomique » à chaque élément de sa liste pour bien définir l’ordre : 1 pour l’hydrogène, 2 pour l’hélium, etc. On m’a offert un livre

«

Les éléments sont donc représentés par leur symbole chimique (par exemple H pour l’hydrogène) et également par leur numéro atomique. Alors que la masse atomique représente, on le saura plus tard, le nombre de protons et de

sur le tableau périodique des éléments. J’y ai appris l’élégance de la méthode scientifique et son pouvoir prédictif. Sidney Altman

»

1869

1875

1890

Mendeleïev arrange les 62 éléments connus à l’époque en un tableau périodique

Un nouvel élément prévu par le tableau est découvert : le gallium

William Ramsay découvre les gaz nobles, nouvelle colonne du tableau

73

74

50 clés pour comprendre les grandes idées de la science

Dmitri Ivanovitch Mendeleïev (1834-1907) Dmitri Mendeleïev est né à Tobolsk en Ukraine, d’une fratrie d’au moins 13 enfants. À la mort de son père, sa mère Maria installa la famille à Saint-Pétersbourg où, après une scolarité en physique et mathématiques qui lui valut le prix d’excellence, Dmitri entra à l’université et reçut un diplôme en chimie, avant de poursuivre ses recherches à Heidelberg, puis à Paris : il y travailla sur la densité des gaz et le fonctionnement du spectroscope. De retour à Saint-Pétersbourg en 1863, il y fut nommé professeur de chimie minérale en 1867 et y enseigna jusqu’en 1890, écrivant nombre d’articles et de livres scientifiques, parmi lesquels son livre fondateur, Principes de chimie, traduit en de nombreuses langues. C’est le 17 février 1869 que Mendeleïev fit sa plus grande découverte. Il avait prévu de

visiter une usine ce jour-là, mais comme le temps était exécrable, il resta chez lui pour classer ses cartes d’éléments et réfléchir à leur disposition, ce qui le mena à découvrir le tableau périodique. Malgré une présentation formelle à la société russe de chimie, son tableau ne reçut pas trop d’attention jusqu’à la découverte d’éléments nouveaux comme le gallium dont il prévoyait l’existence : le tableau devint alors l’un des piliers de la chimie moderne. On peut se demander pourquoi Mendeleïev ne reçut jamais le prix Nobel pour ses travaux. Il fut pourtant nominé en 1905 et en 1906, mais l’un des juges émit l’opinion que la découverte était trop ancienne et connue de tous. Mendeleïev se consola en remportant nombre d’autres prix, ainsi qu’une renommée mondiale.

neutrons dans le noyau, le numéro atomique s’est avéré représenter la charge électrique dudit noyau, c’est-à-dire uniquement son nombre de protons. Cette signification du numéro atomique fut découverte en 1913 par le Britannique Henry Moseley, lorsqu’il mesura la charge électrique des noyaux des différents éléments. Restait à comprendre pourquoi les éléments d’une même colonne du tableau avaient des propriétés chimiques semblables. La réponse fut apportée par la théorie quantique (voir page 40).

Chimie quantique Le noyau atomique est entouré d’un nuage d’électrons aux charges électriques négatives. La théorie quantique enseigne que ces électrons sont disposés en couches concentriques autour du noyau. Or les éléments d’un même groupe s’avèrent avoir le même nombre d’électrons dans leur dernière couche. Comme ce sont ces électrons extérieurs qui permettent à l’atome de réagir chimiquement avec ses voisins, leur nombre est donc fondamental et est à la base d’un comportement chimique particulier. Les électrons des couches inférieures ne rentrent pas en ligne de compte.

Le tableau périodique Chaque élément a un nombre fixe de protons dans son noyau, mais le nombre de neutrons peut varier : ces « isotopes » ont le même comportement chimique, mais réagissent différemment dans les réactions nucléaires (voir page 44). D’autre part, un élément peut exister en groupements moléculaires de plusieurs atomes, ce qui conduit à des comportements physiques différents : on les appelle « allotropes » de l’élément. Ainsi a-t-on l’oxygène atomique (O), diatomique (O2), et triatomique ou ozone (O3). Le tableau de Mendeleïev, qui comptait huit groupes à l’origine, s’est développé au fil des nouvelles découvertes. Ainsi lui a-t-on ajouté les lanthanides ou terres rares, les actinides, et quelques éléments à courte durée de vie qui sont synthétisés en très petit nombre au laboratoire. Mendeleïev ne reçut jamais le prix Nobel pour ses travaux, mais son nom fut donné à l’un de ces nouveaux éléments synthétiques : le mendélévium, de numéro atomique 101.

L’idée clé Les éléments chimiques obéissent à un ordre établi

75

76

50 clés pour comprendre les grandes idées de la science

19 La radioactivité Certains éléments sont naturellement instables. Leurs atomes se désintègrent en particules plus petites et en énergie – produits que l’on désigne ensemble sous le nom de radioactivité. Certains éléments radioactifs sont dangereux pour la santé, mais d’autres sont utilisés avantageusement comme marqueurs pour les diagnostics médicaux ou comme thérapie contre le cancer. La radioactivité fut découverte par le chimiste français Henri Becquerel en 1896. Fasciné par les rayons X, découverts l’année précédente par le chimiste allemand Wilhelm Röntgen, Becquerel se demandait si ces rayons avaient quelque chose à voir avec la phosphorescence – la capacité qu’ont certains matériaux de réémettre la lumière reçue. Röntgen avait montré que les rayons X voilaient une plaque photographique. Becquerel voulait tester si la phosphorescence de sels, illuminés par le soleil, en ferait autant. Le jour de l’expérience, le ciel était couvert : en attendant de meilleures conditions, Becquerel rangea ses sels d’uranium et ses plaques photographiques dans un tiroir. Or quelle ne fut pas sa surprise, lorsqu’il développa ses plaques et s’aperçut qu’elles avaient été voilées sans que les sels aient pu émettre de phosphorescence dans l’obscurité ! Seuls des sels d’uranium, d’ailleurs, causaient ce phénomène, à savoir un nouveau type de rayonnement invisible capable d’impressionner des plaques photographiques. C’est la chimiste Marie Curie, en écrivant sa thèse de doctorat sur le sujet, qui donna au phénomène le nom de « radioactivité ».

Rayonnement radioactif En poursuivant leurs recherches, Becquerel et ses contemporains découvrent que trois types de rayonnement sont impliqués dans la radioactivité, qu’ils appellent alpha, bêta et gamma. Les rayons alpha sont des particules lourdes à courte portée. L’uranium, le radium et le thorium en émettent spontanément dans la nature. Ces particules perdent leur énergie et leur vitesse rapidement dans l’air et ne traversent ni les vêtements ni la peau.

chronologie 1896

1898

1899

Henri Becquerel détecte un rayonnement inconnu produit par l’uranium

Marie Curie donne au phénomène le nom de « radioactivité »

Ernest Rutherford montre que le rayonnement consiste en particules alpha et bêta

La radioactivité Le rayonnement bêta est constitué de particules légères qui peuvent franchir plusieurs mètres dans l’air et pénétrer jusqu’à la couche la plus profonde de la peau. Le strontium 90 émet des rayons bêta, et de vastes régions de Russie et d’Europe de l’Ouest furent contaminées par cet élément radioactif lors de l’accident nucléaire de Tchernobyl en 1986. Quant au rayonnement gamma, il s’agit d’une onde électromagnétique de très haute énergie. Elle peut profondément pénétrer les tissus et être fatale, mais on l’utilise aussi en médecine pour détruire les cellules cancéreuses. À partir des années 1890, le physicien d’origine néo-zélandaise Ernest Rutherford et le chimiste britannique Frederick Soddy, travaillant ensemble à Montréal, établirent que la radioactivité résultait de la désintégration d’un atome en plusieurs morceaux. C’est d’ailleurs à cette occasion qu’Ernest Rutherford, en poussant plus loin ses expériences et en étudiant la dispersion de particules alpha, découvrit que la grande majorité de la masse d’un atome – ses protons et ses neutrons – était concentrée en un minuscule noyau central (voir page 72). Sur la base de cette découverte, il s’avérait donc que la radioactivité ne concernait pas seulement la désintégration d’un atome, mais se rapportait à celle du noyau lui-même. Les particules alpha se sont révélées être des paquets de deux protons et de deux neutrons éjectés : l’équivalent d’un noyau d’hélium. Les particules bêta, pour leur part, se sont avérées être des électrons, ce qui était étonnant, car le noyau ne contient pas en principe d’électrons. Il fut découvert La radioactivité génère Noyau d’hélium trois types d’émissions : les particules alpha, les particules bêta

Noyau lourd instable Rayons alpha

et les rayons gamma. Positron ou électron Rayons bêta

Onde électromagnétique de haute énergie

Rayons gamma

1903

1913

1986

Rutherford et Soddy attribuent la radioactivité à la désintégration atomique

Hans Geiger met au point un détecteur de radiation : le compteur Geiger

Accident de la centrale nucléaire de Tchernobyl : 5 200 000 000 000 000 000 becquerels de radioactivité

77

78

50 clés pour comprendre les grandes idées de la science toutefois que dans certaines circonstances, un neutron sans charge électrique pouvait se désintégrer en un proton positif, qui restait dans le noyau, et un électron négatif qui en était éjecté. Enfin, les rayons gamma n’étaient autres que des ondes électromagnétiques de haute fréquence (voir page 16), émises lorsque le noyau voyait son niveau d’énergie baisser d’un cran.

Des éléments actifs Tous les éléments ne sont pas radioactifs : ce comportement ne concerne généralement que ceux ayant un noyau massif, comptant plus de 83 protons (l’uranium, par exemple, en possède 92). Ces noyaux ont plus de mal à rester intègres, à cause de la répulsion électrostatique entre tous leurs protons de charge positive – une répulsion globale qui augmente avec le nombre de protons et finit par rendre l’ensemble instable. Les physiciens définissent le niveau de radioactivité d’un élément par une valeur qu’ils appellent « demi-vie ». Il s’agit du temps moyen que prend un élément radioactif pour que son stock se désintègre de moitié. C’est une valeur statistique : aucune loi de la physique ne peut dire à quel moment un noyau particulier va se désintégrer. Mais lorsque l’on prend en considération un grand nombre d’atomes, par exemple un échantillon suivi au laboratoire, on peut mesurer une moyenne. Le plutonium 239 par exemple, qui contient 239 protons et neutrons dans son noyau et est l’un des principaux déchets des centrales nucléaires, a une demi-vie de 24 000 ans.

Dangers radiologiques Lors des premières recherches sur la radioactivité, les physiciens ont pris d’énormes risques. Pierre Curie exposa son bras à du radium pendant plusieurs heures pour voir le résultat, et développa une lésion qui mit plusieurs mois à guérir. Becquerel se brûla en transportant une éprouvette de sels de radium, écrivant à son sujet : « ce radium, je l’aime, mais je lui en veux ». Marie et Pierre Curie prirent des précautions en manipulant des matériaux radioactifs, mais la physicienne mourut en 1934 d’anémie aplasique, une atteinte de la moelle osseuse qui entrave la fabrication des cellules du sang. Encore aujourd’hui, ses cahiers de laboratoire sont trop radioactifs pour être manipulés sans protection.

Bienfaits et dangers La radioactivité a de nombreuses applications. Elle est utilisée pour la datation, notamment le carbone 14 produit dans l’atmosphère, qui a une demi-vie de 5 730 ans. En mesurant sa proportion dans des matières carbonées comme le bois ou le papier, on peut mesurer l’âge de certains sites archéologiques. Les applications sont nombreuses dans le domaine de la médecine. Des traceurs radioactifs sont ainsi utilisés pour repérer les

La radioactivité dysfonctionnements de certains organes : on utilise pour ce faire des éléments à brève durée de vie, comme le technétium 99, afin qu’une fois sa circulation étudiée dans l’organe du patient, le rayonnement cesse rapidement. Le rayonnement radioactif est aussi utilisé pour détruire les cellules cancéreuses : deux tiers des cas de cancer sont traités par chimiothérapie. On peut aussi stériliser les instruments médicaux en les enfermant dans un sac étanche que l’on bombarde aux rayons gamma pour détruire toute bactérie à l’intérieur. Toutefois, la radioactivité est dangereuse et mérite la prudence. Une démonstration malheureuse de sa nocivité est survenue en 1986, lorsque la centrale nucléaire de Tchernobyl a échappé au contrôle de ses opérateurs, son toit explosant pour libérer dans l’atmosphère des matériaux radioactifs. Le site luimême restera inhabitable durant encore 20 000 ans environ.

L’idée clé Les noyaux atomiques peuvent spontanément se désintégrer

79

80

50 clés pour comprendre les grandes idées de la science

20 Les semi­

conducteurs

Les semi-conducteurs ont révolutionné notre manière de travailler et de communiquer. Ils ont permis de miniaturiser l’électronique, d’inventer le microprocesseur, et sont présents dans tous nos instruments de communication et de traitement de l’information : radio et télévision, téléphones et ordinateurs portables. Un semi-conducteur est un matériau qui conduit le courant électrique, mais de façon variable. Ses propriétés sont à mi-chemin entre celles des conducteurs à part entière, comme le cuivre, et celles des isolants comme le verre. La plupart des semi-conducteurs sont des cristaux, fabriqués à partir d’éléments comme le silicium et le germanium. Leur intérêt réside dans le fait que leur conductivité variable dépend du courant qu’on leur applique. Cette propriété permet de créer des dispositifs qui peuvent amplifier, interrompre ou laisser passer à volonté des signaux électriques – commutations essentielles en électronique et en informatique.

Le premier transistor Le premier dispositif à semi-conducteur fut conçu au laboratoire Bell d’AT & T (American Telephone & Telegraph Company) dans le New Jersey. Un département spécial y avait été créé pour construire des amplificateurs à base de semi-conducteurs, sous la houlette du physicien William Shockley. Ce dernier travaillait la plupart du temps à domicile, ce qui laissait le champ libre à ses confrères John Bardeen et Walter Brattain pour conduire leurs expériences. En 1947, ils conçurent un prototype d’amplificateur utilisant deux contacts en or, séparés par un mince coin en plastique, avec la pointe du coin touchant un semi-conducteur en germanium. En faisant passer un courant par l’un des contacts en or jusqu’au germanium, les physiciens parvenaient à l’amplifier en jouant sur le courant passant par l’autre contact.

chronologie 1940

1947

1951

Russell Ohl découvre la jonction « P-N », élément clé des semiconducteurs

Shockley, Bardeen et Brattain inventent le premier transistor à semi-conducteurs

William Shockley invente un transistor sophistiqué à jonction bipolaire

Les semi-conducteurs Bardeen et Brattain avaient inventé le premier « transistor », contraction des mots « transfert » et « résistance » (une résistance pouvant contrôler un courant). Les laboratoires Bell annoncèrent la découverte en 1948. Le théoricien Shockley fut impressionné par la découverte, mais quelque peu vexé que ses confrères l’aient réussie sans lui. Il se lança donc à son tour dans l’étude du dispositif.

John Bardeen (1908-1991) John Bardeen est le seul chercheur à avoir remporté le prix Nobel de physique deux fois : en 1956, avec Brattain et Shockley, pour l’invention du transistor ; et en 1972, avec Leon Neil Cooper et John Robert Schrieffer, pour leurs travaux sur la supraconductivité (voir page 84). Né dans le Wisconsin en 1908, John Bardeen y étudie d’abord l’électrotechnique, avant d’obtenir à Princeton un doctorat en physique mathématique en 1936. Le physicien rejoint en 1945 les laboratoires Bell dans le New Jersey, où il collabore avec Brattain à l’invention du transistor. Il se tourne vers l’enseignement en 1951, en tant que professeur de physique à l’université de l’Illinois. Homme discret, voire effacé, Bardeen a toujours fui la célébrité, ce qui ne l’a pas empêché d’être cité en 1990 par le magazine Life comme l’un des « 100 Américains les plus influents du siècle ».

Une affaire de dopage

On construit différents types de semi-conducteurs en ajoutant des impuretés dans le cristal : c’est la technique du « dopage ». Les semi-conducteurs de « type N » utilisent des éléments ayant un excès d’électrons : par exemple le phosphore. Les semi-conducteurs de « type P » utilisent plutôt un élément ayant un manque d’électrons, comme le bore, ce que l’on peut interpréter à l’inverse comme un excès de « trous » positifs. Les deux types peuvent amplifier le passage d’un courant et vont donc servir à mettre au point le processus.

En 1951, William Shockley utilisa le principe pour construire une version améliorée du transistor de Bardeen et Brattain. Premier « transistor à jonction bipolaire », le dispositif consistait en trois couches alternant semi-conducteurs de type N et de type P. Deux configurations sont possibles. Dans un transistor NPN, augmenter le voltage de la couche P centrale y élève le nombre d’électrons, rehaussant la conductivité des deux autres couches en contact et intensifiant le courant. Dans un transistor PNP, le procédé est similaire, mais

1956

1958

2015

Bardeen, Brattain et Shockley reçoivent le prix Nobel de physique

Invention du microprocesseur à semi-conducteurs, ouvrant la voie au numérique

IBM met en fabrication un transistor de 7 nanomètres de taille

81

82

50 clés pour comprendre les grandes idées de la science

Si Si

Sb Si

Électron en excès relâché

Si

Si

Si B Si

«

Le séquençage par semiconducteur, qui fournit un diagnostic médical en quelques heures, plutôt qu’en plusieurs jours autrefois, permet de sauver des patients. Professeur Christopher Toumazou

« Trou » de charge positive Si

Du silicium (Si) dopé avec de l’antimoine (Sb) donne un semi-conducteur négatif de type N (à gauche), et avec du bore (B) donne un semi-conducteur positif de type P (à droite).

gouverné non pas par l’excès d’électrons au centre, mais par l’excès de trous positifs.

Au final le dispositif permet, en appliquant un modeste courant à la couche centrale, de faire passer un courant beaucoup plus important transversalement à travers les trois couches. C’était un progrès important par rapport aux tubes électroniques, volumineux et peu efficaces, utilisés jusqu’alors. Bardeen, Brattain et Shockley reçurent conjointement le prix Nobel de physique en 1956 pour leurs travaux sur les semiconducteurs et le transistor.

»

La miniaturisation de l’électronique Les premiers transistors furent mis en vente en 1949, mais sans que leur potentiel soit immédiatement perçu. Le transistor radio fut commercialisé dès 1954, mais il fallut attendre la fin des années 1960, et la baisse des prix, pour que les ventes décollent : des milliards furent vendus. D’autres applications allaient suivre. En effet, le transistor pouvait être utilisé non seulement comme amplificateur, mais aussi comme interrupteur, coupant ou laissant passer le courant. Cette commutation « allumé/éteint » peut s’exprimer par le chiffre 1 ou 0, à la base du concept numérique du bit d’information (voir page 52). Des groupements de tels interrupteurs semi-conducteurs forment des « portes logiques », composantes fondamentales des circuits numériques. Elles sont devenues le pilier de l’électronique, au cœur du fonctionnement de votre ordinateur, télévision, caméra et téléphone portable. Les transistors actuels peuvent commuter trois milliards de fois par seconde, traitant l’information à vitesse éclair. Sans les transistors, les ordinateurs en seraient encore au niveau des tubes à vide – ampoules scellées contenant des électrodes avec une séparation pour réguler

Les semi-conducteurs le flux d’électrons. Ces tubes prenaient beaucoup de place, et les premiers ordinateurs occupaient toute une pièce. Le premier ordinateur à transistors fut construit en 1953 à l’université de Manchester. Deux ans plus tard, IBM lançait son premier calculateur à transistors : l’IBM 608.

Minuscules transistors Réduire la taille des transistors permet d’obtenir des microprocesseurs de plus en plus performants. La limite physique de la taille d’un transistor est de 5 nanomètres (nm). Sous ce seuil, on entre dans le domaine de la physique quantique où matière et énergie ont des comportements mystérieux. Ainsi en est-il de l’effet tunnel : si le matériau mesure 5 nm ou moins d’épaisseur, les électrons peuvent le franchir sans même avoir l’énergie requise – un problème lorsqu’on tente de contrôler le flux d’électrons. En 2005, IBM a testé un microprocesseur avec un transistor de 7 nm. En 2016, le record du nombre de transistors dans un microprocesseur commercial était détenu par l’Intel HaswellXeon-EP, avec 5,5 milliards d’unités.

En 1958, les ingénieurs américains Jack Kilby et Robert Noyce inventèrent le microprocesseur à semiconducteurs, ou « puce » en silicium, qui a révolutionné l’électronique : il permettait de placer de nombreux transistors sur une seule pièce semi-conductrice, réduisant considérablement l’encombrement. Le premier transistor mesurait plus d’un centimètre de large. Aujourd’hui, une seule puce de taille comparable en contient des milliards. Les semi-conducteurs sont devenus la pièce maîtresse des appareils électroniques, qu’ils ont mis à la portée de tous. Ils ont révolutionné l’industrie, les télécommunications, la médecine et l’exploration spatiale, ouvrant la voie à l’ère numérique.

L’idée clé L’élément moteur du microprocesseur

83

84

50 clés pour comprendre les grandes idées de la science

21 Les supra­

conducteurs

Aux basses températures, la résistance électrique de certains matériaux s’évanouit : c’est la supraconductivité. Les supraconducteurs ont d’importantes applications dans les transports, les générateurs, l’imagerie médicale et les accélérateurs de particules. On cherche aujourd’hui à obtenir le même phénomène à température ambiante. Un supraconducteur conduit l’électricité avec une résistance proche de zéro. Alors qu’une résistance gâche de l’énergie électrique en la convertissant en chaleur, les supraconducteurs ont donc le potentiel de rendre la production et l’acheminement de l’électricité beaucoup plus efficaces. À l’heure actuelle, 10 à 15 % de l’électricité générée est dispersée en chaleur dans les câbles. En éliminant cette perte, les supraconducteurs pourraient améliorer à la fois l’efficacité énergétique et l’environnement. Le phénomène de la supraconductivité fut découvert par le physicien néerlandais Heike Kamerlingh Onnes, professeur de physique expérimentale à l’université de Leiden. En 1904, il mit en place un grand laboratoire de cryogénie pour étudier les propriétés des matériaux à très basses températures. De nombreux physiciens à l’époque, tel le physicien irlandais Lord Kelvin, pensaient que les électrons porteurs du courant électrique « gèleraient », augmentant la résistance, alors qu’Onnes pensait au contraire que celle-ci diminuerait progressivement. En 1911, alors qu’il étudiait la conductivité d’un fil de mercure, il découvrit qu’en abaissant la température à 4,2 kelvins (– 269 °C), la résistance du mercure disparaissait d’un coup. La découverte ébranla le monde de la science et valut à Onnes le prix Nobel de physique en 1913. Les chercheurs, perplexes, ne trouvaient pas d’explication au phénomène. En 1933, les physiciens allemands Walther Meissner et Robert Oschenfeld s’aperçurent en outre que les supraconducteurs refoulaient les champs

chronologie 1911

1933

1957

Onnes découvre la supraconductivité en refroidissant un fil de mercure à 4,2 kelvins

Oschenfeld et Meissner découvrent que les supraconducteurs éjectent leurs champs magnétiques

Bardeen, Cooper et Schrieffer publient la théorie BCS de la supraconductivité

Les supraconducteurs magnétiques : cet effet Meissner, comme il vint à être connu, repousse les aimants qui peuvent ainsi léviter au-dessus d’un supraconducteur.

toute résistance est inutile ! En 1957, les chercheurs américains John Bardeen, Leon Cooper et Robert Schrieffer, à l’université de l’Illinois, ont résolu l’énigme. Dans un conducteur normal, comme le cuivre, certains électrons peuvent circuler librement entre les atomes du métal. Lorsqu’on applique un voltage, ces électrons sont canalisés en un courant électrique d’un pôle à l’autre. Mais les électrons ne sont pas seuls : les atomes contiennent aussi des noyaux positivement chargés. Dans un environnement chaud, ces noyaux vibrent et entrent en collision avec les électrons, ralentissant leur progression : c’est de là que vient la résistance électrique. Le refroidissement abaisse la résistance en réduisant les vibrations. Dans un supraconducteur, cette résistance disparaît complètement. Pour l’expliquer, la théorie BCS (nommée d’après les initiales des trois savants) propose que les électrons se mettent en couples, appelés « paires de Cooper », qui se faufilent efficacement à travers la structure du métal. La charge négative du premier électron de la paire attire vers lui les noyaux de la structure métallique, distorsion qui rapproche les charges positives du second électron et le propulse dans le sillage du premier, entretenant le courant.

De plus en plus chaud

Le problème avec les supraconducteurs, c’est qu’ils ne fonctionnaient qu’à très basse température : il fallait les refroidir avec de coûteux fluides réfrigérants, comme l’hélium liquide (voir encadré page 86). En 1986, toutefois, les chercheurs d’IBM Johannes Georg Bednorz et Karl Alexander Müller synthétisèrent une céramique contenant du cuivre, qui était supraconductrice à 30 kelvins (– 243 °C) : une amélioration notable. Bednorz et Müller reçurent le prix Nobel de physique Ainsi le mercure entre à 4,2 K pour cette découverte. dans un état nouveau Aujourd’hui, le record que nous appellerons, a été porté à 138 kelvins (– 135 °C) : ces en vertu de ses propriétés « supraconducteurs à électriques particulières, haute température » la supraconductivité. ouvrent la voie à des applications moins Heike Kamerlingh Onnes

«

»

1962

1986

2006

Le premier fil supraconducteur est commercialisé par la firme Westinghouse

Johannes Georg Bednorz et Alex Müller créent un supraconducteur à température ambiante

Mise en service du plus grand aimant supraconducteur pour le Grand collisionneur de hadrons

85

86

50 clés pour comprendre les grandes idées de la science coûteuses dans le domaine de la production d’électricité, de l’électronique et de la médecine. En particulier, la technique est utilisée pour le Maglev, le train japonais à grande vitesse, sous la forme d’aimants supraconducteurs le long de la voie. Grâce à l’effet Meissner, le train japonais lévite 10 centimètres au-dessus de son monorail. En 2015, une rame du Maglev à sept wagons a battu le record de vitesse ferroviaire avec une pointe à 603 km/h, battant le record du TGV français (575 km/h en 2007). Dans les supraconducteurs à basse température, le premier électron d’une « paire de Cooper » attire les noyaux, créant une zone de charge positive qui attire dans son sillage le second électron.

À la recherche du froid En préparant ses expériences de laboratoire, Heike Kamerlingh Onnes fit de son village natal de Leiden l’endroit le plus froid de la planète. Pour soumettre ses conducteurs aux basses températures requises, il avait besoin d’un liquide réfrigérant. Le 10 juillet 1908, en refroidissant de l’hélium gazeux, Onnes réussit à le rendre liquide : la première fois dans l’histoire que de l’hélium liquide avait été fabriqué. Le physicien parvint à abaisser sa température jusqu’à 0,9 °C seulement au-dessus du zéro absolu.

Quant aux accélérateurs de particules, comme le Grand collisionneur de hadrons du CERN à la frontière francosuisse, ils utilisent aussi la supraconductivité. Dans leurs tunnels, des particules sont accélérées à des vitesses proches de celle de la lumière avant d’être amenées à entrer en collision pour se désagréger en particules fondamentales que l’on cherche à étudier. Le tunnel circulaire du CERN, long de 27 km, comprend 1 500 aimants supraconducteurs qui guident le flux de particules. Chacun est long de 15 m et pèse 35 tonnes, générant un champ magnétique 100 000 fois plus puissant que celui de la Terre.

Les aimants de la médecine Les supraconducteurs sont une composante principale des imageurs à résonnance magnétique (IRM) utilisés pour diagnostiquer les maladies cardiaques et cancéreuses. Ces systèmes utilisent un puissant champ magnétique pour forcer les molécules d’eau du corps à émettre des ondes électromagnétiques : celles-ci sont exploitées pour fournir des images.

Les supraconducteurs Le champ magnétique est généré par un aimant supraconducteur constitué de bobines parcourues par un courant – aimant qui doit être maintenu à une température de – 269,1 °C par de l’hélium liquide. Les générateurs électriques supraconducteurs, pour leur part, pourraient révolutionner le monde. Les générateurs normaux utilisent des bobines de fil de cuivre qui sont mises en rotation mécaniquement, au sein d’un champ magnétique, pour générer un courant. À la place du cuivre, des bobines de fil supraconducteur auraient une efficacité de 100 % et prendraient moitié moins de place. Des physiciens finlandais ont calculé que si tous les pays de l’Union Européenne utilisaient de tels générateurs dans leurs centrales, les émissions annuelles de carbone chuteraient de 53 millions de tonnes. Reste la perte d’énergie lors du transport de l’électricité, via les câbles, jusqu’à l’usager. La seule façon de résoudre ce problème est de découvrir un supraconducteur qui fonctionne à température ambiante : un défi de taille.

L’idée clé La voie rapide pour l’énergie

87

88

50 clés pour comprendre les grandes idées de la science

22 Ballons de foot et nanotubes

Jusqu’en 1985, les chimistes pensaient tout connaître sur le carbone. C’était sans compter sur la découverte des fullerènes : des structures carbonées uniques qui sont à la base de matériaux vingt fois plus résistants que l’acier et pourraient contribuer à la synthèse de médicaments contre le sida et le cancer. Le carbone est l’un des éléments clés du monde vivant. C’est le quatrième élément le plus abondant dans l’Univers et on le trouve dans toutes les cellules du corps humain. Longtemps on a pensé qu’il n’y avait que trois principaux arrangements ou « allotropes » d’atomes de carbone : la suie, le graphite et le diamant. En 1985 toutefois, une équipe internationale de chercheurs a révélé un nouvel allotrope du carbone qui ouvrait d’excitantes prospectives dans les domaines de l’ingénierie et de la médecine. L’aventure a commencé à l’université du Sussex où le chimiste Harold Kroto s’intéressait aux propriétés des atomes de carbone qui se regroupent dans l’atmosphère des étoiles. Il réalisa à cette fin une spectroscopie de leurs ondes radio. En se rendant à l’université de Rice au Texas, Kroto rencontra Robert Curl, un expert en la matière qui lui montra un puissant laser ayant la capacité de vaporiser des composés chimiques en nuages de leurs atomes constituants, laser conçu par son confrère de Rice, Richard Smalley.

Coup de laser

Kroto, Curl et Smalley décidèrent alors d’utiliser le laser pour vaporiser un échantillon de graphite. En analysant les structures de carbone formées dans cette vapeur, l’équipe découvrit un étrange phénomène. Un allotrope de carbone jusqu’alors inconnu s’était formé en grandes quantités, contenant 60 atomes. Pour être stable, il devait être de forme quasi sphérique et structuré en 13 pentagones et 20 hexagones, comme un ballon de foot. Chacune de ces molécules mesurait 1 nanomètre de taille : dix mille fois plus petit que l’épaisseur d’un cheveu humain.

chronologie 1985

1991

1993

Curl, Kroto et Smalley découvrent un nouvel allotrope de carbone : le buckyball

Sumio Ijima révèle la structure des nanotubes en carbone

On découvre que les fullerènes inhibent la protéase du virus HIV-1

Ballons de foot et nanotubes

«

L’équipe baptisa la nouC’est la troisième forme velle molécule « buckde carbone à l’état pur, minsterfullerène » en hommage à l’architecte et nous avons été totalement américain Buckminster surpris, comme tout le monde Fuller qui avait lancé la du reste, qu’une telle cage mode des dômes géodésphéroïdale de carbone siques, de forme similaire puisse exister. (le nom anglais fut plus tard abrégé à buckyball). Harold Kroto Au début, de nombreux chercheurs restèrent sceptiques, car le carbone avait été tellement étudié qu’il était difficile d’imaginer qu’un allotrope inconnu leur avait échappé. Mais des études ultérieures et l’identification d’autres molécules de carbone avec 70, 76 et 84 atomes vinrent confirmer la découverte : ces allotropes constituent désormais la famille des fullerènes. Kroto, Curl et Smalley reçurent le prix Nobel en 1996 pour leurs travaux.

»

Fullerènes dans l’espace Les fullerènes existent sur Terre sous différentes formes. Ils ont été détectés dans la suie de combustion des bougies et dans des roches carbonées comme la fulgurite. En 2010, l’observatoire orbital Spitzer de la NASA, qui opère dans l’infrarouge, a détecté des fullerènes dans l’espace, et deux ans plus tard le télescope a découvert des assemblages de fullerènes en grains plus gros dans l’atmosphère de l’étoile binaire XX Ophiuci. Nombre d’astronomes spéculent que ce sont les fullerènes qui ont ensemencé la surface de la Terre en carbone, au travers des météorites qui s’y sont écrasées. Les fullerènes détiennent peut-être aussi la clé d’un autre mystère. Au cours du siècle écoulé, les astronomes ont en effet observé de larges raies d’absorption dans la lumière provenant d’autres étoiles de la Galaxie. Ces bandes sombres et diffuses sont attribuées aux poussières et molécules rencontrées par la lumière sur le chemin. Or en 2015, des chercheurs de l’université de Bâle ont rapporté les résultats d’expériences conduites au laboratoire sur des fullerènes : dans les conditions du milieu interstellaire, ces molécules absorbent la lumière dans les mêmes plages de longueurs d’onde que les bandes observées dans la lumière stellaire. On pense aussi qu’elles sont très stables et peuvent perdurer des millions d’années.

2012

2013

2014

Le télescope Spitzer de la NASA détecte des fullerènes dans l’espace à l’état solide

Des fullerènes sont synthétisés pour encapsuler des médicaments

Les chercheurs découvrent une structure en cage formée de 40 atomes de bore

89

90

50 clés pour comprendre les grandes idées de la science

L’ascenseur spatial

Nanotubes en carbone Les recherches

effectuées sur les fullerènes ont mené à la découverte, Cela fait plus d’un siècle que les ingénieurs rêvent de en 1991, d’un autre alloconstruire un ascenseur spatial : hisser des charges le trope du carbone. Il s’agit long d’un câble jusqu’à l’orbite géostationnaire, plutôt de nanotubes cylindriques que les y propulser par fusée. L’obstacle majeur était de qui ressemblent à des routrouver un matériau assez léger et assez résistant pour leaux de grillage. Leurs se dérouler sur 35 000 kilomètres sans qu’il rompe sous molécules sont minuscules son propre poids : un câble d’acier se briserait au bout (quelques milliardièmes de de seulement 30 kilomètres. mètre de diamètre) mais Le développement des nanotubes de carbone a resà volume égal, elles sont suscité l’idée, les ingénieurs espérant désormais pouvingt fois plus résistantes voir produire des câbles qui tiendraient sur de telles que l’acier et ne pèsent que distances. L’Académie Internationale d’Astronautique la moitié du poids de l’alurêve ainsi de voir l’orbite géostationnaire desservie par minium. Ces nanotubes un ascenseur spatial y acheminant plusieurs dizaines de de carbone possèdent des tonnes par semaine. propriétés mécaniques et chimiques qui leur promettent un brillant avenir : ils conduisent la chaleur mieux que le diamant (considéré jusqu’alors comme le meilleur conducteur thermique) et conduisent l’électricité quatre fois mieux qu’un fil de cuivre. On peut utiliser les nanotubes comme condensateurs, car leur grande surface leur permet de stocker une charge électrique plus importante que d’autres matériaux. Ils sont également pressentis comme remplaçants du silicium dans les microprocesseurs, où ils procureront un accès plus rapide aux données, que ce soit dans un ordinateur ou un téléphone portable. Leur solidité et leur résistance à l’usure en font aussi une matière première intéressante pour nombre Les fullerènes peuvent prendre plusieurs formes : un nanotube en carbone (à gauche) ne mesure qu’un milliardième de mètre de diamètre ; les cages sphériques ou buckyballs (à droite) ont un diamètre identique.

Ballons de foot et nanotubes de produits, que ce soit des clubs de golf, des gilets pare-balles ou des étages de fusée. On les utilise également comme filtres pour éliminer de l’eau potable les contaminants chimiques et biologiques. Dans le domaine de la médecine, les nanotubes présentent un grand intérêt dans la lutte contre le cancer, car ils peuvent acheminer des médicaments de façon ciblée – et donc en moindre quantité – aux cellules cancéreuses. Ce sont également de puissants antioxydants qui ralentissent la production de radicaux libres. Les compagnies pharmaceutiques commencent à tester leur efficacité dans la lutte contre la maladie d’Alzheimer et autres pathologies neuronales, l’athérosclérose et les infections virales. En 1993, des chercheurs américains ont montré que les fullerènes inhibent la fonction de la protéase HIV-1, molécule clé dans la propagation de l’infection, de sorte que la lutte contre le sida bénéficiera grandement de la technologie des nanotubes. La découverte des fullerènes a participé au lancement d’un nouveau domaine des sciences : la nanotechnologie (voir page 92). Matériaux d’avenir, ces minuscules molécules ont le pouvoir de révolutionner à la fois la médecine et nos industries futures.

L’idée clé De nouveaux matériaux pour le monde de demain

91

92

50 clés pour comprendre les grandes idées de la science

23 La nano­

technologie

Les chercheurs ont aujourd’hui le pouvoir de manipuler des atomes pour remplir de nombreuses fonctions. L’invention du microscope électronique à effet tunnel a ouvert une fenêtre sur ce monde nanoscopique qui offre de riches perspectives dans le domaine de la médecine, en remplacement de méthodes agressives comme la chimiothérapie. Il est difficile de se représenter à quelle échelle opère la nanotechnologie. Un nanomètre (nm) équivaut à un millionième de millimètre. Si par exemple une bille était rapetissée pour ne plus mesurer que 1 mm, la Terre réduite par un même facteur ne mesurerait qu’un mètre de diamètre. Physique, chimie, biologie et ingénierie à cette échelle constituent la nanotechnologie. Une telle échelle n’est pas une découverte en soi. Dans la nature s’y déroulent déjà de nombreuses fonctions : la molécule d’hémoglobine, qui transporte l’oxygène dans le sang, mesure 5,5 nm de diamètre ; la molécule d’ADN est large de 2 nm. La nanotechnologie touche toutefois au monde quantique : les matériaux s’y comportent différemment qu’à plus grande échelle, ce qui offre d’intéressantes applications techniques. Ils peuvent y être plus résistants, chimiquement plus actifs, réagir différemment au magnétisme, et conduire la chaleur et l’électricité de façon plus efficace.

Les premières découvertes La nanotechnologie s’est développée en plusieurs étapes. Le terme lui-même fut introduit en 1974 par le professeur Norio Taniguchi de l’université de Tokyo pour décrire l’usinage à très petite échelle des matériaux. Il s’ensuivit l’invention du microscope à effet tunnel (STM) en 1981 : conçu par Gerd Binnig et Heinrich Rohrer au labo IBM de Zürich, il a permis de visualiser des détails de l’ordre de 0,01 nm. Cette résolution extrême permettait même d’entrevoir des atomes individuels et

chronologie 1959

1974

1981

Richard Feynman délivre un discours fondateur sur le contrôle des atomes

Taniguchi propose le mot « nanotechnologie » pour l’ingénierie des matériaux microscopiques

Invention du microscope électronique à effet tunnel, permettant de visualiser des atomes

La nanotechnologie leur emplacement : une fenêtre ouverte dans le monde de l’infiniment petit. L’invention valut d’ailleurs aux deux chercheurs de recevoir le prix Nobel de physique. À partir de 1985, la découverte des fullerènes (voir page 88) mena au développement des nanotubes de carbone, qui ont permis la mise en place de dispositifs électroniques et traitements médicaux à cette échelle. Au début des années 1990, des produits dérivés de la nanotechnologie ont fait leur apparition sur le marché : crèmes solaires et autres produits cosmétiques, équipements sportifs, verres résistant aux rayures et écrans améliorés pour téléviseurs et téléphones portables.

L’effet tunnel La nanotechnologie n’aurait pas pu prendre son envol sans l’invention du microscope à effet tunnel (STM), en 1981. Les microscopes électroniques conventionnels, développés dans les années 1930, permettaient de visualiser des objets de la taille du micromètre (un millième de millimètre). Le STM permet d’étudier des objets 100 000 fois plus petits, en dessous du nanomètre, grâce à un phénomène de physique quantique : l’effet tunnel. En physique quantique, les particules se comportent comme des ondes. Dans le cas du STM, la pointe de la sonde balaye la surface de l’échantillon sans la toucher : lorsqu’un voltage est appliqué, un courant d’électrons se focalise par « effet tunnel » entre la pointe et la surface. Si la distance entre pointe et surface varie au cours du cheminement de la sonde au-dessus de l’échantillon, des variations du courant électrique sont ressenties, ce qui permet de cartographier en détail les « bosses » des atomes à la surface de l’échantillon.

La nanotechnologie opère à très petite échelle, mais débouche sur de grandes puissances. En désagrégeant la matière en minuscules particules, on crée en effet de plus vastes surfaces, ce qui amplifie la réactivité chimique : de tels matériaux ont donc un grand pouvoir catalytique. Les fabricants automobiles conçoivent désormais des convertisseurs catalytiques à base de particules de platine, rhodium ou palladium d’un diamètre de 5 nm, incrustées dans une plaque en céramique : moitié moins de ces métaux précieux sont nécessaires pour lancer les réactions chimiques qui décomposent les produits polluants.

Dans le domaine des microprocesseurs, les ingénieurs s’attachent d’autre part à loger autant de transistors que possible sur une puce pour accroître la puissance

1985

1989

2015

Curl, Kroto et Smalley découvrent des nanoparticules de carbone : les fullerènes

Des chercheurs d’IBM parviennent à écrire son logo en atomes de xénon à l’aide d’un STM

Présentation d’un microprocesseur de 7 nm, le plus petit à ce jour

93

94

50 clés pour comprendre les grandes idées de la science

La nanorobotique La nanorobotique, fondée sur le concept de robots miniaturisés à l’échelle du nanomètre, peut séduire ou au contraire inquiéter. L’idée est de programmer et de contrôler une « armée » de ministructures qui pourraient intervenir par exemple au niveau cellulaire de notre corps : par exemple, dès le début d’un rhume, les nanorobots détecteraient le virus responsable et le décomposeraient avant même qu’on n’ait le temps de renifler. Un tel scénario n’a pas manqué de soulever des critiques, notamment la crainte que de tels robots puissent se mettre à transformer tout ce qu’ils rencontrent en copies d’eux-mêmes : une réplication exponentielle et imparable en grey goo – le terme consacré en science-fiction. La majorité des chercheurs pensent heureusement qu’une telle menace est fantaisiste.

des ordinateurs et des smartphones. Les plus petits éléments ont longtemps mesuré entre 14 et 22 nm, mais IBM a annoncé en 2015 la fabrication d’une puce aux éléments mesurant 7 nm seulement. Comment peut-on contrôler et manipuler des atomes à une échelle aussi minuscule ? En fait, le microscope STM permet non seulement de visualiser les nano-objets : il permet aussi de les déplacer, notamment avec des pointes en iridium qui attirent les atomes. En 1989, les chercheurs d’IBM ont ainsi réussi à déplacer des atomes de xénon sur une plaque de cuivre pour épeler les trois lettres de leur logo.

Il existe deux procédés pour la fabrication de matériaux à l’échelle du nanomètre. L’approche « descendante » consiste à réduire des matériaux grossiers jusqu’à la taille voulue, mais c’est un procédé coûteux avec beaucoup de déchets à la clé. L’approche « ascendante » consiste à assembler le produit à partir d’atomes et de molécules, mais elle est très coûteuse en temps. En conséquence, les chercheurs explorent les possibilités d’auto-construction, plaçant les molécules ensemble de façon à ce qu’elles croissent elles-mêmes en configurations ordonnées avec un minimum d’intervention extérieure. C’est d’ailleurs ce qui se passe communément dans la nature, par exemple la croissance de cristaux dans les flocons de neige.

«

La nanotechnologie en médecine va avoir un impact majeur sur la survie de l’espèce humaine. Bernard Marcus

»

Applications en médecine La nanomédecine a également le vent en poupe : les chercheurs se penchent ainsi sur le potentiel de l’or, à l’échelle nanométrique, pour traiter le cancer. Des particules d’or peuvent en effet être programmées pour se rassembler dans les cellules cancéreuses : visibles alors sur les images médicales, ces

La nanotechnologie La plus petite guitare au monde, conçue par nanotechnologie, mesure 10 micromètres de long (la taille d’un globule rouge).

cellules peuvent ensuite être détruites au laser. Une autre application concerne le diabète : un dispositif nanotechnologique est à l’étude, qui permettrait de détecter dans l’haleine la concentration d’acétone, proportionnelle au taux de sucre dans le sang. Souffler dans un tel dispositif serait une méthode beaucoup moins invasive que se piquer le doigt plusieurs fois par jour. La nanotechnologie a eu son lot de détracteurs au cours des ans, qui mettent en garde contre les effets imprévus de nanoparticules introduites dans le corps humain. Comme dans toute recherche d’avant-garde, toutefois, des expériences seront conduites pour établir le caractère bénin des produits conçus.

L’idée clé Petite taille, mais grands effets

95

96

50 clés pour comprendre les grandes idées de la science

24 Les origines de la vie

L’un des plus grands mystères que les biologistes tentent de résoudre est de comprendre comment la vie est apparue sur Terre. A-t-elle pris naissance dans les océans, ou bien est-elle venue de l’espace, en passager clandestin sur une météorite ou une comète ? L’enquête ne fait que commencer. Lors de sa prime jeunesse, la Terre était ravagée par les impacts d’astéroïdes et les éruptions volcaniques, son manteau chauffé à blanc par la désintégration de ses éléments radioactifs. Les géologues appellent cette première ère de son histoire l’Hadéen, par référence au dieu grec des enfers, Hadès. Il est peu probable que la vie ait pu naître ou subsister au fond des océans ou sur les continents surchauffés durant cette période, il y a 4,5 à 4 milliards d’années. Les conditions se sont peu à peu améliorées à mesure que la surface s’est refroidie. Des bactéries monocellulaires sont apparues, dont on retrouve les vestiges dans des fossiles de colonies bactériennes appelés stromatolithes. Mais on ne sait toujours pas comment elles ont émergé de l’enfer hadéen et de la matière inerte. Cette question, qui intrigue les chercheurs depuis la nuit des temps, a donné naissance à la science de l’abiogenèse : l’étude du passage du non-vivant au vivant. Elle ne repose pour l’instant que sur des hypothèses et aucune certitude.

À la recherche d’une recette

Au début du XXe siècle, les chercheurs Alexandre Oparine et John Haldane ont indépendamment émis la théorie que dans des temps reculés, avant que l’atmosphère de la Terre ne s’enrichisse en oxygène, une vaste gamme de molécules organiques auraient pu voir le jour sous l’action des éclairs et des rayons ultraviolets du Soleil. En 1952, Stanley Miller et Harold Urey testèrent cette théorie à l’université de Chicago, lors d’une expérience restée célèbre. Dans un ballon en verre, ils simulèrent l’atmosphère

chronologie IVe

siècle av. J.-C.

Anaxagore propose que la matière vivante provient de « graines » universelles

1903

1920

Le Suédois Svante Arrhenius affirme que des spores peuvent survivre dans le vide

Hypothèse d’une vie apparue dans une « soupe primordiale » en présence d’énergie

Les origines de la vie primitive de la Terre en y combinant eau, hydrogène, méthane et ammoniac (gaz présumés de cette époque), qu’ils excitèrent avec des décharges électriques. Au bout d’une semaine, nombre de molécules organiques étaient apparues, y compris des acides aminés – blocs constituants des protéines. Ce résultat prouvait que les molécules nécessaires à la vie auraient pu apparaître sur la Terre primitive.

La soupe primordiale Le concept d’une « soupe primordiale » est débattu depuis près d’un siècle, mais d’où vient-il ? L’idée a été émise en 1924 par le biologiste soviétique Alexandre Oparine. Selon lui, l’atmosphère primitive de la Terre consistait en dioxyde de carbone, méthane, ammoniac, hydrogène et vapeur d’eau. Dans une telle atmosphère réductrice (sans oxygène libre), des courants électriques suffisent à déclencher la création de molécules organiques, y compris des acides aminés – blocs constituants des protéines. Ces molécules se seraient alors assemblées en composés de plus en plus sophistiqués, jusqu’à former des êtres vivants. Le biologiste britannique John Haldane, parvenu à la même conclusion, a inventé l’expression de « soupe prébiotique » pour décrire cette solution de composés chimiques, expression devenue « soupe primitive » ou « soupe primordiale ».

Suite à cette première tentative, d’autres expériences ont montré que ces mélanges prébiotiques peuvent également engendrer des nucléotides – pièces maîtresses de notre code génétique : l’ADN (acide désoxyribonucléique) et l’ARN (acide ribonucléique). Une hypothèse veut d’ailleurs que la vie ait pu commencer sur Terre à partir d’ARN : le biologiste Carl Woese a émis cette hypothèse en 1968, en postulant que de l’ARN aurait pu être produit par simples réactions chimiques sur la Terre primitive. L’ARN ne fait pas que porter le code génétique ; c’est aussi un catalyseur qui accélère les réactions chimiques dans son entourage, sans lui-même se décomposer. Cette voie paraît très prometteuse pour expliquer l’origine de la vie, mais c’est loin d’être la seule.

Fumerolles sous-marines En 1979, des bathyscaphes ont détecté des sources hydrothermales fusant du fond marin, au large des Îles Galápagos. Ils y ont découvert de surprenants écosystèmes contenant poissons, crustacés, bactéries et autres microorganismes grouillant dans un monde sans lumière – des conditions autrefois considérées comme impropres à la vie. Or la chaleur et les

1952

1968

2014

Miller et Urey concoctent une soupe primordiale où apparaissent des molécules organiques

Carl Woese suggère que les premières formes de vie sont à base d’ARN

Des expériences en orbite prouvent que des bactéries survivent au vide du cosmos

97

98

50 clés pour comprendre les grandes idées de la science

«

Le fait que la vie existe sur terre ne veut pas dire qu’elle a commencé sur terre. Chandra Wickramasinghe

»

nutriments recrachés par ces « fumeurs noirs » sont capables d’alimenter tout un univers d’organismes vivants. La vie aurait très bien pu naître dans un tel environnement, les fractures fourrées de sulfures de fer jouant le rôle de véritables incubateurs. Il n’est pas encore prouvé que la vie soit née dans les grands fonds marins, mais leurs sources hydrothermales figurent désormais au rang des possibilités.

Passagers clandestins Et si la vie n’était pas née sur Terre, mais autre part dans l’Univers ? Nous serions alors tous des extraterrestres. Ce scénario peut sembler sortir tout droit d’un livre de science-fiction, mais il remonte à l’Antiquité : au IVe siècle avant notre ère, le philosophe Anaxagore fut le premier à proposer ce concept de « panspermie », en suggérant que l’Univers renfermait à l’origine un nombre infini de « graines » et que toutes les formes de vie en sont nées. L’idée est creusée aux XVIIIe et XIXe siècles, les chercheurs s’interrogeant si de telles « graines » n’avaient pas pu être apportées sur Terre par des météorites dérivées d’astéroïdes et de comètes. Au début du XXe siècle, le chimiste suédois Svante Arrhenius spécule ainsi que des spores peuvent dériver à travers le cosmos sous la pression de la lumière stellaire. Cette théorie prit même une tournure sensationnaliste avec la spéculation de Fred Hoyle et Chandra Wickramasinghe que des microbes pleuvent continuellement sur Terre et sont responsables de flambées d’épidémies. A-t-on des preuves que des microorganismes peuvent survivre aux rigueurs du cosmos ? En 2014, des astronautes à bord de la Station Spatiale Internationale ont exposé des spores de bactéries au vide de l’espace, sans qu’elles en soient autrement affectées. Il semble donc que de tels organismes peuvent très bien voyager comme passagers clandestins d’une planète à l’autre.

Sélection naturelle Nombre de chercheurs se passent de l’hypothèse extraterrestre et pensent que la soupe primordiale a suffi pour engendrer chimiquement des molécules de plus en plus complexes. Des chercheurs au Massachusetts Institute of Technology (MIT), notamment, ont suivi cette piste et échafaudé un modèle basé sur des formules mathématiques et physiques. Ils ont conclu que des corps chimiques plongés dans un milieu chaud – atmosphère ou océan – et alimentés par une source d’énergie comme le Soleil changent de structure pour dissiper cette énergie de la manière la plus efficace possible. Ce remodelage incessant, d’après les chercheurs, mène inévitablement à la complexité d’un être vivant.

Les origines de la vie Ce concept renvoie à la théorie de l’évolution de Charles Darwin, à savoir que les organismes évoluent pour survivre et se reproduire de la manière la plus efficace possible. D’autres travaux sont nécessaires pour confirmer si les chercheurs du MIT sont sur la bonne voie dans leur modélisation du mécanisme de l’abiogenèse. En attendant, cette question de l’origine de la vie demeure l’un des plus grands mystères de la science.

La vie souterraine Au cours des années 1990, le chercheur Thomas Gold a remis en question les modèles classiques de l’abiogenèse en publiant une théorie controversée sur une « biosphère chaude et profonde » : l’hypothèse qu’existe dans notre sous-sol une biosphère plus volumineuse et plus massive que celle en surface. Elle serait constituée de bactéries adaptées à la chaleur, se nourrissant d’hydrocarbures comme le méthane. Depuis, il a effectivement été prouvé que de telles bactéries, retrouvées dans des carottages, survivent jusqu’à 5 kilomètres de profondeur. Gold est allé encore plus loin, suggérant que ces bactéries sont elles-mêmes une source d’hydrocarbures, les produisant en permanence dans le sous-sol.

L’idée clé Comment passe-t-on de la chimie à la vie ?

99

100

50 clés pour comprendre les grandes idées de la science

25 La photo­ synthèse

On dit que les plantes sont les poumons de notre planète : elles produisent l’oxygène que nous respirons par le biais de la photosynthèse – l’une des réactions chimiques les plus importantes de notre planète et un remarquable exemple de symbiose entre plantes et animaux. Respirez à fond. L’oxygène que vous venez d’inspirer vous a été offert par les plantes vertes. Maintenant expirez. Le dioxyde de carbone que vous venez de relâcher est aussi important pour les plantes que l’oxygène l’est pour vous. La photosynthèse est le processus complexe dont se servent les plantes pour produire de l’énergie : eau et gaz carbonique y sont convertis en sucres, avec de l’oxygène émis comme « déchet ». Cette réaction chimique est donc à la base du monde vivant, des plantes aux herbivores qui en dépendent et aux prédateurs qui se nourrissent des herbivores. Cet équilibre actuel n’est que la dernière étape d’une longue évolution. La photosynthèse a accompagné le développement de la vie sur Terre depuis ses débuts : sans elle, on en serait encore au stade des bactéries. Les débuts de la photosynthèse remontent à plus de trois milliards d’années : elle a pris son essor lors d’un changement majeur de l’environnement, appelé « la grande oxygénation ». Auparavant, l’atmosphère était essentiellement composée d’azote et de gaz carbonique. Il y a trois milliards d’années, les cyanobactéries (autrefois appelées algues bleu-vert) ont produit par photosynthèse de grandes quantités d’oxygène, mais ce gaz hautement réactif s’est d’abord mis à oxyder les métaux présents, notamment le fer qui a littéralement rouillé. Plus tard, il y a 500 millions d’années, les plantes vertes sont apparues, produisant un surcroît d’oxygène qui s’est accumulé dans l’atmosphère, jusqu’à atteindre les 21 % observés aujourd’hui : un oxygène libre qui a permis l’essor du monde animal.

chronologie 1774

1779

1796

Le chimiste Joseph Priestley publie sa découverte de la molécule d’oxygène

Jan Ingenhousz réalise que la lumière stimule la production d’oxygène des plantes

Jean Senebier montre que les plantes extraient du dioxyde de carbone de l’air

La photosynthèse

«

Énergie solaire La Je me croyais plutôt cool, photosynthèse se déroule avant de découvrir que les plantes dans des organites spécialisés appelés chloroplastes. mangent du soleil Les plantes pompent de et pissent de l’air. l’eau à travers leurs racines Jim Bugg et absorbent le dioxyde de carbone de l’air à travers de auteur et musicien petites ouvertures sous leurs feuilles, appelées stomates. La lumière du soleil est captée par un pigment vert, la chlorophylle, énergie qui alimente plusieurs réactions chimiques. D’abord la plante décompose la molécule d’eau en hydrogène et oxygène. D’autres réactions combinent alors ces produits avec le dioxyde de carbone pour produire de l’oxygène et des glucides. Les plantes se nourrissent de ces glucides et relâchent l’oxygène dans l’atmosphère via les stomates. L’équation simplifiée s’écrit :

»

CO2 + H2O + lumière = CH2O + O2 (où CH2O est le glucide utilisé par la plante comme énergie) La température est un paramètre important de la photosynthèse : celle-ci s’arrêtera s’il fait trop chaud ou trop froid. Augmenter l’intensité lumineuse accélère d’autre part la réaction : nombre d’agriculteurs utilisent donc la lumière artificielle pour rallonger la photosynthèse au-delà des heures d’une journée normale, avec souvent une intensité accrue. Les secrets de la photosynthèse ont commencé à être percés à la fin du XVIIIe siècle, avec une première expérience conduite par le chimiste anglais Joseph Priestley. Il plaça un plant de menthe et une bougie allumée dans un récipient en verre hermétiquement fermé. Après avoir utilisé tout l’oxygène, la flamme s’est éteinte. Toutefois, au bout d’un moment, Priestley a pu rallumer la bougie, prouvant qu’entre-temps, la plante avait produit de l’oxygène.

Bulles d’oxygène Intrigué par l’expérience de Priestley, le biologiste néerlandais Jan Ingenhousz plaça des plantes sous l’eau, dans des récipients transparents, et nota l’apparition de petites bulles sous les feuilles. Si les plantes étaient placées dans l’obscurité, la production de bulles s’arrêtait. Ingenhousz nota que le gaz produit donnait à une flamme de bougie un éclat plus vif, confir-

1804

1881

1956

Nicolas de Saussure découvre le rôle de l’eau dans la photosynthèse

Theodor Engelmann montre que l’énergie lumineuse est convertie dans le chloroplaste

Melvin Calvin découvre les réactions chimiques des plantes qui produisent des sucres

101

102

50 clés pour comprendre les grandes idées de la science

Jan Ingenhousz (1730-1799) Le biologiste néerlandais Jan Ingenhousz était également docteur. Il fit ses études de médecine à l’université de Leuven et s’intéressa au vaccin développé contre la variole, voyageant notamment en Angleterre en 1767 lors d’une épidémie pour vacciner avec succès plus de 700 personnes. Il fut ensuite invité à la cour de l’impératrice Marie Thérèse, à Habsbourg, qui avait perdu deux membres de sa famille, victimes de la maladie. Malgré l’opposition des médecins autrichiens, Ingenhousz injecta à ses patients de petites quantités du germe, prélevées à un malade. Vu le succès de cette nouvelle campagne, il fut appointé docteur impérial à la cour de Marie Thérèse (mère de l’infortunée Marie Antoinette). Outre ses expériences sur les plantes, Ingenhousz étudia l’électricité et la conduction thermique.

mant qu’il s’agissait d’oxygène. Pour cette expérience, conduite en 1779, Jan Ingenhousz est crédité de la découverte de la photosynthèse.

La découverte suivante revient au naturaliste suisse Jean Senebier qui montra en 1796 que sous l’influence de la lumière, les plantes non seulement produisent de l’oxygène, mais consomment aussi du dioxyde de carbone. Quant au rôle central de l’eau, il fut mis en évidence au début du XIXe siècle par le chimiste suisse Nicolas de Saussure, lequel observa que la quantité de carbone absorbée par les plantes ne correspondait pas à l’accroissement observé de leur masse. Il en déduisit que la masse manquante provenait de l’eau absorbée dans le sol par le système racinaire des plantes. Les pièces du puzzle commençaient à se mettre en place. Ce fut alors au tour du botaniste allemand Theodor Engelmann de découvrir à travers une série d’expériences en 1881 que l’énergie solaire est convertie en énergie chimique au niveau des chloroplastes, et que seules les longueurs d’onde bleue et rouge de la lumière solaire participent à la réaction. Le terme de « photosynthèse » fut proposé en 1893 par le botaniste américain Charles Barne, de pair avec le mot « photosyntaxe », qu’il préférait d’ailleurs. Mais l’usage a retenu celui de photosynthèse.

traceurs radioactifs

L’essor de la physique nucléaire au XXe siècle a permis d’identifier les circuits empruntés par la photosynthèse. En 1941, les chercheurs américains Samuel Ruben et Martin Karmen ont ainsi suivi le cheminement de l’oxygène à travers les plantes en utilisant un isotope radioactif : ils démontrèrent que l’oxygène produit par photosynthèse provient de l’eau absorbée par les racines.

La photosynthèse En 1956, le chimiste américain Melvin Calvin et son équipe utilisèrent un isotope radioactif du carbone pour pister l’élément : le procédé leur permit de découvrir quelles réactions chimiques convertissaient le dioxyde de carbone en glucides – réactions aujourd’hui connues sous le nom de « cycle de Calvin ». Cette dernière étape permit de boucler l’enquête sur cette série essentielle de réactions chimiques que constitue la photosynthèse, et valut à Melvin Calvin le prix Nobel de chimie en 1961.

Le déclin de la forêt vierge Les forêts tropicales sont de véritables usines à photosynthèse. Elles ne recouvrent que 6 % de la planète, mais représentent pas moins de 20 % de la production totale d’oxygène sur Terre, et stockent de vastes quantités de carbone dans leur matière végétale, jouant un rôle crucial dans l’équilibre de l’écosystème. Elles ont également une influence majeure sur les précipitations et le climat mondial. La déforestation, par brûlis ou abattage des arbres, relâche de grands volumes de CO2 dans l’atmosphère, alors que leur séquestration dans la végétation combat au contraire le réchauffement climatique. Le taux de destruction actuel des forêts vierges est de l’ordre de 30 000 hectares par jour : un nombre qui prend tout son sens lorsque l’on sait qu’un stade de football mesure environ un hectare.

L’idée clé La vie terrestre dépend des plantes vertes

103

104

50 clés pour comprendre les grandes idées de la science

26 La cellule Les cellules sont les unités fondamentales d’un être vivant, animal ou végétal. Le corps humain en contient des billions, et pourtant notre vie commence par une seule cellule au moment de la conception : le zygote. La cellule est la plus petite unité vivante capable de se répliquer, et de façon particulièrement rapide. Le mot « cellule » est issu du latin cella qui signifie petite pièce de vie : ces minuscules logis hyperactifs sont l’unité de base de tous les organismes vivants. Elles remplissent une vaste gamme de tâches, de la reproduction à la croissance, en passant par la production d’énergie et l’homéostasie – la régulation des fonctions de l’organisme, comme la température. Pourtant leur taille est minuscule : on pourrait loger 10 000 cellules sur une tête d’épingle. Chacune est capable de se répliquer : un être humain perd en moyenne 96 millions de cellules par minute, mais simultanément un nombre identique de cellules se divise en deux pour les remplacer. Elles sont en communication constante avec leurs voisines, et les groupements de cellules identiques constituent des tissus, voire de véritables organes.

Découverte de la cellule C’est l’invention du microscope qui a mené à la découverte de la cellule en 1665. En visionnant de fines lamelles de liège avec son instrument, le savant britannique Robert Hooke remarqua un réseau en nid-d’abeilles de « pores microscopiques ». Ce qu’il voyait n’était autre que les parois cellulaires du végétal. Leur disposition lui rappelait les « cellules » d’un monastère, d’où le terme qui est passé à la postérité. Une première « théorie de la cellule » fut proposée en 1839 par les biologistes allemands Matthias Jakob Schleiden et Theodor Schwann, postulant que les cellules sont l’unité de base d’un être vivant, que tous les organismes sont constitués de cellules – solitaires ou multiples – et qu’elles sont capables de se remplacer.

chronologie 1665

1670-1680

1831

Robert Hooke découvre la cellule en étudiant une lamelle de liège au microscope

Van Leeuwenhoek étudie au microscope des organismes monocellulaires

Le botaniste Robert Brown découvre le noyau cellulaire en étudiant des orchidées

La cellule Procaryotes et eucaryotes Il existe deux types de cellules. Les eucaryotes sont les plus complexes et entrent dans la composition des organismes multicellulaires, comme les plantes ou les animaux. Les procaryotes sont une version plus simple qui n’a pas de noyau : alors que celui-ci sert à loger et à protéger l’ADN chez les eucaryotes, chez les procaryotes l’ADN dérive librement dans un espace central appelé nucléoïde qui n’a pas de membrane. Tous les procaryotes sont monocellulaires et incluent les bactéries et les archéobactéries ou archées, formes les plus anciennes de la vie sur Terre. Si vous avez eu la malchance de subir une attaque de salmonelle ou d’angine, alors vous avez été victime d’une invasion de procaryotes. Les eucaryotes peuvent aussi être monocellulaires, mais se distinguent par un noyau et sa membrane : c’est le cas des amibes. On les appelle parfois aussi des protistes. Les cellules eucaryotes contiennent des structures appelées organites. Les mitochondries, par exemple, contrôlent les fonctions métaboliques de la cellule et génèrent de l’énergie, via la fabrication d’adénosine triphosphate (ATP). Les ribosomes sont pour leur part des structures sphériques qui fabriquent des protéines en assemblant des chaînes d’acides aminés. L’appareil de Golgi a pour

Membranes et plasma

Noyau

Nucléoïde Paroi cellulaire

Organites assurant des fonctions cellulaires

EUCARYOTE

Mitochondries génératrices d’énergie

Flagelle Pili

PROCARYOTE

L’eucaryote (à gauche) possède un noyau, alors que le procaryote (à droite) loge son ADN dans un nucléoïde moins protégé

1839

1855

1857

Théorie de la cellule formulée par Matthias Jakob Schleiden et Theodor Schwann

Rudolf Virchow propose que toutes les cellules dérivent de générations antérieures

Albert von Kölliker découvre les centrales énergétiques que sont les mitochondries

105

106

50 clés pour comprendre les grandes idées de la science

Les cellules reproductrices Les cellules impliquées dans la reproduction sexuelle sont appelées gamètes (respectivement spermatozoïdes chez le mâle et ovules chez la femelle). Chez l’être humain, la plupart des cellules sont diploïdes : elles contiennent deux copies de chaque chromosome. Les gamètes sont haploïdes, avec une seule copie de chaque chromosome. Lorsqu’un spermatozoïde fertilise un ovule, les gamètes haploïdes fusionnent pour former un zygote diploïde qui constitue la première cellule du futur organisme. Les gamètes se forment par méiose, une double division cellulaire qui produit quatre nouvelles cellules au lieu de deux. La méiose se déroule chez les eucaryotes et les procaryotes qui se reproduisent sexuellement, créant spores et pollens chez les végétaux et des gamètes chez les animaux.

fonction de modifier protéines et lipides avant de les diriger vers leur destination finale. Vésicules et liposomes, de leur côté, logent des enzymes destinés à des fonctions particulières. Tous ces organites « flottent » dans le cytoplasme et sont maintenus en place par la membrane extérieure ou « plasmatique » de la cellule. Quant au cytosquelette, il donne à la cellule sa structure et sa forme.

Le noyau est la salle de contrôle de la cellule eucaryote et contient les chromosomes où le code génétique est stocké sous forme d’ADN. Toutes les instructions dont la cellule a besoin pour accomplir ses tâches sont listées dans l’ADN, que ce soit un globule blanc destiné à lutter contre une infection ou une cellule végétale chargée d’absorber de la lumière (voir page 100). Le noyau est entouré d’une membrane poreuse qui permet le passage de messagers chimiques que sont protéines et ARN.

Durée de vie Les cellules ont des durées de vie très variées. Celles sur la paroi acide de notre estomac sont recyclées tous les 5 jours, alors que celles de nos os sont remplacées tous les 10 ans. Les cellules peuvent mourir suite à des infections bactériennes, une privation d’oxygène ou un empoisonnement. Elles peuvent aussi être programmées pour mourir – un comportement appelé apoptose qui peut aider à structurer le corps. La peau entre les doigts ou les orteils d’un embryon humain, par exemple, meurt pour permettre la libre croissance des doigts et des orteils en question. La division cellulaire est essentielle à la croissance, la maintenance et les réparations d’un organisme vivant. Le mode de division dépend du type de cellule. Chez les procaryotes, la cellule se divise en deux cellules filles. L’ADN initialement replié sur lui-même se déroule et se duplique pour former deux brins identiques, et les deux brins gagnent les côtés opposés de la cellule dont la membrane

La cellule se tend jusqu’à se scinder, formant deux nouveaux organismes procaryotes, identiques à la cellule parentale.

Les chromosomes Les longues structures filamenteuses présentes dans

Chez les eucaryotes, la division le noyau des cellules eucaryotes contiennent l’ADN cellulaire s’appelle la mitose. qui transmet l’information génétique de génération La double hélice d’ADN se en génération. Chaque brin d’ADN est étroitement scinde sur toute sa longueur enroulé autour de protéines appelées histones. Sans en deux brins dont les nucléoelles, l’ADN serait bien trop long pour tenir en place tides attirent leurs molécules dans le noyau, car totalement déplié, l’ADN d’une complémentaires pour rebâtir cellule humaine mesurerait près de 2 mètres de long. leur vis-à-vis, ce qui donne Chaque cellule du corps humain possède 22 chrodeux doubles hélices au lieu mosomes différents en deux exemplaires, plus une d’une. Le noyau cellulaire se 23e paire qui détermine le sexe de l’individu. Tout divise alors pour former deux notre patrimoine génétique est contenu dans ces noyaux, chacun contenant chromosomes, y compris nos défauts éventuels. Par une double hélice d’ADN. Le exemple le caractère daltonien est transmis de mère reste de la cellule se divise dans en fils sur le chromosome 23 (celui qui détermine la foulée, générant au final le sexe). Quant à la maladie d’Alzheimer, elle peut deux cellules qui remplacent découler de mutations sur les chromosomes 1, 14 l’originale. Toute l’opération et 21. dure à peine plus d’une heure. Chez l’être humain cette division cellulaire est constante, mais elle augmente de 300 % en fin de nuit, raison pour laquelle il est important de respecter ses heures de sommeil.

«

Le corps est une communauté composée d’innombrables cellules ou habitants. Thomas Edison

»

L’idée clé Ce sont les éléments de base de toute forme de vie

107

108

50 clés pour comprendre les grandes idées de la science

27 La théorie

microbienne

Des millions de vies ont été sauvées depuis que Louis Pasteur a réfuté la théorie de la génération spontanée et identifié les microbes présents dans l’air et dans l’eau comme source des maladies – lançant le développement des antiseptiques, des vaccins et de la pasteurisation des aliments pour tuer les bactéries dangereuses. La théorie microbienne commença à prendre corps chez les médecins au XVIe siècle. Auparavant, il était admis que les maladies comme le choléra et la peste bubonique étaient causées par des « miasmes » : de l’air empoisonné, contenant des fragments de matière décomposée. Les savants croyaient aussi à la génération spontanée, à savoir que des organismes comme les asticots se développaient à partir de la matière inerte, comme la chair en décomposition. Cette hypothèse fut testée en 1668 par le biologiste italien Francesco Rodi : celui-ci plaça de la viande dans trois récipients : l’un ouvert, le second recouvert d’une fine étoffe de gaze, et le troisième hermétiquement clos. Au fil du temps, Rodi nota que la viande à l’air libre se chargeait d’asticots ; le second récipient ne comptait des asticots qu’à la surface de la gaze, et la viande scellée n’en comportait pas du tout. Redi venait de porter un premier coup à la théorie de la génération spontanée. La vraie cause des maladies devint plus claire avec l’invention du microscope au XVIIe siècle. Le savant néerlandais Antoni van Leeuwenhoek fut le premier à observer des microorganismes monocellulaires et multicellulaires dans l’eau d’une mare. Dans la foulée, les chercheurs de l’époque spéculèrent que les maladies étaient causées par des vers et insectes venimeux, visibles seulement au microscope. Une autre étape majeure de la théorie microbienne fut franchie au XIXe siècle, grâce à l’observation au microscope de la division cellulaire. Si les maladies

chronologie 1546

1668

1676

Girolamo Fracastoro propose que les épidémies sont causées par des spores dans l’air

Francesco Rodi réfute la théorie de la génération spontanée comme cause des maladies

Van Leeuwenhoek observe des microorganismes vivants au microscope

La théorie microbienne

«

étaient causées par des microMessieurs, c’est les microbes organismes, alors cette division qui auront le dernier mot. pouvait expliquer comment ils parvenaient à se répandre. Une Louis Pasteur flambée épidémique de choléra dans les rues de Londres, au cours des années 1850, fut d’ailleurs riche en enseignements. Remontant jusqu’à l’origine de l’épidémie dans le quartier de Soho, le médecin John Snow identifia sa source comme étant une pompe à eau publique, située près d’une fosse septique. Il parvint à convaincre le conseil communal de condamner la pompe, et l’épidémie cessa – le choléra se transmettant en effet par contamination de l’eau potable.

»

Les travaux de Pasteur

C’est Louis Pasteur qui porta le coup de grâce à la théorie de la génération spontanée et prouva que les microorganismes étaient la cause des maladies. Il monta une expérience analogue à celle de Redi, plaçant de la viande, du sucre et de l’eau dans plusieurs ballons en verre. Les solutions, d’abord bouillies pour éliminer tous germes au départ, furent mises en contact avec l’air, certaines par le truchement d’un col droit, d’autres par un col-de-cygne très sinueux. Or Pasteur observa que la solution se troublait dans le cas du col droit, alors qu’elle restait limpide dans le cas du col-de-cygne. Pasteur en conclut que les microorganismes présents dans l’air pouvaient chuter directement dans le ballon lorsque le col d’entrée était droit, contaminant et troublant la solution. Ceux qui tentaient d’entrer par le col-de-cygne se déposaient sur les sinuosités du tube en verre et ne parvenaient pas à la solution, laquelle restait claire. S’il y avait eu génération spontanée, les deux solutions auraient

Pasteur prouva au laboratoire que les microorganismes présents dans l’air pouvaient infecter des aliments. Dans le ballon de gauche, le bouillon de culture est rapidement contaminé, alors que dans celui de droite, la forme sinueuse du col piège les bactéries.

1830

1864

1867

L’étude des cellules montre comment les microorganismes se reproduisent

Louis Pasteur prouve que les microorganismes sont la cause des maladies

Joseph Lister prône l’usage d’antiseptiques pour combattre les infections

109

110

50 clés pour comprendre les grandes idées de la science

En avance sur son temps L’hôpital général de Vienne, où officiait le médecin hongro-allemand Ignaz Semmelweis (1818-1865), possédait deux cliniques : l’une gérée par des médecins, l’autre par des sagesfemmes. Semmelweis constata en 1847 que les femmes qui accouchaient dans le premier service étaient beaucoup plus nombreuses à mourir d’une fièvre que chez les sages-femmes. Semmelweis réalisa que les médecins pratiquaient également des autopsies et passaient donc des « particules cadavéreuses » aux femmes enceintes. Il les incita à se laver les mains dans une solution chlorée avant de pratiquer des accouchements, et les cas de décès chutèrent de 18 % à 2 % en un mois. Semmelweis et son obsession de la propreté furent raillés par ses contemporains : ce ne fut qu’après sa mort que les travaux de Pasteur lui donnèrent raison.

dû se troubler. Pasteur répéta son expérience avec un filtre : cette fois les deux solutions restèrent limpides. La conclusion était sans appel : c’était les microorganismes transmis dans l’air, l’eau ou les aliments, qui causaient infections et maladies. En 1864, la théorie microbienne était donc officiellement reconnue.

La découverte de Pasteur inspira d’autres savants de son temps, tel le médecin britannique Joseph Lister qui l’appliqua à la lutte contre les maladies. À cette époque, les médecins n’étaient même pas enclins à se laver les mains avant d’examiner leurs patients (voir encadré, à gauche). Nombre de patients ne survivaient d’ailleurs à une opération que pour succomber ensuite à des infections postopératoires. À partir de 1867, Lister commença à utiliser de l’acide phénique comme antiseptique sur les plaies, les pansements et les instruments chirurgicaux. Le nombre d’infections, gangrène comprise, chuta alors considérablement. Lister incita également ses chirurgiens à se laver les mains à l’acide phénique avant chaque opération.

La chasse aux bactéries Le mécanisme de transmission des maladies désormais identifié, restait à découvrir les microorganismes responsables de chaque maladie et le moyen de les détruire. Au cours des années 1870, le médecin prussien Robert Koch et son équipe trouvèrent une méthode pour teinter les bactéries, ce qui les rendait mieux visibles au microscope. Ainsi purent-ils découvrir les bactéries responsables des maladies du charbon, du choléra et de la tuberculose. D’autres équipes découvrirent celles responsables du tétanos, du typhus et de la peste. Quant au Prussien Paul Ehrlich, il s’attacha à trouver un produit chimique qui non seulement colorait les bactéries, mais pouvait également les tuer, sans affecter le reste de l’organisme. Après de nombreuses tentatives, Ehrlich et son équipe découvrirent une première molécule

La théorie microbienne efficace, l’arsphénamine, qui détruisait la bactérie responsable de la syphilis. La grande nouveauté dans cette affaire, c’était de traiter la cause d’une maladie, plutôt que ses symptômes. La théorie microbienne a débouché sur des avancées majeures en médecine, y compris la pasteurisation et la découverte des antibiotiques. Des millions de vies sont sauvées chaque année grâce aux travaux fondateurs de ces pionniers qui ont poursuivi la vérité en dépit du scepticisme et des moqueries de leurs contemporains.

La pasteurisation Louis Pasteur mit au point une technique pour éliminer les bactéries du lait et autres aliments. Le lait cru peut contenir des bactéries nocives comme E. coli ou la salmonelle. Des milliers de personnes mouraient chaque année à cause de la prolifération de ces bactéries dans le lait, au cours de son long transport des fermes vers les villes. Pasteur chauffa du lait à une température supérieure à 60 °C, ce qui avait pour effet de tuer la plupart des microorganismes. Le chercheur montra que la contamination du vin était causée elle aussi par des bactéries. Ce traitement thermique n’est plus utilisé aujourd’hui dans la production du vin, car elle affecte certaines de ses qualités, mais nombre d’aliments dans le commerce doivent leur longue durée de conservation à la pasteurisation.

L’idée clé Nombre de maladies sont dues à des microorganismes

111

112

50 clés pour comprendre les grandes idées de la science

28 Les virus Les virus sont de minuscules particules, plus petites que les bactéries, qui peuvent causer nombre de pandémies mortelles. Ils furent découverts par le microbiologiste Martinus Beijerinck en 1898. Des campagnes de vaccination ont permis d’éradiquer nombre de virus ; d’autres sont utilisés au contraire dans des traitements d’avant-garde contre le cancer. Nous avons tous connu les désagréments d’un simple rhume : le nez qui coule, le mal de gorge, la baisse d’énergie. On a souvent tendance à parler de grippe, mais il s’agit de deux maladies différentes. Leur point commun est qu’elles sont toutes deux causées par des virus, la seconde étant beaucoup plus dangereuse que la première, voire fatale. Ainsi, l’épidémie de grippe « espagnole » de 1918 a fait plus de 50 millions de victimes, soit deux fois plus que la Première Guerre mondiale. D’autres virus sont responsables de la fièvre hémorragique (Ebola), la grippe aviaire, la grippe porcine, la varicelle, et le syndrome respiratoire aigu sévère (SRAS). Certaines maladies virales, comme la variole et la polio, sont aujourd’hui neutralisées par des vaccins ; pour d’autres, la recherche de traitements efficaces continue.

Portrait du virus Les virus occupent une place unique dans la nature. Ils sont de taille minuscule – au moins 50 fois plus petits qu’une bactérie – et ne sont pas visibles à travers un microscope classique. On ne peut pas les classer parmi les êtres vivants, car ils sont incapables de se reproduire tout seuls et sont inertes jusqu’à se retrouver dans une cellule hôte. Ce sont en somme des parasites. Un virus peut se transmettre de plusieurs façons. Celui du sida (HIV) est transmissible par échange de sang ou au cours de relations sexuelles. La grippe est véhiculée dans l’air, suite à des éternuements ou des quintes de toux. Le norovirus de la gastro-entérite se transmet à travers des aliments contaminés ou par contact physique avec une personne infectée. Les virus qui affectent les plantes sont souvent transmis par des insectes.

chronologie 1796

1864

1885

Jenner inocule le virus de la vérole à un enfant, première tentative de vaccination

Pasteur découvre que des microorganismes dans l’air sont source de maladies

Pasteur traite avec succès un patient atteint de rage au moyen d’un vaccin

Les virus Les virus ont une structure simple. Ils renferment un code génétique – ADN ou ARN – enveloppé dans une gaine de protéines appelée capside. Les virus parasitent des cellules hôtes pour utiliser leur dispositif de réplication et se multiplier. Ils pénètrent la cellule en perçant sa paroi et en injectant à l’intérieur leur brin de code génétique. Ce code entreprend alors de se dupliquer, chaque copie attirant des acides aminés pour se constituer une capside protectrice. Lorsque l’opération est terminée, la cellule est amenée à se rompre, et donc à mourir, libérant les virus qui se lancent à l’assaut de nouvelles cellules.

La découverte des virus Lorsque la théorie microbienne fut prouvée par Pasteur dans les années 1860 (voir page 108), nombre de chercheurs se mirent en quête de bactéries et autres agents d’infection. Au cours des années 1890, le botaniste russe Dmitri Ivanovski se pencha sur une mystérieuse maladie qui ruinait les plantations de tabac. Il recueillit du jus en provenance des feuilles infectées et le passa à travers un filtre (dit de Chamberlain) dont le maillage était plus fin que la taille des bactéries connues à l’époque. Or malgré cette filtration, le jus demeura infecté. En 1898, le microbiologiste hollandais Martinus Beijerinck se repencha sur cette expérience et en déduisit que les plantes de tabac étaient affectées par un nouveau type d’agent pathogène qu’il baptisa virus – un terme déjà en usage depuis des siècles, Enveloppe dérivé du mot latin signifiant poison. On découCapside Génome vrit plus tard le virus spécifique de cette maladie végétale : le virus de la mosaïque du tabac. En 1931, l’invention du microscope électronique permit aux chercheurs de visualiser pour la première fois ces minuscules envahisseurs, et plusieurs milliers d’espèces virales furent répertoriées au cours des années suivantes.

L’immunisation Le corps se protège des virus en développant des anticorps qui reconnaissent le motif de protéines constituant la capside de l’intrus, et sont programmés pour le détruire. Les vaccins stimulent le système immunitaire pour qu’il produise de tels anticorps : ils le font en injectant dans l’organisme une forme morte ou très affaiblie du virus concerné, et notre

Les virus sont constitués de matériel génétique (le génome) enveloppé dans une gaine de protéines (la capside).

1892

1898

1931

Ivanovski met en évidence un agent d’infection plus petit qu’une bactérie

Beijerinck identifie ce nouveau type d’infection qu’il appelle virus

L’invention du microscope électronique permet d’observer des virus

113

114

50 clés pour comprendre les grandes idées de la science

Le vaccin contre la variole L’éradication de la variole est l’un des plus grands triomphes de la médecine. Causée par un virus, la variole a fait plus de victimes au cours des siècles que toutes les autres maladies infectieuses réunies. Au XVIIIe siècle, il était notoire que les ouvriers de l’industrie laitière ne contractaient pas la maladie : en contact avec la vaccine, une maladie de la vache, ils développaient apparemment des anticorps contre les deux virus. En 1796, le docteur Edward Jenner testa cette hypothèse en se servant du fils de son jardinier, un enfant de huit ans. Il l’inocula avec du pus provenant des lésions de la vaccine : le « vacciné » eut une baisse de forme durant plusieurs jours, puis récupéra. Jenner l’inocula alors avec la variole : l’enfant n’en fut pas affecté. Des campagnes de « vaccination » s’ensuivirent, éliminant la variole de la surface du globe.

corps réagit en produisant des anticorps spécifiques pour détruire l’élément pathogène. Les enfants sont aujourd’hui systématiquement vaccinés contre des maladies virales comme la polio, la rougeole, la rubéole et les oreillons. Aucun vaccin ne fonctionne contre le rhume ordinaire, car son virus mute constamment, changeant ses motifs de protéines et rendant difficile son identification par les anticorps. Prévenir vaut mieux que guérir, mais si une personne devient infectée par un virus, des médicaments antiviraux existent qui peuvent traiter bon nombre de maladies, notamment l’herpès, les hépatites B et C, et les grippes A et B. Ils agissent en empêchant le virus de dupliquer son code génétique, ce qui limite l’expansion du virus, laissant au système immunitaire le temps de développer sa contre-attaque.

Un virus contre le cancer Des virus peuvent déclencher certaines formes de cancer, mais à l’inverse les chercheurs mettent au point un virus génétiquement modifié qui pourrait jouer un rôle crucial dans la lutte contre la maladie. En 2015, des recherches ont montré qu’une variété de virus d’herpès pouvait être modifiée pour s’attaquer aux cellules cancéreuses de la peau. Connu sous son matricule T-VEC, le virus pénètre les cellules infectées, s’y réplique et les fait éclater. Les cellules saines, en revanche, reconnaissent le virus et le détruisent avant qu’il ne les affecte. Les patients souffrant de mélanomes de stade III et de début de stade IV, traités avec le virus T-VEC, ont une durée de vie moyenne de 41 mois, deux fois plus qu’avec l’immunothérapie classique. Le T-VEC est donc reconnu comme étant une bonne alternative à la radiothérapie et à la chimiothérapie. Que certains virus soient en passe de devenir nos alliés constitue au final une tournure particulièrement heureuse et imprévue de l’étude des microorganismes.

Les virus

La lutte contre le virus Ebola L’épidémie du virus Ebola en Afrique de l’Ouest, en 2014-2015, a infecté 27 500 personnes, causant la mort de 11 000 d’entre elles. Il semblerait que les chauves-souris frugivores soient les principaux animaux porteurs du virus, mais on le trouve aussi chez les singes, porcs-épics et antilopes. Il se transmet entre eux par voie sanguine et autres fluides corporels, alors que la contamination des hommes est sans doute due à leur consommation de viande de brousse. Le premier signalement de la maladie remonte à 1976 au Zaïre (aujourd’hui République Démocratique du Congo), dans un village près de la rivière Ebola. Le virus s’est répandu par échange de fluides corporels, et contamination par vêtements et couvertures souillés. En 2015, un vaccin a été testé qui a donné des résultats encourageants.

L’idée clé Des agents parasites qui squattent nos cellules

115

116

50 clés pour comprendre les grandes idées de la science

29 Les gènes L’ADN fut découvert en 1869, mais il fallut attendre le milieu du XXe siècle pour comprendre qu’il contenait les gènes des êtres vivants : l’information gérant leur fonctionnement. Quant aux lois de la génétique, elles avaient été entrevues dès les années 1850 par un moine autrichien, Gregor Mendel. Notre patrimoine génétique est un terme qui définit la transmission, des parents à leur descendance, de « gènes » : des unités d’information codées en molécules d’ADN dans les noyaux cellulaires. Ce système est propre à tous les êtres vivants, de la simple fleur à l’être humain. Les brins d’ADN consistent en séquences de plusieurs gènes : ces assemblages de bases chimiques représentent une banque d’information pour la reproduction et le fonctionnement de l’individu. Chaque cellule du corps dispose d’une copie. La plupart des gènes ont pour fonction de créer des protéines, blocs constituants de la matière vivante.

Caractères héréditaires Les premiers travaux sur les mécanismes de la transmission héréditaire sont l’œuvre d’un moine autrichien, Gregor Mendel. Après avoir étudié l’anatomie et la physiologie des plantes auprès de Franz Unger, ardent défenseur de la théorie cellulaire (voir page 104), Mendel entra au monastère de Saint-Thomas à Brno (aujourd’hui en République tchèque). Il y débuta en 1854 une expérience méticuleuse d’hybridation de petits pois (Pisum sativum), notant leurs caractéristiques, comme la couleur des fleurs et la forme des graines. En premier lieu, Mendel s’assura qu’il utilisait une lignée « pure » de l’espèce végétale en question, reproduisant les plants par autopollinisation et pollinisation croisée durant les deux premières années. Apparurent toutefois deux variétés : l’une avec des fleurs blanches, l’autre avec des fleurs violettes. Mendel entreprit de les recroiser. Au lieu d’obtenir des fleurs de couleur intermédiaire, la première génération issue du croisement ne donna que des fleurs violettes.

chronologie 1865

1869

1909

Mendel montre que des « facteurs » sont passés des parents à leur descendance

Miescher découvre l’ADN en étudiant le noyau des globules blancs

Johannsen invente le terme « gène » à partir du grec genos qui signifie naissance

Les gènes Mendel laissa cette lignée se reproduire par autofécondation et le résultat fut surprenant : apparurent de nouveau des plants aux fleurs blanches.

Le gène de la rousseur

Lorsqu’un enfant roux naît d’un couple où Mendel en déduisit que chaque père et mère sont blonds ou bruns, on pourrait plant possédait deux versions de s’étonner. Les cheveux roux sont rares, parce l’information pour chaque caracqu’ils sont définis par le gène récessif MC1R tère particulier, chacune venant porté par le chromosome 16. Pour avoir les d’un parent, et que seule l’une cheveux roux, un enfant doit recevoir deux des deux était exprimée, plutôt exemplaires de ce gène récessif, un de chaque que leur mélange. Pour expliquer parent (appelons ce gène récessif r, et R le gène les différences de couleur des dominant « non-roux »). fleurs, Mendel postula que cerSi aucun des parents n’est roux, mais que tous tains traits étaient « dominants » deux portent le gène récessif (combinaison Rr), (dans ce cas la couleur violette), l’enfant a une chance sur quatre d’être roux. Si et d’autres « récessifs » (la couleur l’un des deux parents est roux (rr), et l’autre pas blanche). Si un plant possédait mais en porte le gène (Rr), la probabilité pour les deux versions dans ses insl’enfant d’être roux grimpe à une chance sur tructions génétiques, n’importe deux. Lorsque sont roux à la fois le père (rr) et laquelle pouvait être transmise la mère (rr), tous les enfants sont roux. par le parent à la génération suivante. Si les parents transmettaient tous deux le trait récessif, alors ce trait s’exprimait (la couleur blanche). En comptant les plants aux fleurs blanches et aux fleurs violettes, obtenus au cours des générations successives, Mendel trouva un rapport de 3 à 1 en faveur des fleurs violettes.

Mendel appela « facteurs » ces traits hérités. Ceux transmis par un seul gène, comme dans le cas des petits pois, sont appelés traits mendéliens. L’hérédité génétique est souvent bien plus complexe, mais Mendel avait démontré deux lois fondamentales : comment des caractères sont transmis des parents à leur descendance, et comment les variations naturelles apparaissent au sein des espèces.

1911

1928

1944

Morgan découvre que les facteurs ou traits sont portés par les chromosomes

Frederick Griffith observe que les traits peuvent être transmis d’une cellule à l’autre

Oswald Avery et son équipe prouvent que les gènes sont portés par de l’ADN

117

118

50 clés pour comprendre les grandes idées de la science

«

Nous sommes des machines à survivre – des robots aveuglément programmés pour préserver ces molécules égoïstes que sont les gènes. Richard Dawkins

»

L’ADN porte les gènes Mendel publia ses résultats, mais comme nombre d’innovateurs avant lui, ne fut pas reconnu de son vivant. En parallèle, en 1869, le biologiste suisse Friedrich Miescher identifia pour la première fois la molécule d’ADN, en étudiant des noyaux de globules blancs – molécule qu’une série d’expériences au XXe siècle finirait par associer aux gènes de l’hérédité. Le terme « gène » – dérivé du mot grec genos qui signifie naissance – fut introduit en 1909 par le botaniste néerlandais Wilhelm Johannsen. Le mécanisme grâce auquel ces gènes étaient passés des parents à leur descendance restait toutefois incompris. En 1928, le microbiologiste britannique Frederick Griffith inocula à des souris de laboratoire deux souches différentes de la bacLe généticien américain Thomas Hunt Morgan térie de la pneumonie, l’une montra que les gènes sont assemblés en chromomortelle, l’autre non. Comme somes et sont bien responsables des traits héréprévu, les souris infectées par ditaires. Il parvint à ces conclusions en étudiant la souche mortelle moururent la mouche drosophile, dès 1907, à l’université et les autres survécurent. Columbia. Morgan exploita le fait que les drosoGriffith tua alors une dose de philes mâles pouvaient naître avec des yeux blancs bactéries mortelles et l’inocula (plutôt que des yeux rouges). Il croisa les mâles aux à des souris : elles aussi survéyeux blancs avec des femelles aux yeux rouges et curent. Mais lorsque Griffith nota que toute la descendance avait des yeux inocula à des souris à la fois les rouges. Les yeux blancs apparurent toutefois dès la bactéries dangereuses mortes génération suivante, mais seulement chez les mâles. et les bactéries vivantes non Morgan en déduisit que certains traits étaient liés à mortelles, contre toute attente la sexualité de l’individu et que leur gène était donc les souris moururent. Quelque porté par le chromosome sexuel. Cette découverte chose avait été transmis des ouvrit la voie à une nouvelle ère de la génétique et bactéries dangereuses mortes lui valut le prix Nobel en 1933. aux bactéries vivantes, mais quoi et comment ?

Parlons sexe

Les gènes En 1944, les chercheurs américains Oswald Avery, Colin MacLeod et Maclyn McCarty résolurent le mystère lors d’une expérience cruciale. Ils soupçonnaient que les protéines transmettaient les gènes d’un être vivant à l’autre, et testèrent leur hypothèse au moyen d’un enzyme connu pour détruire les protéines. En répétant l’expérience de Griffith avec cet enzyme introduit dans les bactéries dangereuses mortes, les souris mouraient néanmoins, donc les protéines n’étaient pas les transmetteurs. En revanche, en répétant l’expérience avec un enzyme destructeur d’ADN, les souris survécurent. L’équipe d’Avery en déduisit que c’était l’ADN qui transmettait l’information entre les deux souches bactériennes. Avery reçut en 1945 la médaille Copley de la Société Royale de Londres pour ses travaux, mais curieusement ne reçut jamais le prix Nobel. Ce lien trouvé entre gènes et molécule d’ADN mena au développement de l’épigénétique, qui étudie comment notre code génétique peut être affecté par notre environnement et notre mode de vie. Elle a débouché sur la génothérapie qui consiste à modifier les gènes d’un patient pour traiter des maladies telles que le cancer, la maladie de Parkinson, le diabète et le sida. Noyau

Chromosome Gène

Le noyau de la cellule contient les chromosomes à base d’ADN qui portent nos gènes

CELLULE

CHROMOSOME

ADN

L’idée clé Les gènes contiennent les instructions vitales

119

120

50 clés pour comprendre les grandes idées de la science

30 L’évolution C’est au cours d’un voyage de recherche le long des côtes d’Amérique du Sud que Charles Darwin découvrit le mécanisme de l’évolution. Jusqu’alors, l’idée couramment admise était que Dieu avait créé la Terre et tous les animaux à sa surface. La théorie de l’évolution compte parmi les plus grands concepts de la science moderne. Au cours du XVIIIe siècle, les naturalistes se mirent à douter que la vie était figée depuis la nuit des temps. En particulier, les paléontologues comme Georges Cuvier trouvaient les traces fossiles d’espèces disparues et les preuves d’un environnement sans cesse changeant. Erasmus Darwin, grand père de Charles, proposa que toutes les formes de vie descendent d’un ancêtre commun, mais ne voyait pas comment une espèce pouvait se transformer en une autre. Au début du XIXe siècle, le botaniste français Jean-Baptiste Lamarck proposa une première hypothèse. Il postula que si un organisme utilisait au cours de sa vie un caractère qui lui était avantageux, ce caractère se développerait et serait transmis de façon amplifiée à sa descendance (par exemple si vous faites de la musculation, alors vos enfants aussi seront musclés). Il n’avait pas totalement tort : on sait aujourd’hui que certains gènes peuvent être activés ou désamorcés par des influences extérieures. Toutefois le « lamarckisme » semblait incapable d’expliquer la variété des formes de vie sur Terre et fut la proie de nombreuses moqueries à l’époque. Tout devint plus clair avec la publication en 1859 de l’œuvre majeure de Charles Darwin : De l’origine des espèces. Il y exposait sa théorie, à savoir que les individus les mieux adaptés à leur environnement sont ceux qui survivent et se reproduisent, et qu’une espèce pouvait suffisamment s’éloigner de l’organisme de départ pour devenir une espèce distincte.

Voyages de découverte Tout commença en 1831 avec l’invitation faite à Darwin d’embarquer sur le vaisseau HMS Beagle pour une mission exploratoire

chronologie 1794

1796

1801

Erasmus Darwin suggère que toutes les formes de vie descendent d’un ancêtre commun

Georges Cuvier, pionnier de la paléontologie, attire l’attention sur les extinctions

Lamarck propose que les caractères et l’hérédité sont influencés par l’environnement

L’évolution

«

le long des côtes d’Amérique J’ai l’impression du Sud. Son capitaine, Robert que comprendre l’évolution Fitzroy, avait compris tout l’intérêt d’avoir un naturaliste a fait de moi un athée. à bord. Fraîchement émoulu Richard Dawkins de l’université de Cambridge, Darwin était âgé de 22 ans à l’époque. Saisissant sa chance, il embarqua le 27 décembre pour un voyage qui devait durer cinq ans.

»

Au cours de l’expédition, Darwin collectionna nombre de fossiles, fasciné par ces reliques d’espèces similaires, mais distinctes des formes actuelles. Ainsi trouva-t-il en Argentine le squelette d’un animal semblable à un cheval, mais avec un long crâne comparable à celui d’un tapir. Le jeune chercheur commença à se demander pourquoi de telles créatures avaient disparu et à questionner la stabilité des espèces. Pouvaient-elles changer au cours du temps ?

Les formes de bec différentes chez les pinsons des Îles Galápagos ont inspiré à Darwin sa théorie de la sélection naturelle.

1859

1865

1944

Darwin publie dans De l’origine des espèces sa théorie de la sélection naturelle

La transmission héréditaire des caractères est prouvée par les travaux de Mendel

La molécule d’ADN est identifiée comme étant le support de l’information génétique

121

122

50 clés pour comprendre les grandes idées de la science

Évolution dangereuse Le développement de bactéries résistantes aux antibiotiques, tel Staphylococcus aureus, est un exemple de sélection naturelle dangereuse pour l’homme. La bactérie est devenue problématique au regard de sa propension à muter : en se divisant, une seule bactérie de S. aureus peut enchaîner 300 mutations en une seule nuit, s’adaptant rapidement à toute menace. De fait, l’usage immodéré d’antibiotiques a permis son essor, en créant une pression sélective qui lui donne un avantage sur les autres souches bactériennes. En sus de son ADN, S. aureus contient des brins d’ARN, appelés plasmides, dont les gènes produisent des toxines s’attachant aux antibiotiques et inhibant leur action. Ces plasmides peuvent s’échanger entre bactéries par « transfert horizontal des gènes », ce qui fortifie d’autant leur résistance aux antibiotiques.

Darwin retourna en GrandeBretagne en 1836 avec plus de 5 000 spécimens de mammifères, d’oiseaux et de fossiles, et développa ses concepts au cours des vingt années suivantes.

Le témoignage des pinsons Sa réflexion sur les pinsons constituait l’un des fondements de sa théorie. Lors de son séjour dans les Îles Galápagos, au large de l’Équateur, Darwin avait observé les pinsons de quatre îles différentes. La distance entre les îles en avait fait des espèces distinctes, incapables de se reproduire entre elles. Faisant la synthèse de ses observations, Darwin nota qu’ils étaient toutefois fort semblables, hormis la forme de leur bec.

Les pinsons se nourrissaient de cactus, et Darwin réalisa que la forme du bec était adaptée au style d’alimentation. Les pinsons au long bec perçaient un trou dans la feuille pour en extraire la pulpe, alors que ceux à bec court déchiraient la base de la plante, se nourrissant d’insectes au passage. De l’avis de Darwin, « c’est comme si une seule espèce avait été modifiée en vue d’objectifs différents ». Et de fait, il s’agissait bien d’espèces différentes.

La sélection naturelle

En recherchant l’origine de telles variations, Darwin échafauda sa théorie de la « transmutation ». Bien qu’il s’opposât à nombre des idées de Lamarck, il était conquis par l’idée de traits favorables transmis des parents à leur descendance. Il interrogea des éleveurs de chiens et de pigeons pour savoir comment ils amplifiaient de légères variations en croisant leurs bêtes. Darwin réalisa que les membres d’une espèce se disputent les ressources disponibles. Certains traits passés des parents à leur progéniture améliorent leur capacité à s’alimenter, à survivre et donc à se reproduire, ce qui répand ces traits à travers la communauté, laquelle change en conséquence. Darwin appela ce

L’évolution mécanisme « évolution par sélection naturelle ». Nous savons aujourd’hui que cette sélection s’effectue sur les mutations aléatoires de l’ADN.

Charles Darwin (1809-1882) Né dans une famille aisée des Midlands, le jeune Darwin adorait explorer la nature. Son père l’envoya étudier la médecine à l’université d’Édimbourg, mais la vue du sang l’incommodait et il abandonna l’école au terme de sa seconde année. Son père le dirigea alors vers une carrière ecclésiastique au Christ’s College de Cambridge, où il voua l’essentiel de son temps libre à l’étude de la nature, à l’équitation et au tir. Darwin devint plus sérieux au terme de son voyage de cinq ans à bord du Beagle, fréquentant un cercle de savants, parmi lesquels l’inventeur Charles Babbage, le géologue Charles Lyell et le biologiste Thomas Huxley. Darwin épousa sa cousine Emma Wedgwood, fille d’un magnat de l’industrie potière. Ils eurent dix enfants et vécurent dans le Kent. Mort en 1882, Charles Darwin est inhumé dans l’Abbaye de Westminster.

De l’origine des espèces fut publié en 1859 et connut un succès immédiat. Il déclencha une vive controverse dans les milieux religieux, ce que Darwin avait anticipé, commentant notamment que croire à la sélection naturelle revenait à « se confesser d’un meurtre ». Dans le milieu scientifique la réaction fut ellemême mitigée, mais au fil des ans les travaux d’autres chercheurs, notamment la redécouverte de ceux de Gregor Mendel (voir page 116), apportèrent des preuves de plus en plus convaincantes que les parents transmettent un code génétique à leur descendance, venant compléter le modèle de Darwin qui reste encore aujourd’hui l’œuvre de référence.

La sélection naturelle opère en permanence. De nouvelles études montrent que les célèbres pinsons des Îles Galápagos réagissent désormais aux changements climatiques. Après des périodes de sécheresse, les individus aux becs les plus puissants sont sélectionnés, car plus à même de broyer une végétation plus coriace. Ainsi, les pinsons de Darwin continuent d’illustrer sa théorie de la sélection naturelle, même longtemps après sa mort.

L’idée clé Les êtres vivants s’adaptent à leur environnement

123

124

50 clés pour comprendre les grandes idées de la science

31 La diaspora

d’Homo sapiens

Tous les êtres humains modernes (Homo sapiens) descendent d’un ancêtre commun qui vivait en Afrique il y a 200 000 ans. Cette thèse de l’origine africaine de l’homme, proposée par Charles Darwin en 1871, est soutenue aujourd’hui par des preuves concrètes – découvertes de fossiles et analyses d’ADN. Dans son livre fondateur De l’origine des espèces, Charles Darwin émit la conviction que « la lumière sera faite sur les origines de l’homme et son histoire ». Darwin avait déjà révolutionné la façon de penser de l’époque en proposant que les espèces vivantes ne sont pas immuables et qu’elles évoluent à travers le processus de sélection naturelle. Pourquoi ne pourrait-on pas étendre ces lois aussi au genre humain ? Avant Darwin, nombre d’anthropologues pensaient que les êtres humains avaient des origines diverses, et que les différentes races étaient apparues séparément à travers le monde. En 1871, Darwin argumenta dans La Descendance de l’homme que tous descendaient d’une seule lignée, originaire d’Afrique. En 1838, Darwin avait visité le zoo de Londres et observé un orang-outan qui lui avait fait forte impression, au point de lui soustraire le commentaire suivant : « Voyez donc un orang-outan… son intelligence… sa passion et ses émotions, sa mélancolie et ses actes de détresse… et osez encore proclamer votre supériorité. » Il ne fut pas le seul à être frappé par les ressemblances : la reine Victoria elle-même trouva le grand singe « désagréablement humain ». Darwin secoua une nouvelle fois le cocotier victorien en proposant que l’homme descend du singe – « son plus proche allié » – et que cette évolution avait eu lieu en Afrique, terre des gorilles et des chimpanzés. Notre espèce se

chronologie 1800

1871

1924

Les anthropologues spéculent que l’homme a des origines multiples

Darwin postule que l’homme descend du singe et a évolué en Afrique

Découverte du crâne de Taung en Afrique, un ancêtre hominidé

La diaspora d’Homo sapiens serait alors dispersée sur les autres continents, s’adaptant par sélection naturelle à leurs environnements distincts pour donner les races actuelles.

Le chaînon manquant Peu de fossiles d’hominidés, se rattachant aux origines de l’homme, avaient été découverts à l’époque, mais Darwin spécula avec raison qu’on trouverait les reliques de ces premiers hommes en Afrique. L’histoire lui donna raison, puisqu’en 1924 Raymond Dart, professeur d’anatomie basé à Johannesburg, mit la main sur un crâne fossile provenant de Taung en Afrique du Sud. Dart constata que le crâne était trop large et les dents trop petites pour appartenir à une espèce fossile de singe. Il nota également que le trou occipital (par lequel la moelle épinière se raccorde au cerveau) était centré vers l’avant, une adaptation caractéristique d’une position bipède. Le crâne, âgé de 2 à 3 millions d’années, était d’autre part beaucoup plus ancien que les ossements de l’homme de Néandertal et d’Homo erectus, découverts respectivement en Europe et en Asie. Le crâne de Taung était clairement intermédiaire entre celui d’un grand singe et celui d’un homme, et Dart baptisa sa découverte Australopithecus africanus : « grand singe austral d’Afrique ».

Le mystère de l’homme de Piltdown

En 1912, « la découverte du chaînon manquant » faisait la une des journaux. L’archéologue amateur Charles Dawson annonçait la découverte d’un crâne et d’une mâchoire près de Piltdown dans le Sussex, parmi d’autres fossiles d’animaux. D’après ces derniers, le spécimen était âgé de 500 000 ans et représentait donc le chaînon manquant entre les grands singes et l’homme. Quarante ans plus tard, une contre-expertise montra que le crâne n’était âgé que de 500 ans et que la mâchoire était celle d’un orang-outan. Les animaux fossiles avaient été placés là pour faire croire à leur grand âge. On ne saura jamais si Dawson, mort en 1916, était l’auteur de la supercherie ou s’il fut lui-même berné.

1974

1987

2014

Découverte en Afrique du squelette de Lucy, âgé de 3 millions d’années

L’ADN mitochondrial pointe à un ancêtre commun en Afrique, baptisé Ève

Le chromosome Y pointe à un « Adam » ayant vécu il y a 208 300 ans

125

126

50 clés pour comprendre les grandes idées de la science

Gorille

Homo erectus

Homo sapiens

Homo erectus se distingue des grands singes par une mâchoire moins proéminente et un plus gros cerveau. Homo sapiens a un cerveau encore plus gros et une arcade moins prononcée.

Les découvertes ultérieures, comme en 1974 celle de « Lucy » en Éthiopie, ont confirmé la théorie de l’origine africaine. Âgée de 3,2 millions d’années, Lucy a un bassin, des chevilles et des genoux qui indiquent une posture principalement bipède. Marcher en position redressée fut clairement l’une des étapes les plus importantes de l’évolution humaine, et l’étude de fragments de nourriture associés aux fossiles indique que leur régime alimentaire changeait également. Au-delà de la cueillette des fruits, ils se tournaient de plus en plus vers les graminées et sans doute même la viande, ce que leur permettait leur cheminement bipède sur de longues distances.

Le Hobbit En 2003, les anthropologues ont découvert d’insolites ossements fossiles sur l’île de Florès en Indonésie, appartenant à des êtres hauts d’un mètre seulement, avec de longs bras et un crâne pas plus gros que celui d’un chimpanzé. Leur face plate et leurs petites dents ont conduit les anthropologues à ranger cette nouvelle espèce parmi les hominidés, avec pour nom officiel Homo floresiensis. On les appelle aussi les « Hobbit », en référence aux petites gens du Seigneur des anneaux. Cette communauté a un âge estimé à 19 000 ans : elle aurait pu descendre de l’espèce Homo erectus. Quant à leur petite stature, les chercheurs pensent qu’il s’agit d’un cas de nanisme insulaire, typique des espèces piégées dans des endroits isolés où le manque de nourriture entraîne par sélection naturelle une réduction de la taille des individus.

Une Ève mitochondriale Les chercheurs pensent aujourd’hui que nous descendons tous d’un ancêtre commun : une femme qui aurait vécu il y a 200 000 ans. Plutôt que des fossiles, cette conclusion est tirée de l’ADN de nos mitochondries. Notre ADN connaît nombre de mutations, tout en étant passé de génération en génération. Une forme particulière, appelée ADN mitochondrial (ADNmt), possède 37 gènes qui ne changent pas et se trouve dans les mitochondries – organites qui transforment les aliments cellulaires en énergie (voir page 116). Les mitochondries proviennent uniquement de la mère (on

La diaspora d’Homo sapiens dit qu’ils sont matrilinéaires), car l’ADNmt porté par le spermatozoïde est détruit lors de la fécondation. C’est cet ADN mitochondrial qui nous permet de retracer nos origines, côté maternel.

«

L’homme darwinien, quoique bien élevé, n’est au mieux qu’un singe rasé ! W.S. Gilbert

»

En 1987, une étude de cet ADN sur des individus du monde entier a conclu que notre arbre généalogique était divisé en deux branches : une lignée purement africaine, et une autre partiellement africaine. L’équipe en tira la conclusion que tous les êtres humains ont un ancêtre commun qui vivait en Afrique, qu’ils ont appelé l’Ève mitochondriale. Et comme, en plus de ses 37 gènes stables, l’ADNmt contient un segment qui peut muter, l’équipe a calculé grâce à son taux de mutation que notre Ève a dû vivre il y a environ 200 000 ans. Elle aurait donc coexisté avec l’homme de Néandertal et Homo erectus. L’étude ne veut pas dire que cette Ève était la seule femme de notre espèce en vie à l’époque, mais la femme particulière à laquelle toute la population actuelle est reliée par descendance. De la même manière, le chromosome sexuel mâle (Y) est uniquement transmis de père en fils (il est « patrilinéaire ») et ne varie pas non plus à travers les générations. Son analyse suggère pareillement que tous les hommes descendent d’un même ancêtre mâle commun, un « Adam Y-chromosomique » qui aurait vécu en Afrique à la même époque que notre Ève mitochondriale. Notre nom d’espèce Homo sapiens signifie « homme savant ». Nos ancêtres ont vécu aux côtés de l’homme de Néandertal et d’Homo erectus durant des milliers d’années, mais furent les seuls à survivre, sans doute parce qu’ils possédaient un avantage en matière de stratégie, de langage, et de partage d’idées. Cela leur permit de mettre au point de meilleures armes et de meilleurs outils pour la recherche de nourriture, autre exemple de sélection naturelle.

L’idée clé L’humanité tout entière descend d’ancêtres communs en Afrique

127

128

50 clés pour comprendre les grandes idées de la science

32 La double hélice C’est à James Watson et Francis Crick, chercheurs à Cambridge, que l’on doit la découverte historique de la structure de l’ADN. Elle a permis de comprendre comment l’ADN se duplique pour transmettre le code génétique, et de lutter aujourd’hui contre nombre de maladies, grâce à la génothérapie. En 1953, les chercheurs James Watson et Francis Crick résolurent l’un des puzzles les plus complexes de la biochimie : la structure de la molécule d’ADN. Constituée de deux hélices enroulées l’une contre l’autre, son architecture a révolutionné nos connaissances en matière de biologie moléculaire et de génétique. Les biologistes avaient soupçonné depuis quelque temps que l’ADN était « la molécule de la vie », portant les gènes de l’hérédité. Oswald Avery et son équipe de l’Institut Rockefeller, à New York, l’avaient déjà prouvé en 1944 (voir page 116), mais la structure de la molécule et la manière dont elle parvenait à transcrire nos informations génétiques demeuraient un mystère.

La saga de l’ADN En 1869, Friedrich Miescher a découvert l’ADN, qu’il était parvenu à extraire de noyaux de globules blancs. À l’aube du XXe siècle, les biologistes avaient réussi à identifier parmi ses composantes des sucres, des phosphates et quatre bases azotées ou « nucléotides » : la thymine, la guanine, l’adénine et la cytosine (symbolisées par les lettres T, G, A et C). La découverte par Avery que l’ADN était le transmetteur de l’information génétique donna l’idée au biochimiste autrichien Erwin Chargaff d’analyser ces nucléotides dans la molécule d’ADN. Ses tests chimiques révélèrent que quel que soit l’échantillon, les proportions de A et de T étaient les mêmes, tout comme celles de G et de C. Il apparaissait donc que ces bases existaient en paires, un couplage qui devint connu sous le nom de règle de Chargaff.

chronologie 1869

1944

1949

Miescher découvre l’ADN dans des noyaux de globules blancs

Avery prouve que l’ADN porte le code génétique

Chargaff trouve dans l’ADN des proportions égales de bases

La double hélice Photos révélatrices

C’est à l’université de Cambridge que s’est déroulée l’étape suivante de l’enquête, à la fin des années 1940. Le biophysicien britannique Francis Crick, qui étudiait les structures moléculaires, y fut rejoint par le biologiste américain James Watson qui venait de compléter à Copenhague une étude sur les virus à ADN. Le directeur du laboratoire de Cambridge leur recommanda d’étudier la structure de la célèbre molécule. Le duo élabora en 1952 un premier modèle à trois faces auquel ils finirent par renoncer. Outre Atlantique, la concurrence était devenue pressante, avec la présentation par l’Américain Linus Pauling, en 1953, d’un modèle d’ADN à trois hélices enroulées, mais erroné car électriquement instable.

La célèbre « photo 51 » de Rosalind Franklin, montrant la structure en double hélice de l’ADN, à partir de laquelle Crick et Watson bâtirent leur maquette en 3D.

Rosalind Franklin, chimiste au King’s College de Londres, apporta alors à Crick et Watson une aide décisive. Elle était spécialiste de l’imagerie par diffraction X, technique qui consiste à focaliser des rayons X sur un cristal, et à révéler d’après leur angle de diffraction la disposition des atomes.

Les images obtenues par Franklin devinrent de plus en plus nettes au fil des tentatives, jusqu’à celle qui fit basculer l’enquête : la célèbre « photo 51 ». Elle montrait un motif en « X », suggérant que la molécule d’ADN avait une structure en double hélice, avec deux brins enroulés l’un autour de l’autre (le « X » représentant le croisement des deux brins). L’image montrait également les nucléotides connectant les deux Francis fit irruption brins comme autant de marches le long d’un escalier hélicoïdal. à l’Eagle pour dire En outre, la structure expliquait à tout le monde la règle de parité des bases de qu’on avait découvert le secret Chargaff : chaque base A d’une de la vie. hélice était liée à une base T sur l’hélice en vis-à-vis, tout comme James Watson l’étaient les bases C et G. C’est

«

»

(L’Eagle est un pub de Cambridge)

1952

1953

1962

Rosalind Franklin prend une photo montrant la double hélice de l’ADN

Watson et Crick construisent une maquette en 3D de l’ADN

Wilkins, Watson et Crick reçoivent le prix Nobel

129

130

50 clés pour comprendre les grandes idées de la science

Watson et Crick Né en 1916 dans les Midlands, au centre de l’Angleterre, Francis Crick débuta sa carrière académique en étudiant la physique à l’University College de Londres. Durant la Seconde Guerre mondiale, il mit au point des mines magnétiques pour la Royal Navy. En 1947, Crick se tourna vers la biologie et rejoignit Cambridge pour étudier la structure en trois dimensions des molécules. Né à Chicago en 1928, détenteur d’un doctorat en zoologie, James Watson rejoignit Crick à Cambridge, où les deux chercheurs firent équipe pour étudier la structure de l’ADN. Après leur célèbre découverte, Watson devint professeur de biologie à l’université d’Harvard, où il continua ses recherches sur les acides nucléiques et la synthèse des protéines. Resté à Cambridge, Crick explora le mécanisme de l’ADN, y compris la façon dont l’ARN messager copie le code ADN pour le transporter dans les ribosomes où il lance la production de protéines. Crick est mort en 2004, à San Diego en Californie.

Maurice Wilkins, un collègue de Franklin, qui montra la photo à James Watson, lequel devait dire plus tard : « dès que j’ai vu l’image, je suis resté bouche bée et mon cœur s’est mis à battre la chamade. »

La construction du modèle Malgré cette avancée, la structure exacte de l’ADN restait à être précisée. Watson et Crick se mirent à construire des maquettes, avec des plaques métalliques pour représenter les nucléotides, reliées par des bâtonnets symbolisant les liaisons. Leur maquette longue de 2 mètres représentait même les angles des différentes liaisons. Très à l’aise en mathématiques, Crick fit notamment tous les calculs. Les deux chercheurs achevèrent leur maquette le 7 mars 1953. Grâce à leurs travaux et à ceux de leurs prédécesseurs, Crick et Watson venaient de révéler la structure intime de l’ADN.

Le modèle permettait même d’entrevoir le mécanisme de réplication de l’ADN. L’article fondateur de Crick et Watson l’annonçait d’ailleurs en 1953 : « Cela ne nous a pas échappé que le couplage postulé suggère un mécanisme possible pour la réplication du matériel génétique ». Crick prouva plus tard que l’ADN se réplique en se déroulant en deux brins séparés, chacun attirant des nucléotides (A se liant à T, et C à G) pour reconstituer deux doubles hélices identiques. Watson, Crick et Wilkins reçurent en 1962 le prix Nobel de médecine. Rosalind Franklin, morte d’un cancer quatre ans auparavant, ne fut pas incluse dans l’équipe des lauréats, le prix Nobel ne pouvant être décerné à titre posthume. Crick continua les recherches, découvrant comment l’ADN encode l’information génétique et gouverne la production de protéines. Watson écrivit La Double hélice, un bestseller qui reste critiqué pour la dépréciation du rôle de

La double hélice Rosalind Franklin dans leur découverte commune. La découverte de la structure en double hélice de l’ADN a ouvert la voie à un nouveau domaine de la science : la biologie moléculaire. Ses nombreuses applications, comme l’ingénierie génétique et la génothérapie, offrent de nouvelles solutions pour guérir des maladies jusqu’alors incurables. Ainsi continue d’avoir un effet sur nos vies cette extraordinaire découverte de la double hélice d’ADN.

La génothérapie Les dysfonctionnements génétiques sont à la base d’environ 4 000 maladies, y compris le cancer, le sida et la maladie d’Alzheimer. La génothérapie consiste à réparer des gènes dysfonctionnels ou à introduire des exemplaires de gènes manquants. Elle est particulièrement efficace dans le traitement de maladies causées par une seule mutation génétique, comme la fibrose kystique. Le procédé consiste à recueillir de l’ADN normal et à l’empaqueter en un « vecteur » – souvent un virus – pour l’introduire dans les cellules malades. Cet ADN normal y produit des protéines qui rectifient le problème. La génothérapie peut cibler ovules et spermatozoïdes pour transmettre la résistance à une maladie à la génération suivante – une stratégie controversée et interdite dans de nombreux pays.

L’idée clé La structure de la molécule de la vie

131

132

50 clés pour comprendre les grandes idées de la science

33 Clonage et OGM En 1972, les chercheurs ont appris à fragmenter l’ADN et à le recombiner à volonté. De telles manipulations génétiques, ainsi que la technique du clonage, font progresser la lutte contre les maladies et la faim dans le monde, mais soulèvent toutefois des questions de sécurité et d’éthique qui continuent toujours de faire polémique. En 1996, des chercheurs de l’université d’Édimbourg firent la une des journaux en annonçant la naissance de la brebis Dolly, premier mammifère à avoir été cloné à partir du noyau d’une cellule adulte. L’opération souleva des protestations de la part de ceux qui voyaient là une interférence malsaine avec Dame Nature. Le clonage consiste à pratiquer une reproduction asexuelle, où le descendant est la copie conforme d’un seul parent. Ce mode de reproduction se déroule depuis des milliards d’années chez les bactéries, les mycètes et les plantes, ainsi que dans nos jardins à travers bouturage et marcottage.

Naissance de Dolly

Les expériences de clonage animal ont débuté en 1928, lorsque l’Allemand Hans Spemann a séparé les deux cellules d’un embryon de salamandre pour obtenir deux larves. Puis, en 1958, le biologiste britannique John Gurdon a cloné une grenouille à partir des cellules intestinales d’un animal adulte. C’est toutefois la brebis Dolly qui a défrayé la chronique, parce qu’il s’agissait d’un mammifère, le clonage ayant été effectué de surcroît à partir d’une cellule adulte, plutôt qu’embryonnaire – projet qui fut monté par Ian Wilmut et son équipe à l’université d’Édimbourg en Écosse. Wilmut utilisa une technique appelée transfert de noyau de cellules somatiques (SCNT). Un ovule est prélevé à la mère porteuse et le noyau de cette cellule germinale, qui contient son information génétique, est éliminé. À sa place on introduit le noyau prélevé d’une cellule somatique de l’individu à cloner (cellule du corps, plutôt qu’une cellule germinale). In vitro, on laisse alors cette cellule composée commencer à se diviser pour devenir un blastocyste (formé

chronologie 1928

1958

1972

Hans Spemann clone une salamandre en divisant un embryon à deux cellules

John Gurdon clone une grenouille africaine à partir de cellules intestinales

Paul Berg recombine (modifie) de l’ADN qu’il injecte à une bactérie

Clonage et OGM

«

L’ingénierie génétique nous permettra d’accroître la complexité de notre ADN et d’améliorer la race humaine. Stephen Hawking

»

d’une centaine de cellules), puis on l’implante dans la mère porteuse où il continue de se développer. Wilmut ne réussit l’opération qu’à la 277e tentative. Dolly fut élevée à l’Institut Roslin et eut elle-même six agneaux. Elle contracta toutefois une maladie des poumons et de l’arthrite et dut être euthanasiée à l’âge de six ans, la moitié seulement de l’espérance de vie normale de son espèce. À la suite de cette première expérience, d’autres opérations de clonage furent réussies sur des mammifères, notamment des cochons, des chèvres et des chevaux. Celles tentées sur des primates, en revanche, n’ont toujours pas abouti, peu d’embryons survivant au-delà du stade de blastocyste.

Clonage thérapeutique Il serait en théorie possible de cloner un être humain, mais l’opération est interdite dans de nombreux pays. En revanche le clonage thérapeutique « partiel » est autorisé aux États-Unis et au Royaume-Uni. Le principe consiste à cloner les cellules d’un embryon pour obtenir des cellules identiques à celles du patient. Prélevées avant qu’elles n’aient eu le temps de se spécialiser en différents tissus, ces cellules « souches » sont alors manipulées de façon à créer uniquement le type de cellules dont le patient a besoin, et comme ces cellules sont celles du patient, elles ne sont pas rejetées par son système immunitaire. Le sang du cordon ombilical, prélevé après la naissance, contient des « cellules souches hématopoïétiques » (CSH) qui ont le potentiel de produire globules rouges, globules blancs et plaquettes : elles sont utilisées pour traiter la leucémie et autres maladies du sang. La technique permet d’éviter le clonage embryonnaire, sujet à polémique, puisque les cellules souches existent déjà.

Manipulation génétique

En 1972 le biologiste américain Paul Berg a développé une technique pour couper l’ADN en segments, recombiner les morceaux et réintroduire le résultat dans le noyau cellulaire d’un autre

1978

1982

1996

Production d’insuline humaine par une bactérie génétiquement modifiée

Première récolte OGM : du tabac qui résiste aux antibiotiques

Naissance de Dolly, premier mammifère obtenu par clonage

133

134

50 clés pour comprendre les grandes idées de la science

Types de cellules souches

L’usage de cellules souches embryonnaires est controversé : les chercheurs s’intéressent donc aux cellules souches adultes afin d’en tirer les mêmes avantages. Les cellules embryonnaires peuvent décliner tout type de cellule dont le corps a besoin, mais les cellules adultes sont moins versatiles. En 2014, des cellules souches furent obtenues à partir de cellules humaines de la peau – opération longtemps supposée impossible parce que les cellules adultes ont tendance à muter. Les chercheurs ont pourtant obtenu ces cellules souches à partir de la peau de deux patients, dont l’un était âgé de 75 ans, ce qui donne l’espoir de pouvoir régénérer des organes défaillants même chez les personnes âgées. Ainsi pourrait-on transplanter des tissus pour combattre nombre de problèmes médicaux, y compris les lésions de la colonne vertébrale, la sclérose en plaques et la maladie de Parkinson.

La manipulation génétique consiste à détacher un segment de nucléotides (le code d’un gène particulier) de l’ADN d’un organisme donneur et de le réinsérer dans l’ADN de l’organisme à modifier.

organisme. Les produits de ces techniques sont appelés OGM : organismes génétiquement modifiés. Ils ont un impact majeur sur la productivité agricole, quoique leur usage reste controversé. Modifier le code génétique d’un organisme permet de changer ses caractéristiques, par exemple de développer la résistance d’une culture aux pesticides, lui donner un potentiel nutritif plus élevé ou une plus longue durée de conservation, une fois récoltée. Il a même été possible de transférer à des cultures végétales un gène provenant de poissons arctiques, afin de les rendre plus résistantes au gel. En médecine, on peut aussi avoir recours à des OGM, notamment à de l’insuline pour traiter le diabète. Autrefois, on avait recours à de l’insuline animale qui devait être purifiée. En 1978, des chercheurs sont parvenus à introduire le gène humain, qui commande

Clonage et OGM la production d’insuline, dans l’ADN d’une bactérie, laquelle se met alors à en fabriquer. Cette insuline OGM est moins coûteuse que l’insuline animale et entraîne moins d’effets secondaires.

Nourrir la planète La faim dans le monde peut être combattue par des cultures génétiquement modifiées, à l’image du riz doré. Le riz blanc, régime de base de nombreux pays, est pauvre en vitamine A. Des millions d’enfants dans le monde manquent de vitamine A, une carence qui peut entraîner la cécité, voire la mort. En 1999, des chercheurs ont trouvé que s’ils ajoutent deux gènes au riz blanc, l’un provenant d’une bactérie et l’autre de la jonquille, la plante produit du bêta-carotène, pigment que notre corps convertit en vitamine A. La nouvelle variété a été baptisée « riz doré » : un seul bol procurerait 60 % de la quantité quotidienne de vitamine A recommandée pour les enfants. Des critiques mettent en doute les tests menant à ces estimations, mais nombre de chercheurs louent ces recherches prometteuses.

On peut aussi génétiquement modifier des insectes, notamment pour des raisons de santé. En Floride, par exemple, nombre de maladies sont véhiculées par des moustiques, comme la dengue ou le chikungunya. Les chercheurs ont modifié des moustiques mâles qui copulent avec les femelles sauvages pour produire des larves qui meurent à la naissance. Relâcher ces moustiques a toutefois rencontré une vive opposition, les résidents craignant plus d’être piqués par un moustique « OGM » que de contracter une maladie.

Clonage et génie génétique débouchent sur une autre branche de recherches, autrefois du domaine de la science-fiction : la biologie de synthèse. Elle consiste non seulement à reconfigurer des organismes déjà existants, mais aussi à créer des formes de vie entièrement nouvelles.

L’idée clé Le copier/coller génétique au service de l’homme

135

136

50 clés pour comprendre les grandes idées de la science

34 La biologie

de synthèse

Merveilles d’ingénierie, les cellules génèrent de l’énergie, entretiennent des réactions chimiques et construisent des tissus. La biologie de synthèse a pour but de remplacer leur ADN par des gènes artificiels, pour en faire des usines miniatures et fabriquer produits pharmaceutiques et biocarburant. Discipline d’avant-garde, la biologie de synthèse est le prolongement du génie génétique : plutôt que d’utiliser l’ADN d’espèces existantes, elle a pour ambition de créer de toutes pièces des gènes au laboratoire, menant même à la genèse de nouveaux êtres vivants. Des séquences génétiques sont conçues sur ordinateur, puis assemblées à partir de nucléotides et implantées dans les noyaux de cellules bactériennes. De telles prospectives sont captivantes pour les uns, inquiétantes pour les autres. En 1972, l’Américain Paul Berg modifia pour la première fois du matériel génétique, en découpant l’ADN d’un virus – le SV40 – et en y insérant de l’ADN en provenance d’une bactérie, lançant la technique biologique de « l’ADN recombinant ». À la fin du XXe siècle, les chercheurs franchirent un nouveau pas en créant des gènes de toutes pièces, ce qui s’est avéré moins coûteux que de faire du montage à partir d’ADN existant.

L’intelligence artificielle

Autre pionnier de cette nouvelle biologie de synthèse, l’Américain Craig Venter fonda son propre institut (JCVI) en 2006, comprenant deux centres de recherches, l’un en Californie et l’autre dans le Maryland. En 2010 il fit la une des journaux en déclarant que son institut avait créé la première forme de vie synthétique. Le projet, étalé sur dix ans et au coût estimé à 40 millions de dollars, s’est déroulé de la manière suivante.

chronologie 1972

1978

2000

Paul Bert est le premier chercheur à recombiner de l’ADN

De l’insuline est créée à partir d’E. coli modifié génétiquement

Le génome humain est cartographié révélant nos 20 500 gènes

La biologie de synthèse

«

En 2007, les recherches menées à JCVI Nous faisons gagner avaient atteint le stade où les chercheurs pouvaient transplanter un génome entier à l’évolution des milliards d’une bactérie à une autre, prélevant d’années. l’ADN de M. mycoides pour l’insérer à Craig Venter M. capricolum. Venter était parvenu au stade où il pouvait essayer de conduire une opération similaire, cette fois avec un génome préfabriqué, ce qui demanda trois années de tests supplémentaires.

»

En parallèle, l’équipe de JCVI avait transcrit sur ordinateur la séquence génétique de la bactérie M. genitalium. Puis, après l’avoir modifié pour l’empêcher de devenir pathogène, elle réussit à construire un exemplaire de cet ADN en utilisant uniquement des produits chimiques de base, avant de l’implanter dans le noyau d’une cellule bactérienne où elle se répliqua. Ce premier organisme de synthèse fut baptisé M. laboratorium, avec des marqueurs introduits dans son génome pour prouver qu’il était bien synthétique. Les critiques ne tardèrent pas à pleuvoir, accusant les chercheurs de se prendre pour Dieu et de propager sur Terre de dangereuses formes de vie. À l’inverse, les partisans soulignèrent que les cellules modifiées pouvaient devenir des usines biologiques et produire des protéines, des vaccins et autres médicaments d’intérêt général.

Les applications En 2013 des chercheurs à l’université d’Exeter au Royaume-Uni ont réussi à produire un carburant synthétique semblable au diesel, en modifiant une souche de la bactérie E. coli – laquelle transforme ordinairement des sucres en lipides – pour qu’elle transforme des sucres en hydrocarbures. Ce nouveau carburant synthétique peut être adapté aux moteurs des automobiles actuelles, mais pour le moment, sa production par les bactéries est encore très lente : elle devra être amplifiée pour devenir rentable. D’autres chercheurs espèrent créer des formes de vie qui absorberont le dioxyde de carbone en surplus dans notre atmosphère, responsable du réchauffement climatique. Venter a passé deux années à étudier l’ADN de cyanobactéries pour créer de tels organismes synthétiques qui pratiqueront la photosynthèse et absorberont le CO2 pour produire à la place de l’oxygène et des hydrocarbures. De son côté, l’azote est essentiel à l’agriculture, mais malgré sa haute concentration dans l’atmosphère, ne peut pas servir aux plantes sous sa forme libre. L’azote doit être converti en nitrates, dont sont composés les engrais. Produire

2007

2010

2013

L’équipe de Craig Venter réussit le premier transfert de génome

Craig Venter annonce la création du premier organisme de synthèse

Un E. coli de synthèse convertit du sucre en biocarburant

137

138

50 clés pour comprendre les grandes idées de la science

Jeux de construction génétique En 2003 fut établie une « bibliothèque » de séquences synthétiques d’ADN, constituant autant de blocs utilisables à la façon d’un jeu de Lego pour créer de nouvelles structures biologiques. Les produits les plus innovants réalisés par cette méthode sont exposés chaque année lors d’un concours à l’université MIT dans le Massachusetts. Une équipe de l’université de Californie à Berkeley a ainsi conçu le Bactoblood, un substitut sanguin obtenu en insérant les gènes de l’hémoglobine dans des cellules bactériennes d’E. coli, à l’ADN préalablement détruit. On peut transfuser Bactoblood à tous les groupes sanguins et il est relativement peu coûteux à produire. D’autres chercheurs, à l’université d’Édimbourg, ont pour leur part synthétisé une bactérie qui détecte l’arsenic dans l’eau – un contaminant présent dans nombre de pays – et le signale en produisant un acide aisément repérable.

des nitrates coûte cher, et ils se décomposent en protoxyde d’azote qui est un puissant gaz à effet de serre. Or certaines bactéries transforment l’azote de l’atmosphère en un composé azoté assimilable par les plantes, grâce à des enzymes comme la nitrogénase. Les biologistes cherchent à créer des produits agricoles contenant de la nitrogénase ou qui tissent des relations symbiotiques avec des bactéries qui fixent l’azote – des alternatives mieux adaptées à l’environnement.

La gestion des déchets toxiques est un autre domaine où la biologie de synthèse peut se révéler utile. Des bactéries sont déjà utilisées pour traiter les déchets : un processus appelé biorestauration. En 2010, la rupture d’un puits de forage sousmarin dans le Golfe du Mexique a déversé dans la mer 800 millions de litres de pétrole. Des dispersants chimiques furent relâchés sur ces nappes d’hydrocarbures, les décomposant en gouttelettes que les bactéries de l’eau de mer pouvaient alors consommer. Les biologistes espèrent synthétiser des bactéries pour décomposer de manière similaire les pesticides, les dioxines ou même les déchets radioactifs.

Combattre les maladies La biologie de synthèse s’applique aussi au domaine de la santé. La résistance des bactéries aux antibiotiques est devenue un grave problème, à cause de l’usage excessif de pénicilline et autres médicaments. Les chercheurs développent des bactériophages de synthèse – des types de virus qui peuvent cibler des bactéries et les détruire, en les pénétrant et en s’y reproduisant jusqu’à les faire exploser. De tels virus peuvent également démanteler l’enveloppe protectrice de certaines bactéries de façon à ce qu’elles soient reconnaissables par nos anticorps chargés de les détruire. D’autres médi-

La biologie de synthèse caments encore sont en cours d’élaboration, qui détecteront les cellules cancéreuses et les détruiront sans affecter les cellules saines. La biologie de synthèse nécessite des tests rigoureux, mais son potentiel est reconnu. L’accent est mis aujourd’hui sur la recherche. Les usines du futur seront peut-être des bactéries, plus respectueuses de l’environnement que nos industries actuelles.

Craig Venter Né en 1946 à Salt Lake City, Craig Venter participa à la guerre du Vietnam, où son expérience sur le champ de bataille le poussa à faire des études de médecine. Il obtint son doctorat en physiologie et pharmacologie à l’université de San Diego en Californie, en 1975. Venter devint alors professeur à l’université d’État de New York à Buffalo, ainsi qu’à l’Institut Roswell Park de lutte contre le cancer. En 1992, Venter fonda l’Institut de Recherche Génomique qui devint par la suite l’Institut J. Craig Venter, entreprise à but non lucratif qui regroupe 250 biologistes dédiés à la recherche sur le génie génétique et ses applications dans l’environnement. En 2000, Venter et son équipe annoncèrent qu’ils avaient cartographié l’ensemble du génome humain, trois ans avant la date visée par le projet international du génome humain.

L’idée clé De nouveaux organismes au service des hommes

139

140

50 clés pour comprendre les grandes idées de la science

35 La conscience Notre espèce est douée de conscience, mais on ne sait pas encore expliquer cette faculté qui consiste à fusionner dans le cerveau nos perceptions, nos expériences et nos souvenirs pour créer un modèle personnel de la réalité. La conscience reste l’un des grands défis de la neuroscience : un mystère difficile à percer. « Comment est-ce qu’une masse gélatineuse d’un kilogramme et demi, que l’on peut tenir dans la paume de sa main, peut imaginer des anges, réfléchir à la notion d’infini et s’interroger sur sa place dans l’Univers ? » Cette question posée par le spécialiste des neurosciences Vilayanur Ramachandran résume le mystère de la conscience, qui mystifie biologistes, philosophes et psychologues depuis des siècles. On a défini la conscience comme étant notre faculté de donner une forme synthétique et cohérente à nos perceptions du monde qui nous entoure et d’y chercher notre place. Les chercheurs soulignent la différence entre le cerveau en tant qu’organe et la pensée, cette entité consciente qu’il renferme et qui enregistre nos sentiments et nos expériences. Nous avons tous lu ou entendu la célèbre phrase du philosophe René Descartes, Cogito ergo sum : je pense, donc je suis. Descartes élabora au XVIIe siècle une théorie connue sous le nom de « dualisme », où il propose que l’esprit est une entité complètement distincte de la matière, capable d’exister de façon totalement indépendante. La médecine moderne a réfuté cette idée en utilisant des produits anesthésiques qui suppriment la conscience chez les patients. La conscience de soi est au cœur du concept : c’est la faculté de se rendre compte que l’on est soi-même conscient, et notamment que l’on réfléchit. Nombre d’études ont été entreprises pour tenter de mettre en évidence cet état de conscience de soi chez d’autres espèces animales.

Le test du miroir

En 1970, le psychologue Gordon Gallup a mis au point le test d’auto-reconnaissance pour juger le degré de conscience des ani-

chronologie 1644

1929

1970

René Descartes écrit la phrase célèbre : « je pense, donc je suis »

Le philosophe américain Clarence Lewis invente le terme de « qualia »

Le degré de conscience de soi des animaux est mesuré par le test du miroir

La conscience maux. Ces derniers sont placés devant un miroir, après avoir été marqués avec un colorant. Si l’animal, après s’être vu dans le miroir, cherche sur lui la marque de couleur, c’est qu’il est conscient que l’image dans le miroir était la sienne. C’est le cas des primates en général, des éléphants, orques, dauphins, cochons et pies.

Esprit quantique En 1989, deux chercheurs portèrent le débat sur la conscience à un autre niveau, en invoquant une dimension quantique. Roger Penrose, éminent professeur de mathématiques à l’université d’Oxford, et l’anesthésiste américain Stuart Hameroff proposèrent une théorie quantique de l’esprit qui prit le nom de « réduction objective orchestrée » (Orch OR en abrégé). Penrose postula que la conscience est le résultat de processus quantiques (voir page 32) se déroulant au niveau des microtubules du cerveau – structures qui forment le cytosquelette des neurones. Avec Hameroff, il proposa que ces processus quantiques sont à la base de la créativité, de l’innovation et de la résolution des problèmes. Penrose publia son hypothèse dans son livre controversé, L’Esprit, l’ordinateur et les lois de la physique. En 2014, la découverte de vibrations quantiques au sein des microtubules a relancé cette piste.

Les expériences enregistrées par les êtres conscients sont appelées « qualia », dérivé du mot latin signifiant « de quelle nature ». Elles sont subjectives et incluent des sensations aussi variées que le goût d’un vin, le parfum d’une rose ou la douleur d’un mal de tête. Elles sont souvent difficiles à décrire, parce que leur perception diffère d’une personne à l’autre : pour ce faire, on dresse souvent une comparaison. Le philosophe américain Daniel Dennett en parle fort justement comme de « la manière dont les choses nous paraissent ». On dit des espèces qui ressentent des qualia qu’elles possèdent de la sentience. Cette faculté est au cœur du mouvement de protection des animaux, car elle implique une douleur physique ou mentale. Lorsque nous ressentons des qualia, l’activité de notre cerveau est stimulée : on appelle ces phénomènes « corrélats neuronaux de la conscience » (CNC). Nombre d’études ont été conduites pour tenter d’associer des émotions ou des expériences particulières avec des régions précises du cerveau. Les techniques d’imagerie comme l’électroencéphalographie (EEG) et l’imagerie à résonance magnétique (IRM) leur ont apporté une aide précieuse.

1996

2008

2014

David Chalmers publie son œuvre de référence : L’Esprit conscient

Giulio Tononi explique la conscience dans sa théorie de l’information intégrée

Des chercheurs américains suggèrent que le claustrum contrôle la conscience

141

142

50 clés pour comprendre les grandes idées de la science Le centre nerveux

Un problème difficile Les expériences et sentiments que sont les qualia figurent au cœur de ce que l’on appelle « les problèmes difficiles de la conscience ». L’expression fut inventée par le philosophe australien David Chalmers qui souligne que « lorsque nous pensons et que nous percevons, il y a une intense activité de traitement des données, mais aussi un aspect subjectif ». En d’autres termes, pourquoi le son d’une clarinette ou le parfum d’une rose est-il ressenti différemment selon la personne ? Ce que Chalmers recherche est une nouvelle approche pour expliquer le phénomène de la conscience. Dans les années 1990, lorsqu’il aborda le problème, il proposa que les méthodes habituelles des sciences cognitives et des neurosciences étaient insuffisantes pour élucider son mystère. Aujourd’hui, l’existence même de ce « problème difficile » est contestée, mais le débat n’est pas près de s’éteindre.

En 2014, des chercheurs ont annoncé avoir découvert une région du cerveau où la conscience peut être activée ou désactivée par stimulation électrique. Il s’agit du claustrum, une fine couche de matière grise située au centre du cerveau. Cette annonce rejoint une proposition faite en 2004 par Francis Crick, codécouvreur de la structure en double hélice de l’ADN (voir page 129). Crick suggéra que rassembler toutes nos expériences requiert une coordination semblable à celle d’un chef d’orchestre. En tandem avec le neurologue Christof Koch, il fit la remarque que ce coordinateur devait collecter rapidement l’information en provenance de plusieurs aires du cerveau et que le claustrum central ferait particulièrement bien l’affaire. Crick mourut toutefois avant confirmation de sa théorie.

Les travaux de 2014, conduits par une équipe de l’université George Washington dans la capitale américaine, s’appuient sur des tests conduits sur une patiente que l’on pouvait rendre inconscience en stimulant son claustrum. Cette patiente soufrait d’épilepsie et l’équipe tentait de découvrir par sondage quelle aire du cerveau était responsable de ses crises. Lorsque son claustrum fut soumis à une stimulation électrique, la patiente perdit immédiatement connaissance. Elle arrêta ce qu’elle était en train de faire et ne répondit plus aux stimuli de l’extérieur, ne reprenant connaissance que lorsque le courant électrique fut interrompu, sans avoir souvenir de l’incident. Le test fut répété plusieurs fois avec les mêmes effets. Il s’agit toutefois d’un seul cas d’étude, ce qui ne permet pas d’en tirer des conclusions. Une autre approche pour définir la conscience est la théorie de l’information intégrée (TII). Développée par le pionnier des neurosciences Giulio Tononi de l’université du Wisconsin à Madison, elle postule que la conscience n’est

La conscience pas seulement bâtie à partir de nos expériences, mais aussi et surtout des connexions tissées entre elles. Dans ce cas, les ingénieurs qui tentent de développer l’intelligence artificielle des ordinateurs (voir page 64) ont du pain sur la planche. En particulier, un disque dur est à même d’enregistrer les souvenirs de toute une vie, mais ne saurait encore les intégrer. L’image d’un bébé, qui a une valeur affective, est distincte de celle de l’adolescent qu’il devient. Nous sommes capables d’établir un lien émotionnel entre les deux, à la différence d’une machine. Selon Tononi, plus les concepts et les expériences sont étroitement intégrés, plus ils acquièrent de signification. Le chercheur suggère que la quantité d’information intégrée est une mesure du degré de conscience. C’est une approche nouvelle, mais le mécanisme de comment et pourquoi nous pensons reste encore mystérieux.

«

La conscience a toujours été le sujet le plus important de la philosophie de l’esprit, et l’un des plus importants des sciences cognitives en général. David Chalmers

»

L’idée clé L’esprit face à la matière

143

144

50 clés pour comprendre les grandes idées de la science

36 Le langage Le langage complexe est une faculté que seule notre espèce possède. Ses origines ont longtemps mystifié les chercheurs. Au milieu du XXe siècle, le célèbre linguiste Noam Chomsky a lancé débat et controverse lorsqu’il proposa sa thèse révolutionnaire que les êtres humains sont biologiquement programmés pour acquérir le langage. Le développement du langage chez l’homme est étonnant. D’autres espèces peuvent communiquer grâce à des automatismes innés, comme le chant chez les oiseaux. Mais l’homme est seul à pouvoir articuler une gamme infinie de pensées à partir d’un étroit registre de sons et de mots. Cette faculté intrigue les philosophes depuis l’époque de Platon. Le développement de la psychologie au XXe siècle a lancé l’étude de l’origine et de l’acquisition du langage. Une école de pensée, appelée comportementalisme et développée par le psychologue américain Burrhus Frederic Skinner, a proposé que le langage se développe chez l’être humain en réponse à l’environnement et que les enfants acquièrent le langage en imitant leurs parents. Dans les années 1950, le jeune linguiste américain Noam Chomsky publia ses propres théories qui contestèrent le comportementalisme en soulignant que le langage est très complexe et que toute une vie ne suffirait pas à un enfant pour en apprendre toutes les subtilités à travers l’imitation seule. Comment le comportementalisme pourrait-il expliquer le fait que la plupart des enfants maîtrisent le langage complexe dès l’âge de quatre ou cinq ans ? À travers le langage, lorsqu’ils jouent et interagissent avec leurs semblables, les enfants développent de riches concepts, emprunts d’imagination. Chomsky fit la remarque que les enfants semblent savoir bien plus que ce qu’on leur apprend, quel que soit l’environnement dans lequel ils sont nés.

Une grammaire universelle

Chomsky soutient que les enfants ne parviendraient jamais à acquérir les compétences nécessaires pour comprendre

chronologie Vers 370 av. J.-C.

1956

1957

Platon propose qu’associer les mots et leur sens est une faculté innée

Le psychologue Jean Piaget publie son étude sur le développement cognitif de l’enfant

Skinner publie sa théorie de l’acquisition du langage dans son livre Verbal behaviour

Le langage

«

Le langage est un processus de création libre : ses lois et principes sont fixés, mais la manière de le générer est infiniment variée. Noam Chomsky

»

et parler un langage, s’ils étaient nés uniquement avec la seule aptitude à traiter les informations qu’ils reçoivent. Il propose à la place que chez l’homme le langage est une faculté innée, et que nos cerveaux sont câblés pour l’opération. Les influences extérieures ne feraient qu’aider les enfants à développer une faculté préexistante. À travers ce qu’il appelle la grammaire universelle, Chomsky pense ainsi que l’homme naît avec dans son cerveau un « dispositif d’acquisition du langage » qui lui permet d’intégrer les principes fondamentaux de la grammaire. Sur ces fondations, il apprend alors le vocabulaire et la syntaxe pour construire des phrases. Pour appuyer sa théorie, Chomsky argumente que les langages varient, mais que les enfants apprennent leur langue maternelle de la même façon, quelle que soit la culture. Ainsi, lorsqu’ils apprennent à parler, ils mettent généralement les mots clés dans le bon ordre. Si les adultes autour d’eux font des erreurs de syntaxe, ils sont prompts à les corriger. Les enfants créent des phrases simples qu’ils n’auraient pu acquérir des adultes qu’ils côtoient, et font des erreurs communes que le comportementalisme ne saurait expliquer. Par exemple, les enfants disent souvent « des chevals », à la différence de leurs parents. Chomsky accorde également une grande importance au fait que le langage ne concerne que l’espèce humaine. Il a souligné le fait qu’un enfant et un chaton sont tous deux capables de raisonner et que s’ils sont exposés au concept de la langue, seul l’enfant le maîtrisera et pas le chaton. Les travaux de Chomsky ont eu une influence considérable, quoiqu’ils soient sujets à la critique. Sa thèse que les hommes possèdent un dispositif d’acquisition du langage n’a jamais été prouvée. De nombreux linguistes pensent que le langage se développe spontanément, découlant du désir que l’on a d’interagir avec les autres et de tisser des relations.

1957

1962

2013

L’œuvre de Chomsky, Structures syntaxiques, propose une grammaire universelle

Le livre de Lev Vygotski, Pensée et langage, est publié en Europe

Des recherches prouvent que les fœtus comprennent rythmes et intonations

145

146

50 clés pour comprendre les grandes idées de la science Comportement social

Noam Chomsky Né en 1928 à Philadelphie en Pennsylvanie, Noam Chomsky est le fils aîné de deux instituteurs, Elsie et William. Juif ashkénaze, William avait fui l’Ukraine en 1913. À l’âge de 16 ans, Noam intégra l’université de Pennsylvanie où il étudia la philosophie et les langues, y recevant son doctorat en 1955. Ses livres de linguistique, publiés à partir de 1957, ainsi que sa théorie de la grammaire universelle lui attirèrent une certaine notoriété et précipitèrent le déclin du modèle « béhavioriste » ou comportementaliste. Activiste politique notoire, Chomsky fut un ardent défenseur des droits de l’homme. Son opposition à l’engagement des États-Unis dans la guerre du Vietnam lui valut de figurer sur la liste des « ennemis » de la nation sous l’administration Nixon. Chomsky étendit ses champs de recherche à l’informatique et à l’intelligence artificielle, à la psychologie et à la théorie de la musique, et a jeté les bases de la « linguistique chomskyenne ».

Une théorie récente a mis l’accent sur l’importance des interactions sociales. Les psychologues et linguistes qui soutiennent cette idée font remarquer que les enfants développent le langage par désir de communiquer avec leur entourage. Déjà très développé à la naissance, le cerveau peut acquérir ces facultés très rapidement. Cette école de pensée, appelée interactionnisme social, se fonde sur les travaux du psychologue soviétique Lev Vygotski. Selon lui, l’apprentissage social au contact des parents est le principal moteur du développement des jeunes enfants. L’environnement dans lequel ils naissent, couplé à l’intériorisation du langage, stimule alors le développement cognitif.

Vygotski postule que les adultes ont une influence majeure sur le développement cognitif des enfants, en leur transmettant leur propre compréhension du langage. Ses travaux furent diffusés hors Union Soviétique par l’Américain Jerome Bruner dans les années 1930, mais il fallut attendre encore trois décennies pour qu’ils soient réellement reconnus. D’autres psychologues, tel Jean Piaget, ont mis l’accent sur l’interaction avec ses semblables dans l’acquisition de compétences sociales. Il y a des points communs entre les travaux de Piaget et Vygotski, mais également des différences. Pour Piaget, le développement précède l’apprentissage, alors que pour Vygotski, développement et apprentissage ont lieu ensemble. Une école de pensée appelée « empirisme » a émergé vers la fin du XXe siècle. Ses partisans pensent que les expériences sensorielles, comme l’ouïe, la vue et le toucher, sont la principale source d’acquisition du langage. Un nouveau-

Le langage né serait une feuille blanche sans connaissances ni langage préprogrammés. Les empiristes pensent qu’un enfant traitera les stimuli sensoriels et les expériences, et apprendra le langage, dans un contexte social. Nombre de linguistes pensent que l’acquisition du langage est une combinaison de l’inné et de l’acquis. Nous posséderions l’aptitude innée de maîtriser les règles du langage, mais les enfants développent leurs compétences linguistiques plus efficacement grâce à leurs interactions avec les autres. Le débat continue, et doit beaucoup au coup de phare que Noam Chomsky a jeté sur cette fascinante discipline.

Le fœtus et le langage « Le fœtus apprend le langage dans le ventre de sa mère » titrèrent les journaux en 2013, suite à des recherches révélant que les bébés naissent avec la faculté de reconnaître des éléments de langage. Les recherches furent conduites lors du troisième trimestre de grossesse, les mères ayant pour tâche de jouer de la musique, entrecoupée du mot « tatata ». Par moments, la syllabe centrale avait une hauteur de ton différente. À la naissance des bébés, non seulement ces derniers reconnurent le mot, mais ils réagirent également à ces différences d’intonation. Les bébés d’un groupe témoin, eux, ne reconnurent pas le mot. Il n’a pas été établi si cet apprentissage in utero a un effet sur le développement ultérieur des bébés.

L’idée clé Comment apprendre à communiquer

147

148

50 clés pour comprendre les grandes idées de la science

37 Les ères glaciaires À plusieurs reprises au cours de son histoire, la Terre s’est considérablement englacée. Des glaciers ont gagné les basses latitudes, laissant des marques dans le paysage qui permettent de dater ces événements et d’estimer leur étendue. Nous sommes nous-mêmes dans un interglaciaire tempéré, entre deux périodes froides. Durant la dernière glaciation, jusqu’à 32 % de la surface des continents et 30 % de la surface des océans étaient recouverts de glace. Les glaciers continentaux se rejoignaient pour former des inlandsis épais de 5 kilomètres par endroits. Des mammifères à épaisse fourrure, comme les mammouths, se sont adaptés à ces conditions, alors que les premiers hommes vivaient dans des abris bâtis de branchages et de peaux de bêtes. Cette dernière période glaciaire a débuté il y a 110 000 ans pour se terminer il y a 12 000 ans environ. Mais d’autres ères glaciaires encore plus intenses ont eu lieu, lorsque la quasi-totalité du globe était englacée. On trouve leurs dépôts à des latitudes qui étaient tropicales à l’époque, et les inlandsis des deux continents se rejoignaient probablement à l’équateur. L’étude des carottes prélevées dans la glace des inlandsis, tout comme les sédiments océaniques et leurs fossiles nous permettent d’étudier les dernières périodes glaciaires dans le détail. Leurs causes exactes restent à déterminer, mais les changements périodiques des paramètres de l’orbite terrestre et de l’inclinaison de l’axe de rotation de notre planète sont impliqués, ainsi que les variations de la teneur atmosphérique en dioxyde de carbone. Les mouvements des plaques tectoniques et de leurs continents (voir page 52) sont aussi en cause, changeant la trajectoire des courants océaniques.

Les preuves des glaciations Les glaciers actuels montrent comment le terrain est affecté sous l’action de leur masse et de leur mouvement. Dans les Alpes, la Mer de Glace sur le flanc nord du massif du mont Blanc est épaisse de 200 mètres

chronologie 1741

1837

1837

Selon Pierre Martel, les glaciers changent de forme au fil du temps

Louis Agassiz propose que la Terre a été recouverte de glace

Karl Friedrich Schimper invente le terme Eiszeit : « l’âge de glace »

Les ères glaciaires et mesure 7 km de long. Ses dimensions changent avec le temps, alternant périodes d’expansion et périodes de retrait. Certaines sections en amont se déplacent à la vitesse de 120 mètres par an. Les masses en jeu sont colossales, un mètre cube de glace pesant près d’une tonne : leur friction sur le socle détache des blocs de roche et creuse de profonds sillons. Les vallées normales ont une section en « V », mais celles des glaciers ont une section en « U ». On le voit autour du mont Blanc, dans les fiords de Norvège ou encore dans le parc national de Yosemite aux États-Unis. D’autre part, les glaciers charrient de gros rochers sur des kilomètres. Après la fonte, on les retrouve échoués dans des lieux insolites où ils contrastent avec la roche locale : on les appelle blocs erratiques.

Les cycles de Milankovitch Dans les années 1920-1930, l’astronome et géophysicien serbe Milutin Milankovitch a analysé les variations cyclique de l’inclinaison et du pointage de l’axe de rotation de la Terre, et de la forme de son orbite. Tous trois contrôlent l’ampleur du rayonnement solaire reçu par notre planète au cours des saisons, et donc les températures associées. Milankovitch a montré comment ces facteurs affectent l’insolation reçue aux pôles, qui contrôle l’expansion, puis la fonte des glaces. À partir des années 1970, l’analyse des cycles climatiques enregistrés dans les sédiments a confirmé les calculs du Serbe. Toutefois, si ces facteurs expliquent bien les oscillations au sein d’une ère glaciaire, son déclenchement reste encore un mystère.

Un autre indice d’action glaciaire est la présence de moraines. Ce sont des piles de débris rocheux plus fins arrachés et broyés par le rouleau compresseur du glacier et qui se déposent sur ses côtés – les moraines latérales – et là où le glacier finit sa course : les moraines terminales.

Une froide révélation

Vers le milieu du XVIIIe siècle, les savants commençaient à se poser des questions sur certains aspects du paysage, comme les blocs erratiques qui contrastaient avec la géologie locale. Puis, au cours des années 1830, en étudiant les mousses qui poussent sur ces blocs dans les Alpes bavaroises, le botaniste Karl Friedrich Schimper chercha leur région d’origine. Il trouva qu’elles provenaient des montagnes en amont et suggéra qu’elles avaient été transportées par des glaciers. Schimper émit alors l’idée radicale que

1941

1964

2014

Milankovitch relie les glaciations aux variations cycliques de l’orbite terrestre

Harland trouve des sédiments glaciaires du Groenland aux latitudes tropicales

La radiochronologie au krypton permet de calculer l’âge des glaces antarctiques

149

150

50 clés pour comprendre les grandes idées de la science

Le petit âge glaciaire De 1300 à 1870, de nombreuses régions du globe ont essuyé un « petit âge glaciaire », avec des températures moyennes plus basses que d’habitude dans l’hémisphère nord, et des hivers particulièrement rigoureux. En 1814, la Tamise a gelé à Londres, et en 1816 les températures hivernales étaient si basses que les oiseaux gelaient en vol entre l’Amérique du Nord et l’Europe. Dans d’autres régions, toutefois, les températures sont demeurées stables. La cause du petit âge glaciaire n’est pas encore identifiée, mais certains chercheurs soupçonnent des éruptions volcaniques. Certaines éruptions projettent des cendres et des particules sulfurées dans la stratosphère où elles réfléchissent la lumière solaire et refroidissent donc la planète. La datation au carbone 14 de matière végétale au Canada a montré que de nombreuses plantes sont mortes à une époque qui semble coïncider avec de telles éruptions. D’autre part, entre 1645 et 1715, le Soleil a connu une baisse de fréquence de ses orages magnétiques (appelée minimum de Maunder), couplée à une insolation moins forte. Certains chercheurs prédisent un nouveau minimum dans les années 2030.

la majorité du territoire de l’Europe et de l’Amérique du Nord fut recouvert par ces glaces. Schimper fut rejoint dans les Alpes par son collègue et ami, le géologue américano-suisse Louis Agassiz. Ils confirmèrent ensemble que la Suisse avait connu des périodes « d’oblitération » quand le pays tout entier avait été recouvert par un épais manteau de glace. Agassiz publia en 1837 la thèse que la Terre avait connu des périodes de glaciation, et on associe son nom à cette grande découverte. Karl Schimper, qui ne publia pas ses travaux, est resté pour sa part dans l’ombre, mais on lui doit le terme Eiszeit : « l’âge de glace ». L’idée fut d’abord accueillie avec scepticisme, le dogme à l’époque statuant que la Terre se refroidit progressivement depuis sa chaude naissance : plus de 30 ans devaient s’écouler avant que la réalité des périodes glaciaires ne soit enfin reconnue.

Plusieurs ères glaciaires Les

géologues dénombrent plusieurs ères glaciaires, sur la base d’indices comme les striations gravées dans les roches par les glaciers, et les datent sur la foi des fossiles : certains organismes disparaissent en effet du registre géologique lors des périodes froides ou migrent vers les basses latitudes où les températures sont plus clémentes. Des procédés géochimiques permettent également de calculer la température des océans au cours des âges. Les ères glaciaires durent en général plusieurs millions d’années. La première reconnue s’est déroulée il y a 2,4 milliards d’années et quatre ont suivi depuis.

Les ères glaciaires La plus sévère, qui s’est déroulée en plusieurs phases il y a 800 à 600 millions d’années, a reçu le nom de « Terre boule de neige ». On l’explique généralement par une érosion plus intense des continents : l’altération chimique des minéraux pompe le dioxyde de carbone hors de l’atmosphère, réduit l’effet de serre et fait chuter la température. Une fois les continents recouverts de glace, cet escamotage du CO2 cesse et sa concentration remonte dans l’atmosphère au fil des éruptions volcaniques, jusqu’à rétablir l’effet de serre et faire fondre les glaces. La plus récente ère glaciaire se déroule depuis 2,5 millions d’années : nous connaissons depuis 12 000 ans un répit dans son cycle, appelé « interglaciaire ». De telles phases tempérées sont de courte durée : malgré le réchauffement climatique actuel, nous ne sommes pas à l’abri d’un retour des glaces.

«

Les roches ont une histoire ; grises et usées par les intempéries, elles ont essuyé bien des batailles, et marché au sein de vastes brigades durant l’âge de glace. John Burroughs

»

L’idée clé La Terre traverse des périodes d’intense glaciation

151

152

50 clés pour comprendre les grandes idées de la science

38 La tectonique des plaques

La découverte que la croûte terrestre est constituée de grandes plaques en mouvement explique nombre de mystères géologiques, de la dérive des continents aux chaînes de volcans sous-marins et à l’origine même des séismes – le tout s’expliquant par la convection de roches chaudes à l’intérieur du globe. À l’aube du XXe siècle, la plupart des géologues pensaient que les continents terrestres étaient immuables, qu’ils avaient toujours existé dans leur forme et dans leurs emplacements actuels. Certaines incohérences, toutefois, allaient remettre ce dogme en question. L’un des premiers savants à proposer un modèle différent fut le géophysicien et météorologue allemand Alfred Wegener. Il ne lui avait pas échappé que les contours de la côte ouest-africaine épousaient ceux de l’Amérique du Sud, comme si les deux continents avaient autrefois été soudés. Wegener spécula qu’il y a environ 250 millions d’années, tous les continents étaient rassemblés en un seul, qu’il baptisa la Pangée. Ce bloc unique se serait alors divisé et ses morceaux auraient dérivé – un mouvement qu’il appela « déplacement continental ». Des preuves paléontologiques appuyaient ses dires : de chaque côté de l’Atlantique, en Amérique du Sud comme en Afrique, les formations rocheuses étaient les mêmes, tout comme les fossiles qu’elles contenaient. Wegener présenta sa théorie à la Société allemande de géologie en 1912, mais elle fut reçue avec beaucoup de scepticisme. Ses contemporains expliquaient la similitude des fossiles de part et d’autre de l’Atlantique par des isthmes passés, que les animaux auraient traversés. Quant aux montagnes que Wegener proposait comme preuves de collisions, ses pairs les attribuaient au

chronologie 1912

1929

1960

Alfred Wegener présente sa théorie sur la dérive des continents

Arthur Holmes postule un manteau terrestre brassé par convection

Harry Hess propose un plancher océanique en constante expansion

La tectonique des plaques refroidissement de la planète, se ridant comme une pomme – bien que Wegener remarquât fort justement qu’elles étaient pourtant dans des endroits précis : ainsi attribuait-il l’Himalaya à la collision de l’Inde avec l’Asie.

«

La concordance entre Afrique et Amérique du Sud doit avoir une raison, sinon Satan se moque de nous. Chester R. Longwell

»

Une terre dynamique

Ses contemporains pensaient également que Wegener n’avait pas les compétences nécessaires pour proposer un modèle aussi radical, d’autant qu’il n’avait aucune explication convaincante pour le mécanisme des déplacements. Sa théorie sombra donc dans l’oubli, et ne fut ravivée que par l’étude du paléomagnétisme dans les années 1950. Cette nouvelle science était fondée sur le fait que certaines roches gardent une empreinte du champ magnétique qui existait du temps de leur formation. Or en mesurant ce champ « fossile » dans des roches d’âges différents, les physiciens s’aperçurent qu’il pointait dans des directions différentes selon les époques. Les pôles magnétiques nord et sud, en particulier, semblaient se renverser épisodiquement, toutes les quelques dizaines à quelques centaines de milliers d’années. Les études du fond marin confirmèrent ce phénomène. Avant la Seconde Guerre mondiale, on croyait le plancher océanique plat et sans relief, mais le développement du sonar changea totalement cette image, révélant des chaînes de volcans sous-marins. Les géologues Arthur Holmes et Harry Hess postulèrent que ces « dorsales » au milieu des océans étaient formées par du magma qui remontait du manteau terrestre et se solidifiait en croûte nouvelle, élargissant le plancher océanique. Cette idée fut confirmée dans les années 1960, lorsque les données magnétiques en provenance du fond marin montrèrent un motif de bandes symétriques de part et d’autre des dorsales, dont l’âge augmentait en s’éloignant de l’axe central, ce qui prouvait que la croûte « se déroulait » des deux côtés, comme un tapis roulant.

À la fin des années 1960, les géophysiciens réalisèrent ainsi que la couche externe et rigide de la Terre – la lithosphère – était divisée en un certain nombre de « plaques tectoniques » se déplaçant les unes par rapport aux autres. On en compte sept principales : les plaques africaine, antarctique, eurasienne, indoaustralienne, nord-américaine, sud-américaine et pacifique. D’autres plaques plus petites parachèvent le tableau.

1966

1968

2004

Dan MacKenzie modélise la convection du manteau

Jason Morgan publie son livre fondateur : La Théorie de la tectonique des plaques

Glissement des plaques en Indonésie : séisme et tsunami (230 000 victimes)

153

154

50 clés pour comprendre les grandes idées de la science

La vitesse des plaques Le développement des systèmes GPS nous permet de suivre le déplacement des plaques avec une précision centimétrique. Nos balises au sol, placées sur tous les continents, reçoivent les signaux d’une trentaine de satellites qui déterminent leur position : elles permettent notamment de mesurer les glissements par à-coups le long des failles. Les mesures GPS montrent aussi des déplacements plus modestes dans les zones de subduction. Les géophysiciens pensent que ces déformations trahissent l’accumulation d’un stress tectonique, à même d’être libéré lors d’un séisme. Un suivi GPS de ces zones de stress pourrait permettre d’identifier celles qui sont au bord de la rupture et d’alerter les populations, avant que le séisme ne se déclenche.

Les mouvements relatifs de ces plaques, notamment leur croissance au niveau des dorsales, s’effectuent au rythme de plusieurs centimètres par an, entraînés par le flux du manteau chaud et visqueux en profondeur. Les frontières entre les plaques sont délimitées par de profondes failles.

Jeux de failles Là où les plaques se séparent, des failles d’extension forment des fossés ou « rifts », comme ceux au sommet des dorsales sous-marines ou encore la vallée du Grand rift en Afrique de l’Est. Là où deux plaques glissent latéralement l’une contre l’autre se développent des failles coulissantes ou « transformantes » : celle de San Andreas est célèbre, qui a causé en 1906 le grand séisme de San Francisco (au moins 3 000 victimes). Là où les plaques convergent, la plaque la plus dense plonge souvent sous celle en vis-à-vis, pour se fondre

La Terre possède sept plaques tectoniques principales et plusieurs plaques mineures. Leurs déplacements créent les dorsales sousmarines, les volcans et les chaînes de montagnes.

Plaque nordaméricaine Plaque Juan de Fuca Plaque Cocos Plaque pacifique

Plaque caraïbes Plaque Plaque sudNazca américaine

Plaque Scotia

Plaque arabique

Plaque africaine

Plaque eurasienne

Plaque indienne

Plaque nordaméricaine

Plaque philippine Plaque pacifique Plaque indoaustralienne

Plaque antarctique

La tectonique des plaques dans le manteau terrestre le long d’une « fosse de subduction ». Séismes et éruptions volcaniques sont fréquents à l’aplomb de ces zones, notamment tout autour du Pacifique où leur alignement constitue le célèbre « cercle de feu ». Le tsunami dévastateur d’Indonésie, en 2004, fut causé par la subduction de la plaque indo-australienne sous la plaque eurasiatique, déclenchant un séisme d’une énergie équivalente à 30 000 bombes d’Hiroshima. Mis en branle par le glissement des plaques sur un front sous-marin large de 1 000 km, le tsunami dressa des vagues hautes de 15 mètres le long des rivages les plus touchés, faisant 230 000 victimes. Dans d’autres cas de convergence, les plaques portent d’épaisses masses continentales : leur faible densité enraye leur subduction et les empêche de plonger. L’intuition de Wegener que la chaîne de l’Himalaya est due à la collision de l’Inde avec l’Asie s’est trouvée confirmée : leurs roches sédimentaires se sont imbriquées les unes dans les autres, en formant des plissements montagneux. La compression se poursuit à l’heure actuelle, avec le soulèvement continu de la chaîne équilibré par l’érosion.

L’idée clé L’écorce terrestre est en perpétuel déplacement

155

156

50 clés pour comprendre les grandes idées de la science

39 Les extinctions de masse

Au cours des derniers 450 millions d’années, les paléontologues ont dénombré cinq crises majeures de la biosphère, appelées grandes extinctions de masse, lorsque la majorité des espèces vivantes ont disparu. De nombreux chercheurs redoutent que la sixième soit en cours, du fait des activités humaines. On appelle extinction de masse un chamboulement des espèces vivantes en un temps relativement court : quelques millions d’années tout au plus, ce qui est peu à l’échelle des 4,5 milliards d’années de l’histoire de la Terre. On recense cinq grandes extinctions, chacune marquant la transition entre deux périodes géologiques. Impacts d’astéroïdes, glaciations et éruptions volcaniques sont évoqués pour les expliquer. Ces événements catastrophiques ont laissé leur marque dans les roches terrestres. Ainsi le recensement des fossiles, débuté au XVIIe siècle, n’a pas tardé à dérouter les savants en mettant en évidence des transitions dans les couches sédimentaires, où un grand nombre de créatures disparaissaient. L’anatomiste Georges Cuvier (voir encadré page 158) interpréta ces transitions comme indiquant des « révolutions », au cours desquelles ces espèces avaient été remplacées. Les études se sont affinées grâce à la découverte de fossiles de plus en plus nombreux, notamment ceux de « terribles lézards » ou dinosaures – nom proposé par le paléontologue Richard Owen – au début du XIXe siècle. Les fossiles les plus anciens, incrustés dans les couches les plus profondes de la pile sédimentaire, nous renseignent sur les premières formes de vie. Plus proches du haut de la pile, on trouve ceux des oiseaux et des mammifères. Dater les roches a permis de préciser à quels moments de l’histoire de la Terre les extinctions de masse sont survenues. C’est ainsi que le moment charnière de la disparition des dinosaures correspond à la frontière entre les périodes

chronologie 1796

1842

1962

Cuvier présente ses travaux qui indiquent que des espèces s’éteignent

Richard Owen décrit des fossiles de dinosaures – mot qu’il a inventé

Norman Newell juge que les extinctions de masse sont utiles pour l’évolution

Les extinctions de masse géologiques du Crétacé (symbole K) et du Paléogène (symbole Pg) : on l’appelle pour cette raison extinction K-Pg (autrefois K-T, car à la place de Paléogène on utilisait le mot Tertiaire). Cette frontière K-Pg est visible dans les sédiments sous la forme d’une couche d’argile sombre, épaisse d’un centimètre seulement. Au-dessus d’elle, on ne trouve plus aucune trace de dinosaures.

La fin des dinosaures Au cours des années 1970, le géologue américain Walter Alvarez s’intéressa à cette couche d’argile, lors de ses recherches sur le terrain à Gubbio, en Italie. Il en préleva des échantillons qu’il remit à son père, le prix Nobel de physique Luis Alvarez, qui se mit en devoir de l’analyser. L’argile s’avéra contenir une concentration inhabituelle d’iridium : près de 30 fois la dose typique d’un sédiment ordinaire. Or ce métal rare de la famille du platine, peu présent dans la croûte terrestre, est plus abondant dans les météorites. De fait, une petite quantité en provenance du cosmos est saupoudrée en permanence à la surface du globe par les micrométéorites, mais les quantités présentes dans l’argile K-Pg étaient trop importantes pour découler de ce seul processus. Après avoir retourné le problème dans tous les sens, Luis et Walter Alvarez émirent l’hypothèse qu’un astéroïde de grande taille s’était écrasé sur Terre, bouleversant la biosphère et massacrant les dinosaures. Leur thèse publiée en 1980 lança un vif débat, et il fallut attendre 1991 pour qu’elle soit validée par la découverte d’un cratère d’impact géant, enfoui sous la plateforme du Yucatán au Mexique, dont l’âge concordait avec celui de la grande extinction. Centré sur le petit port de pêche de Chicxulub, le cratère enfoui mesurait 180 km de diamètre – ce qui suggère pour l’astéroïde responsable une taille de 10 km. Il est difficile d’imaginer la dévastation causée par l’impact. Outre la violente perturbation de l’atmosphère, le séisme géant et le méga-tsunami, l’énergie a surtout pris la forme d’une bouffée de chaleur qui a ravagé le monde entier. Comme suie et poussières ont bloqué la lumière et la photosynthèse, la végétation a dépéri et la chaîne alimentaire tout entière s’est effondrée. La biosphère aurait mis plus d’un million d’années à s’en remettre.

La plus grande extinction Un impact d’astéroïde est considéré comme la cause principale, sinon unique, de la mort des dinosaures. Mais cette extinction en masse de la fin du Crétacé n’est pas la pire de toutes. Celle de la fin du Permien, il y a 252 millions d’années, est censée avoir exterminé

1980

1982

2015

Walter et Luis Alvarez postulent qu’un impact d’astéroïde a exterminé les dinosaures

Jack Sepkoski et David Raup suggèrent que les extinctions sont périodiques

Prise de conscience que l’homme cause une sixième grande extinction de masse

157

158

50 clés pour comprendre les grandes idées de la science

Cuvier et le catastrophisme Au XVIIIe siècle, nombre de naturalistes réfutaient l’idée que les espèces puissent être mortelles : si tel était le cas, toutes les espèces auraient déjà dû disparaître. Au cours des années 1790, l’anatomiste Georges Cuvier commença toutefois à questionner ce dogme. Il prouva notamment, sur la foi des ossements étudiés, que le mammouth était une espèce distincte de l’éléphant et qu’il s’était bien éteint, puisqu’on ne le trouvait plus aujourd’hui. En outre, en étudiant les sédiments du Bassin parisien, Cuvier remarqua que la succession de fossiles rencontrés dans les strates inférieures s’arrêtait net à un certain niveau, remplacée par de nouvelles espèces. Cuvier proposa que ces changements abrupts représentent des « révolutions » ou extinctions de masse, une théorie qui prit le nom de catastrophisme.

96 % de toutes les espèces marines et 75 % des espèces terrestres. Toutes les espèces actuelles découlent d’ancêtres qui ont échappé à cette catastrophe. Plutôt qu’une crise unique, cette extinction record se serait déroulée en plusieurs phases. À une première période de changement progressif aurait succédé un enchaînement d’événements catastrophiques – éruptions volcaniques intenses ou incendies d’hydrocarbures – avec la possibilité également qu’une prolifération de bactéries, se nourrissant des cadavres, ait relâché de vastes quantités de méthane dans l’atmosphère, déclenchant de surcroît un effet de serre infernal. Certains chercheurs pensent aussi que le rassemblement à cette époque des masses continentales en un supercontinent unique, la Pangée (voir page 152), aurait réduit la surface totale des marges continentales – appauvrissant la vie marine – et perturbé les courants océaniques et le climat.

Aujourd’hui que nous perturbons à notre tour la biosphère et le climat, une sixième extinction en masse du monde vivant pourrait nous menacer, de l’avis de bien des chercheurs. Certaines projections suggèrent que 16 % de toutes les espèces auront disparu avant la fin du siècle, avec un score plus grave encore chez les vertébrés. Alors que les agences spatiales étudient comment écarter de notre trajectoire tout astéroïde menaçant, il semblerait que la principale menace vienne plutôt de nous-mêmes.

«

L’extinction est la règle ; l’exception est la survie. Carl Sagan

»

Les extinctions de masse

Les cinq grandes extinctions Les paléontologues ont identifié cinq grandes extinctions de masse dans l’histoire de la Terre. La première s’est déroulée à la fin de l’Ordovicien, il y a 445 millions d’années (Ma). La vie était principalement marine à l’époque ; brachiopodes et trilobites ont été particulièrement touchés. La grande extinction suivante fut celle de la fin du Dévonien (375 Ma) qui a éliminé 30 % des espèces : les récifs coralliens furent principalement affectés et ont mis plusieurs millions d’années à récupérer. La plus grande extinction fut celle de la fin du Permien (252 Ma) durant laquelle 96 % des espèces marines furent exterminées. Celle de la fin du Trias (201 Ma), moins nette, se serait peut-être déroulée en plusieurs épisodes. Enfin, la crise à la frontière Crétacé-Paléogène (66 Ma) a vu disparaître les dinosaures et 70 % des formes de vie sur Terre. Taux d’extinction (%) 60

Crétacé-Paléogène

Fin du Trias

40 20 0 Présent

100 Ma

200 Ma Date

Les cinq grandes extinctions de masse, avec le pourcentage des espèces disparues. Ces proportions sont fondées sur les fossiles retrouvés, de nombreuses 500 Ma autres espèces échappant

Fin de l’Ordovicien Fin du Dévonien Fin du Permien

300 Ma

400 Ma

au recensement.

L’idée clé La vie sur Terre est épisodiquement ravagée par des catastrophes

159

160

50 clés pour comprendre les grandes idées de la science

40 Le changement climatique

L’idée que la Terre subit un réchauffement climatique, causé par le dioxyde de carbone, fut initialement proposée par Svante Arrhenius en 1896. Mais il aura fallu attendre près d’un siècle pour que l’homme commence enfin à se préoccuper de son impact sur l’environnement et tente de réduire l’émission des gaz à effet de serre. Le changement climatique menace notre avenir, et de nombreux chercheurs pensent que nous nous approchons dangereusement du point de non-retour, au-delà duquel il sera impossible de renverser la tendance. En forçant le trait, on peut craindre que la montée des eaux submerge des villes comme New York et Londres, que des migrations massives depuis des pays devenus inhabitables sèment le chaos et la discorde, et que la vie végétale et animale périclite, entraînant la famine à l’échelle mondiale. L’explosion de la population humaine au cours du dernier siècle a eu un effet rédhibitoire sur la planète, en déréglant notamment son délicat équilibre climatique. La Terre jouit d’un climat modéré grâce à l’action stabilisatrice de son atmosphère – cette couche de gaz qui empêche le sol d’être trop brûlant ou trop glacé, comme c’est le cas pour d’autres planètes de notre Système solaire. La lumière du Soleil traverse notre atmosphère transparente et chauffe le sol et les océans. En retour, ces derniers réémettent cette chaleur vers l’espace sous forme de rayons infrarouges – longueurs d’onde pour lesquelles l’atmosphère n’est plus aussi transparente : certains de ses gaz en effet, comme la vapeur d’eau, le dioxyde de carbone (CO2), le méthane et l’ozone, interceptent ces rayonnements et les renvoient vers le sol. Une partie de la chaleur reçue tourne donc en boucle et reste piégée : c’est le fameux effet de serre. Une partie est naturelle, l’autre est due à l’homme.

chronologie 1824

1896

1938

Joseph Fourier avance que notre atmosphère réchauffe apparemment la planète

Svante Arrhenius modélise l’influence du CO2 sur la température atmosphérique

Guy Callendar explique par le CO2 la hausse de température du demi-siècle écoulé

Le changement climatique Premières théories On parle de l’effet de serre depuis maintenant quarante ans, mais ce n’est pas vraiment une idée nouvelle. En 1824, le physicien et mathématicien français Joseph Fourier a fait un premier calcul qu’à la distance où elle se trouve du Soleil, la Terre devrait avoir une température de surface plus basse que ce qui est effectivement observé. Il a donc proposé que d’une certaine façon, l’atmosphère doit agir comme une couverture chauffante, sans qu’il puisse toutefois en préciser le mécanisme exact. Au cours des décennies suivantes, les chercheurs comprirent que le CO2 absorbe le rayonnement infrarouge, et en 1896 le chimiste suédois Svante Arrhenius élabora un modèle mathématique pour montrer comment le CO2 affecte la température de la Terre. Il établit que si son taux augmentait ou diminuait, la température en faisait de même. Il calcula notamment qu’en doublant la teneur en CO2 de l’atmosphère, celle-ci gagne 4 °C. Si elle est divisée par deux, la température perd à l’inverse 4 ou 5 °C : le niveau d’une période glaciaire. Arrhenius comprit qu’en brûlant des carburants fossiles, les industries en plein essor étaient justement en train de relâcher du CO2 et de réchauffer la planète. Mais il n’en tira pas des conclusions néfastes pour notre avenir. Il semblait en effet impossible aux savants à l’époque que les activités humaines puissent sérieusement affecter la température de la Terre ; en particulier, ils pensaient que le surplus de CO2 serait absorbé par les océans. Arrhenius proposa même qu’une telle augmentation rendrait les conditions sur Terre plus « équitables », boostant l’agriculture et la production de nourriture, et empêchant même la Terre de basculer dans une nouvelle période glaciaire.

Les preuves du réchauffement

L’ingénieur britannique Guy Callendar a relancé les études sur l’effet de serre en 1938, compilant les mesures de concentration atmosphérique en CO2 et les températures annuelles au cours des décennies écoulées. Il en déduisit que la température de la Terre avait augmenté de 0,5 °C en un demi-siècle et que la hausse du CO2 en était la cause. Ses calculs, réalisés à la main, ont été validés depuis, et l’influence du CO2 sur la température est désormais appelée l’effet Callendar. Au cours des années 1950 il devint évident que le surplus de CO2 relâché dans l’atmosphère par nos industries n’était pas absorbé par les océans. Les chercheurs commencèrent à se demander si cette augmentation de CO2 pouvait avoir des effets indésirables. En 1961, le géochimiste américain Charles Keeling

1961

1989

2014

Charles Keeling montre que le CO2 atmosphérique est en hausse constante

Ratification du protocole de Montréal visant à protéger la couche d’ozone

Les Nations Unies annoncent qu’il reste peu de temps pour inverser la tendance

161

162

50 clés pour comprendre les grandes idées de la science montra que le niveau de CO2 atmosphérique augmentait régulièrement, une fonction appelée courbe de Keeling, et les travaux fondateurs d’Arrhenius furent repris sur ordinateur. Les chercheurs commencèrent alors à alerter leurs gouvernements : la planète se réchauffait rapidement, avec de graves conséquences. En 1965, le président américain Lyndon Johnson délivra au Congrès un message stipulant que « la pollution de l’air n’est plus confinée à des endroits particuliers. Notre génération a altéré la composition de l’atmosphère à l’échelle du globe, à travers les matériaux radioactifs et la croissance régulière de dioxyde de carbone, engendrée par la combustion de carburants fossiles. » Les chercheurs déduisent les températures passées de la Terre en analysant les bulles d’air prises dans les glaces et leur composition isotopique. Au sortir de la dernière période glaciaire, la température du globe a ainsi augmenté de 4 à 7 °C en l’espace de 5 000 ans, soit environ 0,1 °C par siècle. Au cours du XXe siècle, la température a augmenté de 0,7 °C : une croissance qui est donc 7 fois plus rapide. La hausse du niveau marin, due à la fonte des glaces, est elle aussi alarmante et se déroule plus rapidement que prévu : depuis 1990, elle atteint 3 millimètres par an, 25 % de plus que les estimations initiales.

Niveaux de CO2 dans l’atmosphère (mesurés en parts par million ou ppm) et températures moyennes depuis la fin du XIXe siècle. Le trait gras représente le CO2 et les barres les températures annuelles. La corrélation entre les deux est évidente à partir de 1980.

CO2 (ppm)

Température moyenne du globe 14,7 14,45 14,15 13,90 13,60

«

1880

1900

1920

Taux de dioxyde de carbone 1940 1960 1980

2000

Le changement climatique n’est pas le problème du futur ; il nous affecte partout aujourd’hui. Vandana Shiva

»

380 360 340 320 300 280 260

Le changement climatique D’après le rapport publié par les Nations Unies en 2014, il ne nous reste plus que quelques années avant que le réchauffement climatique n’échappe totalement à notre contrôle et ne rende inhabitables de nombreuses régions du globe. Le point de non-retour serait un réchauffement supplémentaire de 2 °C : c’est donc maintenant que nous devons agir.

Une question d’albédo L’Arctique se réchauffe environ deux fois plus vite que le reste de la planète, ce qui a déjà entraîné une perte de 14 % de sa banquise depuis les années 1970. Cette fonte affecte un autre paramètre de l’équilibre climatique de la Terre : son albédo (du mot latin qui signifie blancheur). On définit l’albédo d’une planète comme étant le pourcentage de lumière solaire réfléchie par sa surface. C’est un nombre compris entre 0 (corps noir qui ne réfléchit rien) et 1 (corps blanc qui réfléchit 100 % de la lumière reçue). L’albédo global de la Terre vaut 0,35, mais à mesure que le réchauffement climatique fait fondre les calottes polaires, cet albédo décroît (la Terre s’assombrit), ce qui veut dire qu’elle réfléchit moins la lumière solaire. La planète chauffe donc davantage, ce qui fait fondre les glaces encore plus, engendrant une amplification en boucle du réchauffement climatique.

L’idée clé Le climat se réchauffe et menace notre avenir

163

164

50 clés pour comprendre les grandes idées de la science

41 La révolution

copernicienne

Nicolas Copernic publia son modèle héliocentrique du Système solaire sur son lit de mort, en 1543 : une théorie aussi révolutionnaire, qui jetait à bas le dogme que la Terre était située au centre du monde, ne pouvait en effet que lui attirer les foudres de l’Église, et il se garda bien de la propager de son vivant. Le modèle de Nicolas Copernic révolutionna notre conception du monde. Des milliers d’années durant, même les savants les plus érudits pensaient que le Soleil et les planètes tournaient autour de la Terre, et que celle-ci était stationnaire au centre de l’Univers. Ce modèle géocentrique remontait aux philosophes grecs les plus influents, Platon et Aristote en tête, et était soutenu par l’Église. Au IVe siècle avant notre ère, le mathématicien Eudoxe de Cnide avait créé un modèle pour expliquer le mouvement des corps célestes autour de la Terre : ils étaient incrustés sur des sphères de taille croissante, centrées sur notre planète, avec la Lune sur la première, suivie de Mercure, Vénus, le Soleil, Mars, Jupiter, Saturne, et enfin les étoiles. Aristote précisa par la suite que chaque sphère était mise en mouvement par le dieu associé. Il y eut toutefois une voix dissidente : Aristarque de Samos, au IIIe siècle avant notre ère, proposa avec justesse que la Terre tournait sur son axe et circulait autour du Soleil, mais il ne fut guère entendu. Il y avait toutefois quelques anomalies dans le modèle géocentrique, qui dérangeaient les astronomes. Celui-ci n’expliquait pas l’éclat variable des planètes, ni le fait que certaines rebroussaient parfois chemin dans le ciel, avant de reprendre leur déplacement normal.

chronologie IV e

siècle av. J.-C.

Les astronomes pensent que Soleil et planètes tournent autour de la Terre

III e

siècle av. J.-C.

Aristarque de Samos propose un modèle héliocentrique du Système solaire

1543 Copernic publie sa thèse d’un système centré sur le Soleil

La révolution copernicienne

«

Vers l’an 150 de notre ère, Savoir que l’on sait Ptolémée d’Alexandrie proposa ce que l’on sait, une solution au problème. Il postula qu’en même temps que et savoir que l’on ne sait pas chaque planète voyageait sur sa ce que l’on ne sait pas : sphère autour de la Terre, elle là réside le véritable savoir. accomplissait de petits cercles – appelés « épicycles » – autour Nicolas Copernic d’un axe planté sur la sphère. Lorsque ce déplacement se faisait dans le même sens que la sphère, celui de l’astre était normal ou « prograde » dans le ciel. Lorsqu’au cours de l’épicycle le déplacement se faisait en sens contraire à celui de la sphère, la combinaison se soldait par l’apparence d’un ralentissement, voire d’un recul « rétrograde » dans le ciel.

»

Une théorie révolutionnaire Les astronomes adoptèrent le modèle de Ptolémée durant près de 1 400 ans, jusqu’à ce que Nicolas Copernic le remette en question. Chanoine de son état, le Polonais avait étudié l’astronomie à l’université de Cracovie, où il avait eu vent de l’ancienne théorie d’Aristarque de Samos. Peu convaincu par les épicycles de Ptolémée, auxquels il trouvait de nombreux défauts, Copernic s’attacha à développer sa propre théorie. Après des années de réflexion et de calculs, Copernic se rallia à une vision héliocentrique du monde, avec le Soleil au centre du système et toutes les planètes circulant autour de l’astre du jour, avec dans l’ordre (qui est le bon) : Mercure, Vénus, la Terre, Mars, Jupiter et Saturne (Uranus et Neptune n’avaient pas encore été découvertes). Cette nouvelle vision des planètes expliquait notamment pourquoi, vues depuis la Terre, Mercure et Vénus ne s’éloignent jamais très loin du Soleil. Copernic postula également, et correctement, que la Terre accomplit une rotation sur son axe en une journée et fait le tour du Soleil en un an. Son modèle rendait caduque celui de Ptolémée, et en particulier les complications absurdes des épicycles. Le mouvement « rétrograde » de certaines planètes s’expliquait par le fait que la Terre n’était pas stationnaire, mais en mouvement. En dépassant « à la corde » les planètes extérieures plus lentes, comme Mars et Jupiter,

1610

1609-1619

1687

Galilée confirme la théorie de Copernic en observant Vénus au télescope

Kepler découvre les lois gouvernant les orbites des planètes

Newton découvre que le mouvement des planètes est dû à la gravitation

165

166

50 clés pour comprendre les grandes idées de la science

Nicolas Copernic (1473-1543) Nicolas Copernic est né en Pologne, à Torun sur la Vistule, le 19 février 1473. Son père Nicolaus était un marchand prospère, et sa mère, Barbara Watzenrode, venait elle aussi d’une famille de marchands. À la mort de son père, le jeune Nicolas fut élevé par son oncle maternel Lucas Watzenrode qui devint évêque de la province de Varmie, guida l’éducation de son neveu et le dirigea vers une carrière ecclésiastique. Après avoir étudié de nombreuses disciplines, y compris l’astronomie, à l’université de Cracovie, Copernic se rendit à l’université de Bologne. Il y partagea le logis du principal astronome de l’université, Domenico Maria de Novara, rencontre qui le marqua profondément. En 1503, Copernic reçut son doctorat en droit canonique et retourna en Pologne où il travailla dans l’administration de l’Église catholique, s’occupant des finances et prodiguant même des soins médicaux. Réputé pour ses talents d’astronome, Copernic fut consulté par l’Église en 1514 pour réviser le calendrier, qui n’était plus synchrone avec le déplacement du Soleil. C’est alors qu’il écrivit un premier manuscrit de 40 pages, intitulé Commentariolus (« Petit commentaire »), où il esquissa ses premières idées sur la théorie héliocentrique. Suivit un traitement beaucoup plus complet, De Revolutionibus Orbium Cœlestium, que Copernic hésita longtemps à publier, craignant une forte opposition de l’Église. Copernic tomba malade après avoir terminé son manuscrit. La légende raconte qu’il perdit connaissance et se réveilla avec son livre à la main, qu’il relut une dernière fois avant de mourir, le 24 mai 1543. L’astronome est inhumé dans la cathédrale polonaise de Frombork.

celles-ci semblaient reculer, tout comme paraît reculer par rapport à l’arrière-plan une voiture lente que l’on dépasse.

L’œuvre maîtresse C’est en 1543 que Copernic publia son œuvre maîtresse : De Revolutionibus Orbium Cœlestium (Des révolutions des sphères célestes). Il savait que ses idées allaient allumer une vive controverse, car elles allaient à l’encontre du dogme tenu par l’Église catholique, et son livre resta effectivement sur la liste des ouvrages interdits jusqu’en 1822. Copernic était lui-même un fervent catholique, mais il n’estimait pas que sa vision de l’Univers contredisait la Bible. Il mourut d’une hémorragie cérébrale quelques mois seulement après l’édition de son œuvre. Le modèle de Copernic n’était pas exempt de défauts. L’astronome continuait de croire que les mouvements étaient parfaitement circulaires, et dut continuer d’avoir recours aux épicycles de Ptolémée pour expliquer aussi bien les mouvements observés que son prédécesseur. Cette complication explique en partie pourquoi peu d’astronomes furent séduits par son modèle. Il fallut attendre le début du siècle pour que le dogme des mouvements circulaires soit finalement abandonné, grâce aux travaux de l’astronome

XVIIe

La révolution copernicienne Johannes Kepler qui montra que les planètes circulaient sur des ellipses. Cette découverte permit enfin de se passer des encombrants épicycles. À la même époque en Italie, Galilée braqua la première lunette astronomique sur les planètes et découvrit que Jupiter possédait quatre lunes, preuve que les astres ne tournaient pas tous autour de la Terre. Il observa également les phases de Vénus, que l’on pouvait seulement expliquer si Vénus circulait autour du Soleil. Galilée fut condamné par l’Église pour ses vues peu orthodoxes et assigné à résidence, mais le modèle héliocentrique avait le vent en poupe. En 1687, Isaac Newton apporta une touche supplémentaire en expliquant quelle force le Soleil exerçait pour tenir ses planètes en orbite : la gravité. L’héritage de Copernic est inestimable, et on peut le considérer comme étant le père de l’astronomie moderne. Le principe copernicien qu’il a fondé va même plus loin : la Terre n’occupe pas une position privilégiée dans l’Univers. Comme l’a écrit Carl Sagan : « Nous vivons sur une planète insignifiante, appartenant à une étoile quelconque dans une galaxie perdue dans un recoin oublié de l’Univers où il y a plus de galaxies qu’il n’y a d’hommes sur Terre. »

Dans l’ancien modèle géocentrique (en haut), le Soleil et les planètes orbitent autour de la Terre. Dans le modèle de Copernic (en bas), c’est le Soleil qui est au centre du système.

L’idée clé La Terre n’est pas le centre de l’Univers

167

168

50 clés pour comprendre les grandes idées de la science

42 Les galaxies Les étoiles et leurs planètes ne sont pas distribuées de façon uniforme dans l’Univers : elles sont concentrées en rassemblements appelés galaxies, séparés par des abîmes pratiquement vides. Notre Système solaire appartient à une galaxie appelée Voie lactée, mais l’Univers en compte plusieurs milliards. En contemplant le ciel étoilé, par un beau soir d’été, on distingue une bande laiteuse, faiblement lumineuse, qui traverse la voûte céleste : la Voie lactée. Il s’agit de notre galaxie, un ensemble de plusieurs centaines de milliards d’étoiles qui s’étale sur près de 120 000 années-lumière. Les galaxies en général ont des tailles et des formes variées. La nôtre est un disque : vue depuis l’intérieur, elle se présente sous la forme d’une bande prenant le ciel en écharpe. On la voit particulièrement bien l’été, lorsque le côté nocturne de la Terre fait face au centre du disque. Mais comprendre tout cela n’a pas été facile. Les astronomes pensaient autrefois que la lumière laiteuse de la Voie lactée était due à des gaz incandescents. Galilée fut le premier à braquer vers elle une lunette grossissante et à se rendre compte qu’elle était en fait composée d’étoiles. En 1750, l’astronome anglais Thomas Wright publia un livre intitulé An Original Theory of the Universe, dans lequel il émettait le concept que la Voie lactée était un disque d’étoiles contenant le Soleil et ses planètes. Il alla même plus loin : et si d’autres regroupements d’étoiles similaires parsemaient le cosmos ? Le philosophe allemand Emmanuel Kant lut son livre et se rallia à son point de vue : il appela ces hypothétiques groupes d’étoiles des « univers îles » et proposa, par analogie avec notre Système solaire, que ces ensembles stellaires pouvaient être animés d’un mouvement de rotation.

Pseudo-comètes

Cette hypothèse reçut peu d’écho dans la communauté scientifique jusqu’à ce que l’astronome français Charles Messier remarque au télescope, dans les années 1760, de petites taches laiteuses sur

chronologie 1750

1760

1860

Thomas Wright suggère que des « îles » d’étoiles parsèment le cosmos

Charles Messier détecte la première de ces nébuleuses mystérieuses

La spectroscopie détecte des étoiles dans certaines nébuleuses

Les galaxies

«

la voûte céleste. Messier était un Il y a au moins autant chasseur de comètes et passait de de galaxies dans notre longues heures à scruter le ciel à la recherche de ces corps célestes Univers observable spectaculaires, en orbite autour du que d’étoiles Soleil, qui s’échauffent lorsqu’ils dans notre galaxie. se rapprochent de l’astre central Martin Rees et s’entourent d’une lumineuse enveloppe de gaz et de poussières. Pour mieux préparer sa traque, Messier s’évertua d’abord à répertorier toutes les autres taches du ciel qui n’étaient pas des comètes – celles qui ne bougeaient pas – afin de ne pas se tromper de cible.

»

Entre 1760 et 1784, Messier découvrit plus de cent de ces objets célestes « parasites » et les lista dans un catalogue. En les étudiant avec des télescopes de plus en plus performants, les astronomes déterminèrent que certaines de ces taches étaient de petits amas globulaires d’étoiles, mais d’autres restaient diffuses, même aux grossissements élevés, et furent appelées « nébuleuses », d’après le mot latin nebula pour nuage. Il fallut attendre 1860 pour que la véritable nature de ces nébuleuses soit percée. Une nouvelle technique fut en effet mise au point à l’époque, la spectroscopie, qui consiste à décomposer la lumière d’un objet céleste au moyen d’un prisme en un arc-en-ciel de couleurs, et d’y recenser les fines raies sombres qui découpent ce spectre et qui trahissent les éléments chimiques présents dans le corps en question. Chaque élément ou molécule absorbe en effet la lumière à des longueurs d’onde précises, y laissant sa signature qui peut être enregistrée sur une Noyau plaque photographique. Bras

Lorsque les astronomes appliquèrent cette nouvelle technique à la lumière des nébuleuses, ils trouvèrent deux familles d’objets : des nuages de gaz (principalement de l’hydrogène), et ce qui ressemblait à des amas d’étoiles lointaines. Mais à quelle distance du Soleil ?

Disque Structure d’une galaxie spirale typique, à l’image de notre Voie lactée

1922

1943

2013

Hubble prouve que les nébuleuses sont des galaxies au-delà de la Voie lactée

Carl Seyfert découvre la première galaxie superactive

Le télescope spatial Hubble recense des milliers de galaxies sur un seul cliché

169

170

50 clés pour comprendre les grandes idées de la science

Edwin Hubble (1889-1953)

Au-delà de la Voie lactée Les astronomes amé-

ricains Edwin Hubble et Milton Humason résolurent la question des distances dans les années 1920. Hubble avait mis au point une méthode ingénieuse pour déterminer l’éloignement d’un groupe d’étoiles : il mesurait l’éclat en leur sein d’étoiles à luminosité variable, appelées céphéides. Leur luminosité varie en effet cycliquement, autour d’une moyenne qui dépend de la période du cycle : les céphéides à longue période sont les plus lumineuses dans l’absolu. Si on repère une céphéide parmi un groupe d’étoiles – par exemple dans une nébuleuse – et si on mesure la période de ses variations lumineuses, alors on peut en déduire cette luminosité absolue. En comparant celle-ci avec sa luminosité apparente, mesurée depuis la Terre, on déduit de la différence entre les deux la distance de l’objet.

Né en 1889 à Marshfield dans le Missouri, Edwin Hubble étudia les mathématiques et l’astronomie, qui l’avaient fasciné dès son enfance, à l’université de Chicago dont il sortit diplômé en 1910, tout en ayant pratiqué plusieurs sports de haut niveau. Malgré sa passion pour l’astronomie, son père voulait qu’il suive des études de droit, ce qu’il fit dans un premier temps à Oxford en Angleterre. À la mort de son père en 1913, Hubble retourna à Chicago pour y obtenir un doctorat en astronomie, menant ses recherches à l’observatoire de Yerkes. Il reçut alors un poste permanent d’astronome à l’observatoire du mont Wilson en Californie où il passa le reste de sa carrière.

Grâce à cette technique, Hubble et Humason montrèrent que les nébuleuses se trouvaient à plusieurs millions d’années-lumière. Par comparaison, la Voie lactée ne mesure que 100 000 années-lumière (estimation de Harlow Shapley en 1918). Il était donc clair que ces nébuleuses se trouvaient hors de notre galaxie. L’intuition de Thomas Wright qu’il existait d’autres versions de la Voie lactée était donc fondamentalement correcte. Avec des grossissements de plus en plus importants, ces nouvelles galaxies montrèrent au télescope des structures aplaties en forme de spirale, suggérant qu’elles étaient en rotation, tout comme Kant l’avait prédit. D’autres se sont avérées plutôt elliptiques, voire irrégulières. On pense aujourd’hui que les elliptiques résultent de la collision entre plusieurs galaxies spirales, et on a même photographié des exemples de collision, les galaxies enchevêtrant leurs amas d’étoiles.

Des milliards de galaxies Notre Voie lactée a une structure en spirale. Le Soleil et son système sont situés à 27 000 années-lumière du centre de

Les galaxies la galaxie, sur le bord intérieur d’un bras de la spirale, appelé bras d’Orion. Notre galaxie accomplit une rotation sur ellemême tous les 225 millions d’années environ. En 2012, la NASA a publié une image du télescope spatial Hubble, baptisée « champ profond », qui a enregistré la lumière de galaxies lointaines, jusqu’à 13,2 milliards d’annéeslumière. Dans un champ de 2,4 minutes d’arc seulement, qui ne couvre qu’un cent millionième de la surface du ciel, on dénombre 5 500 galaxies. Extrapolé à l’ensemble du ciel, cela implique que notre Univers contient des centaines de milliards de galaxies, chacune aussi peuplée d’étoiles que la Voie lactée…

Les galaxies actives En 1943 l’astronome américain Carl Seyfert découvrit un certain nombre de galaxies spirales beaucoup plus lumineuses que la norme. Elles furent classées dans une catégorie particulière, dite des galaxies « actives ». Les galaxies actives ont des tailles et des formes variées. Chacune est apparemment dynamisée en son centre par un trou noir supermassif (voir page 188). Ce trou noir aspire la matière environnante, étoiles comprises, qui chute vers le centre avec une hausse résultante de température et un brillant rayonnement. Les galaxies les plus actives sont baptisées quasars. Du fait de leur luminosité, elles font partie des objets les plus distants que l’on peut observer.

L’idée clé Des oasis d’étoiles

171

172

50 clés pour comprendre les grandes idées de la science

43 Le Big Bang La théorie du Big Bang postule qu’il y a environ 14 milliards d’années, notre Univers est né d’une boule d’énergie qui s’est dilatée et refroidie pour former les galaxies et leurs étoiles. Échafaudé à partir d’indices ténus, ce modèle est l’aboutissement d’une passionnante enquête cosmique. Bien avant l’essor de la science moderne, toutes les civilisations avaient leurs propres idées quant à la création du monde. Ainsi les Mésopotamiens, au XVIe siècle avant notre ère, imaginaient que la Terre flottait dans un océan cosmique. Quant aux philosophes grecs, ils pensaient que le Soleil, les planètes et les étoiles étaient logés dans des sphères en cristal qui tournaient autour de la Terre (voir page 164). À mesure que la méthode scientifique s’est imposée aux XVIIIe et XIXe siècles, il s’est avéré que la Terre et les étoiles étaient bien plus vieilles que ce que l’on croyait jusqu’alors : les processus géologiques et cosmiques opéraient depuis des centaines de millions d’années au bas mot. De nombreux chercheurs en vinrent même à penser que l’Univers existait depuis toujours, et se prolongerait éternellement. Nous savons qu’il ne peut en être ainsi en vertu de la seconde loi de la thermodynamique : l’entropie de l’Univers, à savoir son degré de désorganisation ou de « mélange », ne peut qu’augmenter (voir page 20). Si l’Univers était infiniment vieux, alors son entropie devait également être infinie : les températures auraient dû être uniformément mélangées, sans le contraste observé entre étoiles chaudes et régions froides du cosmos.

Un Univers en mouvement

La théorie la plus convaincante quant à l’origine et à l’évolution de l’Univers est le modèle du « Big Bang ». En 1927, le prêtre et physicien belge Georges Lemaître appliqua la théorie de la relativité générale d’Einstein (voir page 28) à l’Univers dans son ensemble. Le modèle résultant prévoyait qu’il devait se contracter ou se dilater, selon la densité de matière qu’il contenait, et qu’il ne pouvait donc être fixe comme autrefois admis. Lemaître opta pour un modèle d’Univers en expansion.

chronologie 1927

1929

1950

Georges Lemaître déduit de la relativité générale l’expansion de l’Univers

Edwin Hubble confirme l’expansion de l’Univers à travers la fuite des galaxies

Fred Hoyle invente l’expression Big Bang pour se moquer de la théorie

Le Big Bang

«

Lemaître trouva la preuve de cette Au commencement expansion dans les mesures effecil n’y avait rien, et ce rien tuées par les astronomes sur la vitesse d’éloignement des galaxies, a explosé. toutes semblant se fuir les unes les Terry Pratchett autres. En 1929, les astronomes américains Edwin Hubble et Milton Humason publièrent d’ailleurs un article précisant cette vitesse de fuite des galaxies en fonction de leur distance : plus elles étaient éloignées, plus leur lumière était décalée vers le rouge et donc plus leur vitesse de fuite était élevée (voir page 181), ce qui prouvait effectivement l’expansion de l’Univers.

»

Une densité infinie Lemaître se pencha sur une autre conséquence de son modèle. Si on jouait le film à l’envers en remontant dans le temps, alors les galaxies avaient dû être de plus en plus proches et confinées au début dans un petit volume infiniment dense. Lemaître publia son modèle en 1931, postulant que l’Univers avait surgi d’un point : ce que l’on appelle aujourd’hui la théorie du Big Bang. Pour la petite histoire, le terme de « Big Bang » ne fut inventé qu’en 1950, en moquerie du modèle, par l’astronome britannique Fred Hoyle, partisan d’un Univers fixe. Au cours des années 1940, les cosmologues américains George Gamow, Robert Herman et Ralph Alpher calculèrent que si la théorie était correcte, alors la lumière de cette boule d’énergie primordiale avait dû être décalée par sa rapide expansion vers les grandes longueurs d’onde : elle devait subsister aujourd’hui sous la forme d’un rayonnement microonde. Ce rayonnement « fossile » fut découvert tout à fait par hasard, en 1964, par les radioastronomes américains Arno Penzias et Robert Wilson. Les deux chercheurs mettaient au point une antenne radio très sensible au laboratoire Bell dans le New Jersey et tentaient d’éliminer un agaçant signal parasite qu’ils croyaient

L’Univers en expansion est comme la surface d’un ballon que l’on gonfle : les points distants s’éloignent plus vite que des points proches.

1964

1992

2015

Découverte du rayonnement fossile ou « fond diffus » par Penzias et Wilson

Le satellite COBE recueille les premières images de la structure du fond diffus cosmologique

L’âge de l’Univers est déduit des données du satellite Planck : 13,8 milliards d’années

173

174

50 clés pour comprendre les grandes idées de la science

L’inflation de l’Univers Durant les années 1960, Roger Penrose et Stephen Hawking ont démontré, d’après la relativité générale, que l’état initial de l’Univers au moment du Big Bang était un point d’une température et d’une densité infinies, appelé « singularité ». D’autres singularités doivent d’ailleurs exister au centre des trous noirs (voir page 188), astres si massifs que même la lumière ne peut en échapper. Comment donc l’Univers a-t-il pu justement échapper à cet état superdense, plutôt que rester à jamais emprisonné en un point ? La solution à ce paradoxe est un concept appelé « inflation », proposé en 1980 par Alan Guth à l’université du MIT. D’après son modèle, lors de la première fraction de seconde de la naissance de l’Univers, celui-ci a connu une phase d’expansion phénoménale qui lui a permis d’échapper à la gravitation, avant que sa vitesse d’expansion ne retombe aux valeurs classiques qu’on lui connaît aujourd’hui. L’inflation s’explique par des phénomènes inhérents à la physique des hautes énergies, et notamment par les ruptures de symétrie qui accompagnent la naissance des particules subatomiques (voir page 43). Ces ruptures sont censées piéger des régions de l’espace dans des états de « faux vide », où peuvent se déclarer des forces antigravitationnelles suffisamment fortes pour combattre la gravité énorme de la singularité. L’inflation propose également un mécanisme pour expliquer la formation des galaxies : les fluctuations quantiques du vide (dérivées du principe d’incertitude d’Heisenberg, voir page 37), gonflées par l’inflation en zones de densité plus fortes que d’autres. La cartographie du fond diffus cosmologique soutient cette hypothèse.

provenir de leur instrument. Lorsque les cosmologues de l’université voisine de Princeton eurent vent du problème, ils comprirent que le bruit de fond était en fait le signal de la naissance de l’Univers. Penzias et Wilson reçurent le prix Nobel de physique pour leur découverte. Gamow et Alpher calculèrent les proportions des atomes qui seraient sortis de la fournaise du Big Bang, lorsque l’énergie s’est convertie en matière au bout de quelques minutes : 75 % d’hydrogène et 25 % d’hélium, ce qui est exactement les proportions affichées par les plus vieilles étoiles (les étoiles plus récentes contiennent d’autres éléments formés depuis).

La structure de l’Univers Le rayonnement fossile ou « fond diffus cosmologique » a été étudié de façon détaillée par des satellites dédiés, au-dessus du filtre gênant de l’atmosphère terrestre. Le satellite COBE de la NASA mesura notamment d’infimes variations dans la température du rayonnement à travers le ciel. Elles indiquent les fluctuations de la densité de l’énergie émise lors du

Le Big Bang Big Bang, lesquelles se sont traduites lors du refroidissement de l’Univers par des irrégularités locales dans la densité de sa matière. C’est à partir des zones de densité plus élevées que les galaxies sont nées sous le jeu de la gravitation. Au début du XXIe siècle, deux autres satellites ont été lancés pour étudier cette structure de l’Univers, dont le satellite Planck de l’ESA. Leurs observations ont permis de préciser nombre de paramètres et notamment l’âge de l’Univers : 13,8 milliards d’années.

Avant le Big Bang Les cosmologues cherchent aujourd’hui les causes du Big Bang, et si « quelque chose » existait auparavant. Pari difficile, car cet événement a créé non seulement l’énergie et la matière, mais aussi l’espace et le temps. Des théories d’avant-garde fondées sur la physique des particules – notamment la théorie des cordes – nous livrent quelques pistes, mais ces hypothèses sont impossibles à vérifier dans l’état actuel de nos connaissances. Reste aussi à découvrir les formes étranges de matière et d’énergie qui nous entourent – énergie sombre et matière noire – ainsi que l’évolution et le destin de l’Univers.

L’idée clé À l’origine, l’Univers n’était qu’énergie

175

176

50 clés pour comprendre les grandes idées de la science

44 La matière noire Malgré les progrès de la science, la nature de 95 % de notre Univers nous échappe. On l’appelle matière noire et on sait qu’elle est là, à cause de la gravité qu’elle exerce sur les objets visibles. Sans elle, l’Univers n’aurait pas pu exister sous sa forme actuelle, mais on ignore de quoi elle est faite. En contemplant le ciel nocturne, on reste émerveillé par les étoiles et les galaxies qui illuminent notre Univers comme autant de métropoles cosmiques. Quelle surprise, donc, d’apprendre qu’elles ne représentent que 5 % de la matière présente dans le cosmos. Le reste est invisible et de nature inconnue : c’est ce que les astronomes appellent la mystérieuse « matière noire ». Le premier astronome à soupçonner que la matière visible était loin du compte fut le Suisse Fritz Zwicky dans les années 1930. En poste à l’université Caltech en Californie, il étudiait à l’observatoire du mont Wilson un amas de galaxies dans la Chevelure de Bérénice – une constellation proche de la Grande Ourse. Cet amas renferme plus de 1 000 galaxies, à une distance d’environ 320 millions d’années-lumière, qui voyagent ensemble dans l’espace comme une véritable armada cosmique. Zwicky mesura les vitesses de déplacement d’une demi-douzaine d’entre elles, les unes par rapport aux autres, et constata que leur mouvement était beaucoup plus groupé que prévu, comme si une forte gravité les liait ensemble.

Masse manquante L’astronome fut déconcerté. En calculant les masses que devaient avoir les galaxies en question pour justifier leur forte attraction commune, d’après la loi de la gravitation de Newton (voir page 12), ces masses devaient être des centaines de fois plus élevées que ne le laissait supposer le décompte de leurs étoiles visibles. En d’autres termes, quelque chose d’autre procurait aux galaxies leur forte masse, ce que Zwicky appela la « masse manquante ».

chronologie 1933

1962

1983

Fritz Zwicky découvre la matière noire dans un amas de galaxies

Vera Rubin confirme la matière noire en étudiant la rotation des galaxies

Mordehai Milgrom propose de revoir la loi de Newton

La matière noire

«

Les conclusions de Zwicky On devient astronome ne touchèrent pas grand en pensant étudier l’Univers, monde à l’époque, et ses calculs étaient approximamais on apprend aujourd’hui tifs, mais l’astronome avait qu’on n’en étudie fondamentalement raison : que la partie lumineuse, l’Univers contient beausoit 5 à 10 pourcent. coup plus de masse qu’il n’en laisse voir. Les astroVera Rubin nomes commencèrent à s’en rendre compte au cours des années 1970, notamment lorsque l’Américaine Vera Rubin étudia la rotation des galaxies spirales.

»

D’étranges rotations

Les galaxies spirales ont une forme enroulée, avec un noyau et des bras périphériques : c’est d’ailleurs le cas de la Voie lactée (voir page 168). Vera Rubin entreprit de mesurer le mouvement circulaire des étoiles autour du centre, à mesure que l’on s’éloigne vers la périphérie. Selon la gravitation universelle, cette vitesse de déplacement devait d’abord augmenter en s’écartant du centre, puis décroître en atteignant les zones externes des bras. Ce ne fut pas ce que l’astronome observa. Si elle constata bien que la vitesse des étoiles augmentait d’abord comme prévu en s’éloignant du centre, elle semblait se stabiliser, plutôt que décroître, dans les bras périphériques. La seule explication était que la zone extérieure des galaxies contenait beaucoup plus de matière que ce qui était apparent, procurant de la force gravitationnelle supplémentaire pour entretenir le mouvement de rotation observé. D’après ses calculs, Vera Rubin déduisit que les étoiles visibles ne comptaient que pour 5 à 10 % de la masse totale d’une galaxie. D’autres preuves sont venues renforcer l’hypothèse de la matière noire. Dans le cas des lentilles gravitationnelles, où la lumière de galaxies distantes est infléchie par la masse d’autres galaxies rencontrées sur son chemin (voir page 30), le degré d’inflexion des rayons lumineux permet de calculer cette masse intermédiaire. De nouveau, celle-ci s’avère supérieure à son nombre d’étoiles apparent.

Un lourd déficit

L’étude du rayonnement fossile ou « fond diffus cosmologique » (voir page 174) a apporté une dernière preuve. La matière noire est invisible parce qu’elle interagit uniquement avec la gravité, alors qu’atomes et molécules ordinaires interagissent également avec la lumière, par

2005

2011

2013

La matière noire est jugée indispensable pour expliquer la structure de l’Univers

Le programme CRESST annonce la détection possible de particules de matière noire

Le satellite Planck de l’ESA confirme que 95 % de l’Univers est invisible

177

178

50 clés pour comprendre les grandes idées de la science

Des théories alternatives Les chercheurs ne sont pas tous convaincus que la matière noire est nécessaire. Le physicien israélien Mordehai Milgrom pense que la véritable explication ne consiste pas à remplir les galaxies de matière, mais plutôt à remettre en question les lois de la physique. Milgrom a mis au point une nouvelle théorie appelée « dynamique newtonienne modifiée » (MOND) où la loi de la gravitation dévie de sa forme habituelle lorsque les distances deviennent extrêmes. Son modèle explique le mouvement des étoiles dans leur galaxie (voir texte), sans besoin d’hypothétique matière noire. En 2004, Jacob Bekenstein de l’université de Jérusalem a développé la théorie MOND pour la rendre compatible avec la relativité générale. Appelé « gravité tenseur-vecteur-scalaire » (TeVeS), ce modèle amélioré permet d’expliquer certains phénomènes comme les lentilles gravitationnelles, alors que la version MOND n’y parvient pas sans l’aide de la matière noire.

le truchement de la force électromagnétique. En mesurant l’effet des interactions électromagnétiques sur la structure détaillée du rayonnement fossile, les chercheurs ont pu estimer combien de masse ordinaire était impliquée : de nouveau, ils ont trouvé le nombre concordant de 5 %.

Les chasseurs de particules La matière noire est probablement constituée de particules subatomiques exotiques, de celles qui sont prévues par le modèle standard de la physique des particules (voir page 40), comme la supersymétrie. On a longtemps pensé que des étoiles sombres et d’autres gros objets non lumineux pouvaient y contribuer, mais la recherche de « microlentilles » – la hausse d’éclat d’une étoile si un tel corps sombre lui passait devant et réfractait ses rayons – n’a rien donné.

Des expériences sont en cours pour tenter de détecter des particules exotiques de matière noire, dont des hordes pourraient traverser notre corps chaque seconde… si tant est qu’elles existent. En septembre 2011, les chercheurs du programme CRESST (recherche internationale cryogénique d’événements rares au moyen de thermomètres supraconducteurs) ont annoncé la détection de 67 particules qui ne correspondent à rien de connu et ne semblent pas relever d’un simple bruit de fond parasite. D’autres études publiées en 2005 par une équipe internationale d’astrophysiciens concluent que la matière noire est essentielle à la formation et à la cohésion des galaxies. Celles-ci sont nées par effondrement gravitationnel de vastes nuages de matière, à partir d’infimes irrégularités de sa densité dans l’Univers primitif. Sans l’aide de la matière noire, il n’aurait pas pu y avoir assez

La matière noire d’attraction pour produire le niveau de concentration et de structure menant aux galaxies actuelles… et in fine à l’homme lui-même. Aujourd’hui la recherche de la matière noire connaît un rebondissement inattendu : cette matière invisible ne serait pas la seule partie cachée de l’Univers. Une forme d’énergie inconnue pourrait également imprégner le vide intersidéral, à laquelle on a donné le nom d’énergie sombre.

Vera Cooper Rubin L’astronome américaine Vera Cooper Rubin fut l’une des grandes pionnières dans la découverte de la matière noire. Née en 1928 à Philadelphie, élevée à Washington, elle est la fille de Philip Cooper, un ingénieur électricien, et de Rose Applebaum qui travaillait pour la compagnie Bell Telephone. Vera Rubin obtint sa licence à Vassar College dans l’État de New York, puis son master à Cornell où elle rencontra son futur mari, Robert Rubin. De là, elle regagna Washington pour poursuivre son doctorat à l’université de Georgetown sous la direction du célèbre astronome George Gamow. Le sujet de sa thèse fut les amas de galaxies, domaine d’avant-garde à l’époque. Vera Rubin est mère de quatre enfants qui ont tous obtenu des doctorats en mathématiques et physique. Elle a reçu de nombreux prix, y compris la National Medal of Science aux États-Unis et la médaille d’or de la Société Astronomique Royale au Royaume-Uni.

L’idée clé La majorité de l’Univers est invisible

179

180

50 clés pour comprendre les grandes idées de la science

45 L’énergie sombre Au cours des années 1990, les physiciens ont réalisé que la matière noire invisible, dont serait composé 95 % de l’Univers, prendrait surtout la forme d’une énergie inconnue – une idée qui avait effleuré Einstein en son temps. Cette énergie « sombre » causerait une accélération progressive de l’expansion de l’Univers. Durant la seconde moitié du XXe siècle, les astronomes ont réalisé qu’une grande partie de l’Univers reste invisible à nos yeux : environ 20 fois plus que ce qui est visible. Étoiles et galaxies ne représenteraient donc que 5 % du tableau, les 95 % restants étant appelés « matière noire ». Initialement, les astronomes pensaient que cette matière noire était composée de particules exotiques, pour l’instant indétectables (voir page 176). Mais dans les années 1990, les indices ont commencé à s’accumuler en faveur d’une énergie, plutôt que d’une matière invisible, qui compterait pour plus de deux tiers de cette masse manquante – une solution tout à fait acceptable puisqu’énergie et matière sont équivalentes.

La fuite des galaxies Tout a commencé avec la découverte dans les années 1920 que L’Univers est en expansion. En étudiant les galaxies, l’astronome Edwin Hubble s’est aperçu que toutes s’éloignaient de la nôtre, et que plus elles étaient lointaines, plus grande était leur vitesse de fuite. Le phénomène obéit à une loi mathématique : la vitesse de fuite d’une galaxie est égale à sa distance multipliée par un nombre appelé constante de Hubble. Ce qui restait à préciser, c’est si cette relation variait avec le temps. Toutes les masses de l’Univers exercent des forces gravitationnelles les unes sur les autres, donc on s’attendrait à ce que le taux d’expansion ralentisse, la constante de Hubble diminuant avec le temps. C’est ce que résolurent de rechercher en 1988 l’astrophysicien Saul Perlmutter et son équipe, au laboratoire Lawrence Berkeley en Californie, en étudiant les supernovæ des galaxies lointaines. Ces explosions d’étoiles en fin de vie possèdent deux caractéristiques intéressantes. La première

chronologie 1933

1980

1988

Zwicky propose que l’Univers renferme de la matière noire

Alan Guth suggère pour l’inflation de l’Univers un nouveau type d’énergie

Riess et Schmidt découvrent que l’Univers accélère son expansion

L’énergie sombre est que l’explosion est extrêmement brillante et peut donc être détectée dans des galaxies distantes de plusieurs milliards d’années-lumière – lointaines dans l’espace mais aussi dans le temps – montrant justement comment les galaxies se comportaient à différentes époques. La seconde caractéristique, c’est qu’un type de supernova particulier – le type Ia – génère toujours la même luminosité, qui est bien connue. Si on détecte une telle supernova dans une galaxie lointaine et que l’on mesure sa luminosité apparente, qui chute bien sûr avec la distance, une simple règle de trois permet de calculer la distance en question. Et comme la vitesse de fuite de la galaxie peut également être estimée, en vertu du décalage de sa lumière vers le rouge (voir encadré), on peut mettre en relation distance et vitesse, et obtenir la constante de Hubble pour cette galaxie.

Les galaxies rougissent La principale stratégie, pour déterminer si l’énergie sombre existe réellement, consiste à mesurer si le taux d’expansion de l’Univers augmente au fil du temps, en étudiant la vitesse de fuite des galaxies à différents moments du passé – une mesure rendue possible par un phénomène appelé décalage spectral ou effet Doppler. Le spectre lumineux d’un corps contient en effet des raies d’émission ou d’absorption causées par les atomes et molécules qui le composent, à des longueurs d’onde bien précises. Lorsque les astronomes observent une galaxie lointaine, ils voient ses raies décalées vers des longueurs d’onde plus grandes (vers le rouge) : ce décalage est dû à l’expansion de l’Univers qui étire la lumière et donc ses longueurs d’onde. Les astronomes mesurent le décalage d’une raie en particulier, le divisent par la longueur d’onde « normale » de cette raie si l’objet lumineux était au repos, et multiplient le rapport obtenu par la vitesse de la lumière : le résultat est un nombre exprimé en kilomètres/heure qui est la vitesse de fuite de la galaxie en question.

Lorsque Perlmutter et son équipe firent la mesure pour un certain nombre de galaxies, ils trouvèrent que la constante de Hubble ne diminuait pas avec le temps : au contraire, elle augmentait. Le résultat défiait le sens commun, puisqu’il impliquait qu’au lieu de ralentir, l’expansion de l’Univers accélérait. L’équipe livra ses résultats en 1999. De fait, une autre équipe d’astronomes, dirigée par l’Américain Adam Riess et l’Australien Brian Schmidt, en

1999

2011

2013

Perlmutter et son équipe confirment les travaux de Riess et Schmidt

Prix Nobel pour Riess, Schmidt et Perlmutter, découvreurs de l’énergie sombre

Calcul des proportions de matière ordinaire, matière noire et énergie sombre

181

182

50 clés pour comprendre les grandes idées de la science

Saul Perlmutter Né en 1959, Saul Perlmutter a baigné dans le milieu universitaire, puisque son père était professeur d’ingénierie biomoléculaire à l’université de Pennsylvanie et sa mère professeur d’administration sociale à l’université Temple. Saul Perlmutter étudia la physique à Harvard, avant d’obtenir son doctorat en 1986 à l’université de Californie à Berkeley, avec pour thèse le développement d’un télescope automatisé pour rechercher une éventuelle étoile compagnon en orbite autour du Soleil. C’est le prix Nobel Luis Alvarez, en poste à Berkeley, qui suggéra à Perlmutter que son télescope pouvait servir à repérer des supernovæ dans les galaxies lointaines, menant à ses travaux qui allaient révéler l’existence de l’énergie sombre.

était venue à la même conclusion en 1998. Perlmutter restera cependant dans l’histoire comme le pionnier en la matière, puisqu’il avait débuté ses recherches six ans auparavant. Pour que l’Univers accélère son expansion, il lui faut une forme d’énergie opposée à la gravité, une sorte de pression négative (en relativité générale, la gravité correspond à une pression, et donc une gravité négative correspond à une pression négative, voir page 29). Cette énergie mystérieuse a reçu le nom « d’énergie sombre ». Les calculs montrent que pour vaincre l’attraction de la matière ordinaire et de la matière noire, l’énergie sombre doit représenter environ les deux tiers du total masseénergie de l’Univers.

La découverte de l’énergie sombre valut à Saul Perlmutter, Adam Riess et Brian Schmidt le prix Nobel de physique en 2011. En 2013, l’observatoire Planck de l’Agence Spatiale Européenne fit des mesures détaillées du rayonnement fossile du Big Bang ou fond diffus cosmologique (voir page 172), et établit que notre Univers est composé d’environ 4,9 % de matière ordinaire et de 26,8 % de matière noire, la palme revenant à l’énergie sombre avec 68,3 %.

Qu’est-ce que c’est ?

Quand il s’agit d’expliquer de quoi est faite l’énergie sombre, on se retrouve face à deux possibilités. La première est qu’elle est imbriquée dans la texture même de l’espace-temps. Einstein avait considéré l’existence d’une telle énergie répulsive, avant que ne soit découverte l’expansion de l’Univers : il ajouta une « constante cosmologique » à ses équations de la relativité générale pour contrebalancer la force attractive de la gravitation et rendre l’Univers statique. Lorsqu’il fut découvert que l’Univers n’était pas statique mais en expansion, Einstein supprima sa constante cosmologique, déclarant qu’elle était « la plus grande erreur de [sa] vie ». L’autre possibilité est que l’énergie sombre émane non pas de la structure de l’espace-temps, mais de la matière qui le remplit. Une théorie appelée « quin-

L’énergie sombre tessence » postule que l’espace est imprégné d’un champ de matière exotique finement distribuée, qui procure la pression négative. L’idée n’est pas absurde : c’est un tel champ qui a dû causer l’inflation de l’Univers lors de sa naissance (voir page 174). Une constante cosmologique se devrait d’être distribuée dans l’espace de façon parfaitement uniforme, alors que la distribution de la quintessence pourrait être légèrement irrégulière, ce que les astronomes devraient en principe pouvoir détecter. Mais à ce jour, aucune preuve ne permet de choisir entre les deux théories. La théorie de l’énergie sombre exerce une grande influence sur les modèles d’évolution du cosmos, et sur ceux de la formation des galaxies et de leurs amas. Elle intervient également dans les théories sur le destin de l’Univers, comme nous allons le voir.

«

Regardez donc Saul Perlmutter s’accrocher à son prix Nobel. Eh quoi, Saul, tu as peur que quelqu’un vienne te le voler, tout comme tu as volé la constante cosmologique d’Einstein ? Sheldon Cooper,

»

La Théorie du Big Bang

L’idée clé L’espace contient de l’anti-gravité

183

184

50 clés pour comprendre les grandes idées de la science

46 Le destin

de l’Univers

Rien n’est éternel, et notre Univers n’échappe pas à la règle. Les chercheurs ont combiné leurs observations astronomiques et leurs connaissances de la gravitation et de la physique des particules pour spéculer comment l’Univers terminera son existence. Heureusement, il nous reste quelques billions d’années. À partir de 1915, la relativité générale a permis aux physiciens d’aborder un projet ambitieux : construire des modèles mathématiques de l’Univers dans son ensemble. Jusqu’alors, la loi de la gravitation de Newton ne permettait que de traiter des systèmes simples, comme les orbites des planètes autour du Soleil. La relativité d’Einstein, en revanche, permettait d’aller plus loin. En 1927, l’astronome et physicien belge Georges Lemaître utilisa la relativité générale pour construire les premiers modèles cosmologiques. Ceux-ci prévoyaient que l’Univers était en expansion, ce qui fut confirmé deux ans plus tard par les astronomes américains Edwin Hubble et Milton Humason. À partir de ce principe, Lemaître a pu postuler que l’Univers avait connu un commencement : le Big Bang (voir page 172). La question se posait alors de savoir si l’Univers continuerait éternellement sur sa lancée ou s’il connaîtrait une fin.

Choisissez votre destin Il y a trois possibilités qui dépendent chacune de la masse totale de l’Univers. Dans le premier scénario, l’Univers a beaucoup de masse et croît jusqu’à une taille maximale, avant que la gravité de sa matière ne renverse le mouvement. Le décalage vers le rouge (voir page 181) devient un décalage vers le bleu, à mesure que l’espace se contracte et que les galaxies se rapprochent, jusqu’à rentrer en collision. Toute la matière de l’Univers converge en un volume qui s’effondre sur lui-même jusqu’à disparaître complètement en une antithèse du Big Bang : le Big Crunch. Une variante de la théorie pos-

chronologie 1927

1997

1999

Georges Lemaître établit le premier modèle mathématique de l’Univers

Adams et Laughlin spéculent sur le destin de l’Univers

Découverte qu’environ 70 % de l’Univers est fait d’énergie sombre

Le destin de l’Univers tule que l’Univers rebondirait, tel le phénix qui renaît de ses cendres, subissant une succession infinie d’expansions et de contractions. Un tel Univers qui se contracte est dit « fermé », car sa gravité est suffisante pour courber l’espace en une sphère fermée : dans une telle géométrie, deux droites parallèles finissent par se croiser.

«

Pour la première fois de son existence, l’Univers ne changera plus. L’entropie aura fini de croître parce que le cosmos ne pourra plus se désorganiser davantage. Rien ne se passera, ni ne pourra plus se passer. Brian Cox

»

Vers les ténèbres

Dans le second scénario, la masse de l’Univers est insuffisante pour stopper son expansion. Dans ce cas de figure, l’Univers continuera son expansion indéfiniment. Le gaz nécessaire pour la formation de nouvelles étoiles finira par faire défaut, et l’une après l’autre, étoiles et galaxies s’éteindront. Alors l’Univers sera plongé dans les ténèbres : une matière diffuse et sans lumière sera tout ce qu’il en restera, de plus en plus diluée par l’expansion incessante de l’espace. Les trous noirs seront les derniers bastions de la matière, mais même eux finiront par s’évaporer, conséquence du rayonnement de Hawking (voir page 191). Enfin, même les atomes se désagrégeront en particules fondamentales, d’après les grandes théories unifiées de la physique des particules (voir page 48) et à ce stade l’Univers sera véritablement mort. Ce scénario s’appelle d’ailleurs la mort thermique de l’Univers, car toutes les variations de température – essentielles pour alimenter les processus thermodynamiques – auront été effacées. Dans ce scénario, l’espace n’est pas une sphère fermée, mais tend vers l’infini : il s’agit d’un Univers « ouvert ». Sa géométrie est courbée en un paraboloïde, semblable à une selle de cheval. Dans un tel Univers, deux droites parallèles ne se croisent jamais, ni ne restent parallèles : elles s’écartent indéfiniment. Entre ces deux scénarios il en existe un troisième, dans lequel l’Univers possède une masse parfaitement équilibrée : pas trop pour risquer de s’effondrer sur lui-même en un Big Crunch, mais pas assez pour être complètement ouvert. Son expansion continue indéfiniment, mais en tendant vers une géométrie

2003

2012

2012

Robert Caldwell propose la « Grande Déchirure » comme destin de l’Univers

Annonce que la galaxie d’Andromède est sur une trajectoire de collision avec la nôtre

Le satellite WMAP de la NASA confirme que notre Univers est plat

185

186

50 clés pour comprendre les grandes idées de la science

Calendrier d’une mort programmée En 1997, les physiciens américains Fred Adams et Gregory Laughlin ont publié un article de 57 pages précisant le déroulement probable de la fin de l’Univers. En voici les principaux épisodes, résumés dans le tableau ci-dessous (dates à partir d’aujourd’hui). 5,4 milliards d’années

Notre Soleil devient une géante rouge, exterminant la vie sur Terre

6 milliards d’années

Notre galaxie entre en collision avec la galaxie d’Andromède

100 milliards à un billion Toutes les galaxies de notre groupe local convergent ; celles en d’années dehors sont désormais si lointaines qu’elles sont invisibles 100 billions d’années

La création de nouvelles étoiles cesse progressivement

1 000 billions d’années

Les derniers systèmes planétaires se désorganisent

10 à 100 millions de billions d’années

Les derniers restes d’étoiles sont éjectés de leurs galaxies ou engloutis par des trous noirs

10 milliards de billions de billions d’années

Les noyaux atomiques se délitent, protons et neutrons se scindant en quarks

10 000 billions de billions Fin de la décadence des noyaux. L’Univers est principalement de billions d’années composé de trous noirs qui s’évaporent dans le cosmos

sans aucune courbure au bout du compte, dans laquelle deux droites parallèles restent parallèles. On appelle pour cette raison cette troisième variante l’Univers « plat ».

La Grande Déchirure La découverte de l’énergie sombre, représentant près de 70 % du total masse-énergie de l’Univers (voir page 180), ajoute une force répulsive à tous ces modèles, accélérant l’expansion de l’Univers, s’il est plat ou ouvert, et empêchant peut-être son effondrement s’il est fermé. En 2003 toutefois, Robert Caldwell, cosmologue à Dartmouth College dans le New Hampshire, a suggéré un quatrième destin pour l’Univers, fondé sur une forme extrême d’énergie sombre qu’il appelle « énergie fantôme » : elle causerait à terme une expansion tellement rapide de l’Univers que sa matière finirait par voler en éclats. Baptisé Big Rip ou « Grande Déchirure », ce scénario ne serait possible que si l’énergie sombre était due à la « quintessence » (voir page 183) : elle ne saurait avoir lieu avant au moins plusieurs milliards d’années.

Un nouveau départ

Les mesures effectuées par le satellite WMAP de la NASA en 2012 suggèrent que notre Univers est presque parfaitement plat,

Le destin de l’Univers et qu’il est destiné à continuer son expansion indéfiniment, TAILLE ouvert tout en s’éteignant progressivement. La bonne nouvelle, c’est que cette mort thermique de l’Univers ne surviendra pas plat avant des milliers de milliards d’années. Mais même quand elle aura lieu, ce ne sera peutfermé être pas la fin du monde. Nos modèles de la naissance de l’Univers font en effet état d’une période d’inflation très TEMPS rapide, juste après le Big Bang (voir page 174). Une version de Selon la valeur exacte de la densité de la matière qu’il cette théorie, appelée « l’infla- renferme, l’Univers est ouvert, fermé ou plat. Les données tion éternelle », postule que astronomiques favorisent le modèle plat. cette inflation continue de nos jours : elle se serait simplement arrêtée dans le recoin de l’Univers où nous vivons. De nouveaux univers seraient constamment créés dans d’autres régions, là où l’inflation cesse pareillement d’agir. En conséquence, bien que notre Univers puisse connaître une fin, on peut se consoler en pensant que quelque part, ailleurs, l’aventure continue.

L’idée clé La fin n’est pas encore en vue

187

188

50 clés pour comprendre les grandes idées de la science

47 Les trous noirs Les trous noirs sont des corps célestes dont la gravité est si puissante que rien ne peut leur échapper. Tout ce qui chute dans leur champ est condamné à être écrasé dans leur noyau infiniment dense. Les astronomes les détectent à travers le comportement de la matière à proximité, qui rayonne avant d’être englouti. Le concept de trou noir nous semble le fruit de récentes découvertes, de la science-fiction d’avant-garde et des calculs complexes de Stephen Hawking. Pourtant, la première description d’un trou noir remonte à 1784, lorsque le philosophe anglais John Michel s’est interrogé sur le comportement de la lumière dans un champ de gravité, tel que l’avait décrit Isaac Newton (voir page 12). La gravitation newtonienne mène en effet au concept de vitesse de libération : plus la vitesse d’un projectile est élevée, plus haut celui-ci culminera avant de retomber, et au-delà d’une certaine vitesse (11,2 kilomètres par seconde dans le cas de la Terre), le projectile échappera tout bonnement à la gravité. Michel imagina un astre dont la gravité serait tellement forte que même la vitesse de la lumière serait insuffisante pour lui échapper : il baptisa un tel astre théorique une « étoile sombre ». La loi de la gravitation de Newton, toutefois, avait ses limites. Une véritable compréhension du phénomène n’était possible qu’avec une théorie décrivant le comportement de la lumière dans les cas extrêmes. Ce fut possible au début du XXe siècle grâce à la théorie de la relativité d’Einstein (voir page 28) qui pouvait s’appliquer aux champs de gravité intenses. En 1916, le physicien allemand Karl Schwarzschild reprit la réflexion de Michel en remplaçant l’équation de la gravité newtonienne par celle de la relativité générale. Il trouva que si une étoile était comprimée en deçà d’un certain rayon, rien ne pouvait lui échapper, pas même la lumière. D’après ses calculs, ce « rayon de Schwarzschild » était de 3 kilomètres dans le cas du Soleil.

chronologie 1784

1916

1939

John Michel se base sur la gravitation de Newton pour proposer l’existence d’étoiles « sombres »

Karl Schwarzschild construit le premier modèle de trou noir fondé sur la relativité générale

Oppenheimer et Volkoff calculent la masse maximale d’une étoile à neutrons

Les trous noirs Les étoiles à neutrons

Ces astres monstrueux existaient-ils vraiment dans l’Univers ? De nombreux chercheurs demeuraient sceptiques, y compris Einstein. Une étoile pouvait-elle s’effondrer sous l’effet de sa propre masse, jusqu’à passer sous la barre du rayon de Schwarzschild ? Dans une étoile normale, le rayonnement empêche un tel effondrement. Les réactions nucléaires dans son noyau génèrent de l’énergie dont la pression centrifuge combat la gravité centripète. Quand une étoile tombe à court de carburant nucléaire, toutefois, la pression de radiation s’évanouit et plus rien ne l’empêche de s’effondrer. En 1930, le physicien indien Subrahmanyan Chandrasekhar précisa que lors d’un tel effondrement, les électrons sont comprimés vers le noyau des atomes. Or le physicien suisse Wolfgang Pauli avait montré que les électrons obéissent à un principe « d’exclusion » qui leur interdit de se rapprocher en deçà d’une certaine distance. Chandrasekhar calcula que cette répulsion entre électrons empêche les astres dont la masse est inférieure à 1,3 fois celle du Soleil de devenir des trous Stephen Hawking noirs. À la place, ils deviennent Stephen William Hawking est né le 8 janvier des « naines blanches », compri1942 : son père Frank était chercheur en médemant leur masse en une sphère cine, spécialiste des maladies tropicales, et sa approximativement de la taille de mère Isobel secrétaire. En 1959, il fut reçu à la Terre. En revanche, tout corps l’université d’Oxford où il obtint son diplôme en de masse supérieure à 1,3 fois celle physique avant de rejoindre Cambridge en 1962 du Soleil franchirait ce cap. Au sein de tels « poids lourds », les électrons négatifs s’écrasent sur les protons positifs pour former une boule de neutrons, dont le diamètre tombe à moins de 10 kilomètres : une étoile à neutrons. En 1939, les physiciens Robert Oppenheimer des États-Unis et George Volkoff du Canada calculèrent qu’un astre devient une telle étoile à neutrons lorsque sa masse est comprise entre 1,3 et 3 fois celle du Soleil.

pour poursuivre un doctorat en cosmologie. Durant sa dernière année à Oxford, on lui diagnostiqua une sclérose latérale amytrophique, maladie du cerveau qui mène inévitablement à la paralysie complète et à la mort. En 1963, on lui donnait deux ans à vivre, mais contre toute attente, et grâce à une assistance technique sophistiquée, Hawking a survécu : il a célébré son 70e anniversaire en 2012. Professeur de mathématiques à Cambridge, où il occupe la chaire d’Isaac Newton, le cosmologue a reçu pratiquement tous les honneurs, à part le prix Nobel.

1964

1967

1974

Le premier trou noir, Cygnus X-1, est révélé par son émission de rayons X

John Wheeler invente le terme « trou noir » lors d’un symposium de la NASA

Stephen Hawking postule que les trous noirs rayonnent des particules

189

190

50 clés pour comprendre les grandes idées de la science L’horizon des événements Tout astre plus gros

Les trous noirs s’évaporent En 1974, Stephen Hawking démontra que les trous noirs, autrefois considérés comme des ogres voraces auxquels rien n’échappe, peuvent en fait perdre de la masse. Le principe d’incertitude d’Heisenberg (voir page 37) prédit que dans l’espace des paires de particules virtuelles émergent puis s’annihilent et disparaissent sur des échelles de temps extrêmement courtes. Hawking considéra le cas de particules apparaissant juste au-delà de l’horizon des événements d’un trou noir. De temps en temps, l’une des particules du duo pouvait se trouver tirée à l’intérieur du trou noir, et son vis-à-vis s’échapper. La masse d’une telle paire de particules est « empruntée » au trou noir et doit être restituée lorsque la paire s’annihile. Toutefois, dans le scénario de Hawking, lorsqu’une particule s’échappe et devient réelle, elle emporte de la masse. Ce « rayonnement de Hawking » finit par évacuer plus de masse qu’il n’en tombe dans le trou noir et celui-ci « s’évapore » dans le cosmos. Horizon des événements

Trou noir Paire de particules virtuelles

Particule de Hawking

que trois masses solaires s’effondre en deçà de son rayon théorique de Schwarzschild pour devenir un point de densité infinie, appelé « singularité ». En 1958, pour décrire ce rayon de Schwarzschild en deçà duquel la lumière ne peut échapper, le physicien américain David Finkelstein inventa le terme « d’horizon des événements ». Neuf ans plus tard, le physicien John Wheeler de Princeton inventa celui de « trou noir » pour les astres en question. Tout ce qui franchit son horizon des événements est condamné à disparaître dans la singularité centrale. Les années soixante furent un temps béni pour la recherche sur les trous noirs, avec une rafale de découvertes. En 1963, le physicien néo-zélandais Roy Kerr mena plus loin les travaux mathématiques de Schwarzschild pour décrire le cas de trous noirs en rotation. Étrangement, leur singularité centrale prend alors la forme d’un anneau, et certains chercheurs ont spéculé qu’en le traversant on émerge dans un autre endroit de l’Univers, voire tout simplement dans un autre univers.

Les trous noirs Voir c’est croire En 1964, les astronomes découvrirent le premier candidat trou noir : une source de rayons X baptisée Cygnus X-1. L’estimation de sa masse et de sa taille maximale, déduite de ses variations d’intensité, a révélé que son rayon devait être inférieur au rayon de Schwarzschild. Au début des années 1970, des cosmologues avec à leur tête le Britannique Stephen Hawking analysèrent les trous noirs du point de vue de la mécanique quantique. Ils trouvèrent d’étonnants parallèles avec la thermodynamique (voir page 20), parvenant même à définir quatre lois fondamentales du même type. Les recherches de Hawking dans ce domaine menèrent à la conclusion que les trous noirs peuvent émettre des particules (voir encadré). Aujourd’hui, outre les nombreux trous noirs qui sont nés de l’effondrement d’étoiles massives, il apparaît que la plupart des galaxies, y compris notre Voie lactée, possèdent en leur centre des trous noirs « supermassifs ». Le record est présentement détenu par celui au cœur du distant quasar S5 0014+81, dont la masse est équivalente à 40 milliards de fois celle du Soleil.

«

Quel dommage que personne n’ait vu un trou noir exploser. Cela m’aurait valu un prix Nobel. Stephen Hawking

»

L’idée clé Une gravité si forte que la lumière est prisonnière

191

192

50 clés pour comprendre les grandes idées de la science

48 Le multivers De même qu’il existe de nombreuses planètes, de nombreuses étoiles et de nombreuses galaxies dans notre Univers, les cosmologues s’interrogent : n’y aurait-il pas aussi de nombreux univers, voire même une infinité ? C’est la théorie du « multivers ». Le multivers réunirait tout ce qui existe – visible ou non. Et s’il y avait quelque part un univers où les nazis auraient gagné la Seconde Guerre mondiale, ou un autre où vous seriez le premier homme à marcher sur la Lune ? La théorie du multivers suggère qu’il existe une infinité d’univers, donc une infinité de cas de figures où tout peut se produire. C’est en 1957 que le physicien américain Hugh Everett, en poste à Princeton, a jeté les bases scientifiques d’un tel concept. Everett était devenu maître dans les méthodes de raisonnement élaborées par Richard Feynman, et notamment les « intégrales de chemin » de la physique quantique (voir page 38), où l’état futur d’une particule peut être prévu en intégrant tous ses états possibles, divisés par leur probabilité d’occurrence. Feynman y voyait « des intégrales d’histoire », sans pour autant prétendre que ces histoires « autres » pouvaient exister. Mais Hugh Everett l’entendait autrement. La théorie d’Everett s’appelle « l’interprétation des mondes multiples » (MWI pour Multiple Wold Interpretation). Selon elle, tout événement quantique résulte en un bourgeonnement de l’Univers en plusieurs univers autres, dans lesquels tous les destins possibles de cet événement se déclinent : une nouvelle façon de concevoir les probabilités de la théorie quantique. Par exemple, si une particule a 60 % de probabilité d’atteindre un emplacement A et 40 % de probabilité d’atteindre un emplacement B, alors la théorie MWI postule que dans 60 % des univers la particule se trouve effectivement en A, et dans 40 % d’entre eux elle se trouve en B. Vu le vaste nombre de particules quantiques que renferme notre Univers (1080, c’est-à-dire un 1 suivi de 80 zéros), cela signifie que le nombre d’univers postulé par la théorie MWI est proprement inimaginable.

chronologie 1957

1960

1985

Everett dérive de la théorie quantique son interprétation des mondes multiples

Le terme « multivers » est proposé par Andy Nimmo pour décrire la théorie d’Everett

David Deutsch jette les bases de l’informatique quantique, inspirée des multivers

Le multivers

«

Le terme de « multivers », Dans un multivers infini, qui décrit cette immense la fiction n’existe pas. panoplie d’univers imbriqués les uns dans les autres Scott Adsit, acteur (et qui avait déjà été utilisé pour décrire une multitude de planètes), fut proposé par l’Écossais Andy Nimmo lors d’une conférence qu’il livra sur les travaux d’Everett en 1960. Le terme d’univers parallèles est également entré dans le langage courant pour décrire l’ensemble des univers dont le multivers serait composé.

»

Un univers fait pour nous

Nombre de phénomènes étranges de la physique quantique, comme les particules qui se transforment en ondes, s’expliquent par la théorie MWI en termes d’interférences entre univers proches. Nous avons vu (page 34) comment un comportement peut basculer de quantique à non quantique, au cours d’un processus appelé « décohérence », lorsque cet état quantique est rompu par Hugh Everett III (1930-1982) ses interactions avec l’environnement. Dans la théorie Hugh Everett est né à Washington le 11 novembre MWI, la décohérence peut être 1930. Après avoir obtenu son diplôme d’ingéinterprétée comme étant des nierie chimique à l’université catholique d’Améunivers qui se séparent les uns rique en 1953, il gagna Princeton pour poursuivre des autres, mettant fin à leurs un doctorat en physique. Ce fut à cette époque interférences mutuelles. qu’il développa son interprétation des mondes multiples, fondée sur la physique quantique. Il fallut toutefois plusieurs années avant que cette théorie ne soit prise au sérieux. Entre-temps, et quelque peu déçu, Everett quitta le monde académique pour travailler dans l’industrie. Ce fut à Princeton que Hugh Everett rencontra sa future femme, Nancy, dont il eut deux enfants : Elizabeth et Mark. Mark est aujourd’hui le chanteur du groupe de rock Eels. Quant à son père Hugh, gros fumeur et buveur, il décéda d’une crise cardiaque le 19 juillet 1982, à l’âge de 52 ans.

Cette vision multivers du cosmos permet aussi de répondre à une question énigmatique concernant notre propre existence. Les physiciens ont attiré l’attention sur le fait que les constantes physiques de notre Univers, telles que sa masse, la quantité d’énergie sombre, les forces relatives de la gravité et de l’électromagnétisme, et même ses dimensions (trois d’espace et une de temps)

1998

1999

2003

Max Tegmark présente l’expérience du suicide quantique sous sa forme actuelle

Martin Rees diffuse l’idée que le multivers explique nos constantes finement réglées

Tegmark propose dans Scientific American un multivers à quatre niveaux

193

194

50 clés pour comprendre les grandes idées de la science

Le suicide quantique Nombre de chercheurs ont critiqué l’interprétation des mondes multiples, tirée de la physique quantique, comme étant impossible à tester. En 1998, Max Tegmark du MIT a repris l’idée du « suicide quantique » en montrant qu’elle pouvait servir de base pour tester la théorie. Dans cette expérience de pensée, un événement quantique décide si la balle que tire un pistolet sur l’expérimentateur est une vraie balle ou une balle à blanc. Lorsque part le coup de feu, le multivers se divise : dans un ensemble d’univers l’expérimentateur est tué, dans l’autre il survit. La conscience de l’expérimentateur se retrouve toujours, par définition, dans un univers où il a survécu. C’est donc bien ce qu’il observe : dans un multivers, l’expérimentateur ne verra le pistolet tirer que des balles à blanc. Toutefois, pour un témoin qui observe l’expérience, l’expérimentateur meurt d’une balle réelle assez rapidement. Trajet de la conscience de l’expérimentateur

 

   





semblent exceptionnellement bien « choisies » pour permettre à la vie et à nous-mêmes d’exister. Or les valeurs de ces constantes ont été fixées au tout début du Big Bang, par des processus aussi aléatoires que les brisures de symétrie (voir page 174). Dans notre Univers, pourquoi donc ces nombres sont exactement ceux qu’il fallait ? Le multivers offre une explication. Parmi tous les milliards de milliards d’univers, il y en a nécessairement un ou plusieurs qui vont tirer les bons numéros pour les constantes en question, essentiellement par hasard. Notre Univers n’a pas été fait sur mesure pour nous : il fait simplement notre affaire.

La carte du multivers En 2003, le phy-

sicien Max Tegmark de l’université du MIT, près de Boston, a proposé qu’il existe quatre niveaux de multivers. Le niveau I comprend tout ce qui se trouve au-delà de ce que nous pouvons voir, c’est-à-dire audelà de la distance couverte par la lumière depuis le Big Bang. L’Univers peut contenir un grand nombre de régions différentes au-delà de cet horizon, voire une infinité si notre Univers est « plat » ou « ouvert » (voir page 185), ce qui serait déjà impressionnant.



Dans l’expérience du suicide quantique, la conscience de l’expérimentateur se retrouve toujours dans un univers où il a survécu.

Dans le niveau II, l’Univers serait toujours en cours d’inflation – cette phase d’expansion ultrarapide qui est censée s’être déroulée très tôt dans l’histoire du

Le multivers cosmos (voir page 174). Mais cette inflation ne se serait en fait jamais arrêtée, sauf par endroits. Notre Univers observable ne serait qu’une poche subissant une expansion « normale », là où l’inflation se serait localement arrêtée. Le reste serait toujours en phase d’inflation éternelle, créant à tour de bras d’autres univers avec des constantes totalement aléatoires. Le niveau III correspond aux mondes multiples de Hugh Everett, dérivé de la physique quantique, alors que le niveau IV est encore plus exotique. Car si les trois premiers fixent simplement à coup de dés la valeur des constantes, le quatrième suppose qu’il existe des univers où même les lois de la physique sont différentes. On n’a pas encore imaginé de cinquième niveau…

En quête de preuves L’existence même d’un multivers reste une question controversée qui divise les chercheurs. La principale critique reste que l’hypothèse est difficile à tester, donc peu scientifique. Le physicien Max Tegmark pense toutefois qu’il y a une manière de résoudre l’incertitude et de trancher (voir encadré page 194). L’existence d’un multivers pourrait aussi permettre de voyager dans le temps, tout en évitant « le paradoxe de la grand-mère » où on retournerait dans le passé tuer sa grand-mère, situation absurde puisqu’on ne pourrait plus exister. Mais si on retourne dans un autre univers, alors le paradoxe s’efface. La preuve d’un tel voyage temporel serait encore que des touristes venus du futur nous rendent visite…

L’idée clé Les univers seraient multiples

195

196

50 clés pour comprendre les grandes idées de la science

49 Les exoplanètes Plusieurs télescopes dédiés balayent la Voile lactée à la recherche de planètes en orbite autour d’autres étoiles que le Soleil. Plusieurs milliers ont déjà été découvertes : les astronomes pensent que notre galaxie en contiendrait plusieurs centaines de millions semblables à la Terre et propices à la vie. En juillet 2015, le petit monde de la planétologie était en émoi : le télescope spatial Kepler de la NASA, qui avait pour mission de trouver des planètes semblables à la Terre autour d’autres étoiles, venait de découvrir une candidate prometteuse : l’exoplanète Kepler-186f, à quelque 500 années-lumière dans la constellation du Cygne. En orbite autour d’une étoile naine, elle est située dans sa « zone habitable », à la bonne distance pour que la température y permette l’existence d’eau liquide et donc la vie. Le satellite Kepler a recensé plusieurs milliers de planètes extrasolaires au cours de sa mission, mais aucune aussi semblable à la Terre que ne l’est Kepler-186f. Elle est légèrement plus grosse que notre monde, avec un diamètre 10 % supérieur, alors que les planètes précédentes découvertes dans la zone habitable de leur étoile avaient des diamètres 40 % supérieurs.

Premières exoplanètes Depuis des siècles, savants et philosophes soupçonnent que les autres étoiles doivent abriter des compagnons planétaires. En 1855, le capitaine W.S. Jacob de la marine britannique avait ainsi annoncé la découverte d’une planète autour de l’étoile 70 Ophiuchi, déclaration sans fondement et sans lendemain. D’autres annonces du même genre s’égrainèrent au cours du XXe siècle, jusqu’à ce qu’une équipe détecte réellement un système planétaire en 1992, mais autour d’un pulsar – le noyau effondré d’une supernova – plutôt qu’autour d’une étoile classique. La première découverte officielle d’une exoplanète revient aux astronomes Michel Mayor et Didier Quelloz de l’université de Genève, qui révélèrent

chronologie 1855

1992

1995

Fausse annonce par M.S. Jacob d’une planète autour de 70 Ophiuci

Découverte d’une planète en orbite autour d’un pulsar dans la Vierge

Mayor et Queloz détectent la première exoplanète : 51 Pegasi b

Les exoplanètes

«

en 1995 la présence Une étoile sur 200 possède d’une planète autour de des planètes semblables 51 Pegasi, une étoile semblable au Soleil. Leur techà la terre, donc la Galaxie nique de détection repose compte un demi-milliard sur le fait qu’une planète de planètes de ce type : tire par gravité sur son c’est un nombre énorme. étoile, laquelle oscille de Quand nous regardons le ciel façon cyclique, et cette nocturne, il est donc normal oscillation est répercutée dans sa lumière au travers de penser qu’on nous regarde d’infimes variations de sa en retour. longueur d‘onde. La plaMichio Kaku nète 51 Pegasi b, située à 50 années-lumière de la Terre dans la constellation de Pégase, est moitié moins massive que Jupiter et très proche de son étoile, avec une température de surface de l’ordre de 1 000 °C. Outre son nom officiel de 51 Pegasi b, elle s’appelle aussi Bellérophon, en référence au héros de la mythologie grecque qui a dompté Pégase, le cheval ailé.

»

À la suite de ce succès, d’autres exoplanètes furent découvertes par la méthode du décalage spectral. Aussi grosses et proches de leur étoile que 51 Pegasi b, elles reçurent le surnom de « Jupiter chaudes ». Leur proximité à l’astre central était quelque peu paradoxale, car les modèles de formation planétaire plaçaient plutôt les grosses planètes à bonne distance de leur soleil : c’est apparemment leur friction avec les gaz et les poussières rencontrés sur leur chemin qui les a progressivement rapprochées. Les astronomes ont ensuite découvert des planètes géantes glacées et des superTerres chaudes. Certaines étoiles comme Upsilon Andromedae possédaient même plusieurs planètes. Mais c’était surtout des planètes semblables à la nôtre que les astronomes voulaient repérer.

Une traque planétaire En 2009 la NASA a lancé le télescope spatial Kepler à cette fin. Nommé d’après l’astronome Johannes Kepler (voir page 167), l’observatoire utilise la méthode du « transit » : il cherche les variations de luminosité d’une étoile, lorsqu’une planète passe devant son disque. Jumelée à l’oscillation spectrale de l’étoile, la méthode permet de calculer le diamètre de la planète, sa masse, sa distance à l’étoile et sa température.

2009

2015

2015

La NASA lance le télescope Kepler dédié aux exoplanètes

Détection de Kepler-186f dans la zone habitable de son étoile

Découverte de GJ 1132b, une jumelle de Vénus, à 39 années-lumière

197

198

50 clés pour comprendre les grandes idées de la science

La mission Kepler Le télescope spatial Kepler est sur une orbite solaire parcourue en 371 jours. Il mesure 4,7 mètres de long et a une masse de 1 052 kilogrammes. Son instrument de mesure, un photomètre, mesure simultanément la luminosité de 100 000 étoiles dans une région du ciel centrée sur les constellations de la Lyre et du Cygne. La lumière stellaire est renvoyée par un miroir de 1,4 mètre de diamètre vers un capteur CCD à 95 mégapixels, qui peut détecter des baisses de luminosité de 20 parts par million (0,002 %). Le champ du télescope est très vaste : 105 degrés carrés. En date de janvier 2015, Kepler a découvert 1 013 exoplanètes, avec 3 200 candidates supplémentaires attendant confirmation. La mission n’a pas été sans soucis : deux des quatre gyroscopes qui servent à pointer le satellite et son télescope sont tombés en panne en 2013 et 2014, mais la mission a néanmoins été prolongée. Pare-soleil

On peut aussi utiliser la spectroscopie pour déduire la composition atmosphérique d’une exoplanète. Lorsque la planète passe devant son étoile, la lumière stellaire traverse son atmosphère : elle se charge de raies spectrales sombres qui trahissent la nature des gaz traversés, lesquels interceptent cette lumière sur des longueurs d’onde précises. Lorsque la planète passe derrière l’étoile, les raies sombres disparaissent de la lumière. La différence entre les deux signaux permet de calculer la composition atmosphérique de la planète.

La sœur de Vénus

Nouvel émoi en novembre 2015 avec la découverte de l’exoplanète GJ 1132b dans la constelLe télescope lation australe de la Voile Kepler détecte Panneaux (Vela). Celle-ci fut détectée les variations depuis la Terre par un solaires de luminosité groupe de huit télescopes des étoiles automatisés à l’observatoire Viseurs causées par de Cerro Tololo au Chili, qui d’étoiles sont dédiés à la détection de les planètes transits devant des étoiles en orbite naines rouges à moins de Antenne radio 100 années-lumière de la Terre. En parallèle, l’analyse de la planète par la méthode du décalage spectral avec le spectrographe HARPS, monté sur le télescope de 3,6 mètres d’ouverture de l’observatoire de La Silla (également au Chili), a montré que le diamètre de la planète vaut 1,6 fois celui de la Terre. Comme elle produit une baisse de luminosité de Télescope

Les exoplanètes 0,3 % lors de son transit, on lui calcule en effet un diamètre de 14 800 kilomètres, juste 16 % de plus que la Terre. La planète possède sans doute une atmosphère, mais la proximité à son étoile, dont elle fait le tour en 1,6 jour, en fait une fournaise inhospitalière à la vie, ce qui lui a valu le surnom de « jumelle de Vénus ». Du fait de sa relative proximité à la Terre – 39 annéeslumière – GJ 1132b se prête bien à d’autres observations à l’avenir. Des télescopes de plus en plus sophistiqués sont en train d’être construits et mis en place, comme le Télescope Géant Magellan au Chili, qui aura une résolution dix fois meilleure que le télescope spatial Hubble. Pour sa part, l’Agence Spatiale Européenne prévoit de lancer en 2024 le satellite PLATO qui se consacrera à l’observation des exoplanètes repérées dans la zone habitable d’étoiles de type solaire. Grâce à ces ambitieux projets, on espère dans un avenir proche détecter les premiers signes de vie sur une planète autre que la Terre.

Microlentille gravitationnelle La détection d’exoplanètes en orbite à grande distance de leur étoile, à l’instar d’Uranus et de Neptune autour du Soleil, est particulièrement difficile. En 2014, les astronomes ont découvert une telle planète dans un système d’étoiles binaires, située à 25 000 années-lumière de la Terre, à l’observatoire de Las Campanas au Chili. La planète a quatre fois la masse d’Uranus et orbite son étoile à la même distance qu’Uranus du Soleil. La détection a été possible grâce à la technique de la microlentille gravitationnelle. Le champ de gravité d’une étoile peut en effet focaliser la lumière d’une autre étoile située derrière elle et l’amplifier comme une lentille. La présence d’une planète autour de l’étoile « lentille » peut parfois être détectée dans ce signal amplifié. Les alignements nécessaires à ce type de détection sont toutefois très rares : en moyenne une fois par million d’années pour une planète donnée.

L’idée clé Une pléthore de planètes

199

200

50 clés pour comprendre les grandes idées de la science

50 La vie

extraterrestre

La découverte d’une vie extraterrestre est devenue l’un des grands objectifs scientifiques des années à venir. La NASA ambitionne de poser des hommes sur Mars d’ici à 2040 pour chercher des indices d’une telle vie, et de puissants radiotélescopes scannent le ciel à l’écoute d’éventuels signaux de civilisations avancées. La vie pourrait fourmiller dans l’Univers, si l’on en croit l’avis de nombreux astrobiologistes qui se consacrent à cette recherche – l’astrobiologie étant le terme consacré pour désigner l’étude de formes de vie autre part que sur Terre. Les possibilités sont nombreuses : certaines planètes pourraient sembler stériles, mais leurs sédiments receler des fossiles ; d’autres abriter des microorganismes semblables à nos bactéries ; d’autres encore posséder des civilisations ayant la capacité technologique de communiquer avec nous. Certains chercheurs estiment que l’on pourrait détecter des signes de vie dans notre Système solaire d’ici à 2025 et vérifier ces indices d’ici à 2050. La vie sur Terre est née dans les océans, donc cette recherche passe par celle de l’eau liquide. En 2015, les sondes automatiques ont confirmé la présence de traces d’eau liquide à l’heure actuelle à la surface de Mars, sous la forme de stries laissées par des sels hydratés lors d’écoulements sporadiques sur les pentes du relief. Le robot automobile ExoMars de l’ESA, dont le lancement est prévu en 2020, emportera des instruments conçus pour rechercher des traces de vie. Au cours des années 1990, la sonde Galileo a détecté la présence d’un océan d’eau liquide sous la croûte glacée d’Europe, lune de Jupiter. Il posséderait tous les ingrédients nécessaires à la vie, notamment un plancher minéral et de l’énergie générée par effet de marée. Une autre sonde dédiée à Europe est prévue pour la décennie 2020.

chronologie 1959

1977

1989

Morrison et Cocconi publient un premier article sur SETI

Un signal radio inexpliqué est détecté dans la Galaxie

Lancement de la sonde Galileo pour étudier Jupiter et ses lunes

La vie extraterrestre

«

L’aide de la radio Depuis Nous trouverons la fin du XIXe siècle, les chercheurs des indices convaincants sont fascinés par la recherche de vie extraterrestre d’intelligences extraterrestres. En 1901, l’inventeur serbe Nikolas d’ici dix ans. Tesla a ainsi annoncé qu’il avait Ellen Stofan, reçu des signaux radio en provenance d’êtres intelligents en dehors Responsable scientifique de la NASA du Système solaire. Malgré cette annonce excentrique, Tesla fut le premier à imaginer se servir des ondes radio pour détecter des civilisations avancées. Depuis les années 1960, le programme SETI (Recherche d’Intelligences Extraterrestres) réunit des spécialistes qui utilisent les grands radiotélescopes, dans le but d’analyser les émissions radio provenant des étoiles, à la recherche d’un signal artificiel.

»

Le signal Wow !

Les premières années passèrent sans le moindre signal intéressant. Puis, le 15 août 1977, l’astronome américain Jerry Ehman remarqua un intense signal radio à bande étroite, détecté par le radiotélescope Big Ear dans l’Ohio. Le signal était trente fois plus intense que le bruit de fond cosmique et provenait d’une région de l’espace dans la constellation du Sagittaire. Il était apparent que le signal ne provenait pas de la Terre ou de l’espace proche. Ehman entoura les chiffres sur l’imprimé de l’ordinateur et écrivit en marge du signal son exclamation de surprise « Wow ! », d’où son nom. Les astronomes sont à l’écoute de cette région du cosmos pour tenter d’intercepter un second signal, mais sont bredouilles pour l’instant.

Le signal radio « Wow ! » fut détecté en 1977 en provenance du cosmos et ne s’explique par aucun phénomène naturel connu. Les lettres et les chiffres correspondent à l’intensité du signal sur 12 secondes. Les valeurs entourées sont anormalement élevées.

Un autre signal inexpliqué fut détecté en 2010, cette fois en provenance d’une galaxie proche, Messier 82 (M82), à 12 millions d’années-lumière de la Terre dans la constellation de la Grande Ourse. Le signal fut recueilli par les astronomes de l’observatoire de Jodrell Bank au

2003

2009

2015

La Nasa lance ses deux rovers martiens Spirit et Opportunity

Le télescope spatial Kepler débute sa recherche d’exoplanètes

Détection sur Mars de traces actuelles d’eau liquide

201

202

50 clés pour comprendre les grandes idées de la science

La recette du vivant La vie sur Terre dépend de plusieurs éléments chimiques, principalement le carbone, l’oxygène, l’hydrogène, le phosphore, l’azote et le soufre, avec de l’eau liquide comme solvant pour abriter leurs réactions biochimiques. La vie sur d’autres planètes pourrait dépendre d’un cocktail d’éléments différents, mais ce n’est pas l’avis de la plupart des chercheurs qui soulignent plusieurs bases incontournables pour que la vie ait une chance d’apparaître : il faut que les ingrédients chimiques soient abondants dans le cosmos et qu’ils aient un solvant liquide. Une atmosphère et un océan, notamment, sont grandement souhaitables. Le télescope spatial Kepler, ainsi que d’autres puissants télescopes au sol, cherchent des exoplanètes autour d’autres étoiles (voir page 198), sur des orbites appelées « zone habitable » où la température n’est ni trop chaude, ni trop froide, afin qu’elle permette l’existence d’eau liquide. À la lumière des dernières découvertes, il y aurait près d’un demi-milliard de telles planètes bien placées dans notre Voie lactée.

Royaume-Uni, grâce au réseau de radiotélescopes MERLIN qui utilise la technique de l’interférométrie. Le signal est différent de tout ce qui a été observé dans le cosmos jusqu’à présent : une source en mouvement, dont la vitesse latérale serait quatre fois supérieure à celle de la lumière. De telles vitesses apparentes sont souvent des illusions d’optique associées à de la matière à proximité de trous noirs supermassifs. Mais un tel trou noir n’est pas censé exister dans le noyau de M82. Aucune théorie ne parvient à expliquer le phénomène qui reste à ce jour un profond mystère de l’astronomie.

Des constructions artificielles ? En 2015, d’étranges

anomalies ont été détectées par le télescope spatial Kepler (voir page 198). Les chercheurs ont révélé que la luminosité de l’étoile KIC846285, à 1 500 années-lumière dans la constellation du Cygne, avait baissé de 20 % à plusieurs reprises, de façon inexplicable. Cette baisse de luminosité est trop importante pour s’expliquer par le passage d’une planète devant son étoile, ni par la désagrégation d’une comète en un nuage de débris, laquelle s’accompagnerait d’un rayonnement infrarouge qui manque à l’appel. On a proposé aussi un nuage de comètes exceptionnellement froides, mais il faudrait qu’elles soient sur des orbites très inhabituelles pour causer le phénomène. Les astronomes se retrouvent face à un profond mystère et certains ont spéculé que la baisse de luminosité peut être causée par une grande structure artificielle construite par une civilisation extraterrestre et passant devant son étoile. Un tel objet devrait bien sûr être énorme pour expliquer les variations lumineuses

La vie extraterrestre détectées par Kepler, mais le scénario reste plausible.

Les extrêmophiles

L’observatoire Kepler continue de recenser des plaOn appelle extrêmophiles les organismes qui surnètes rocheuses semblables à vivent dans des environnements hostiles. Ils sont la Terre dans les zones habidevenus un important domaine de recherche pour tables de leurs étoiles, failes astrobiologistes. De telles bactéries abondent dans sant croître la probabilité de les chaudes sources hydrothermales sur le plancher découvrir des formes de vie des océans, la banquise et les glaciers, et des environautre part dans le cosmos. nements très acides ou au contraire très alcalins. Leur L’immensité de l’Univers découverte a grandement étendu le registre connu limite peut-être les échanges, des habitats où on peut espérer trouver de la vie. Les mais comme l’a noté le cosformes qui vivent dans les régions froides intéressent mologue Stephen Hawking, particulièrement les chercheurs, car Mars et les lunes c’est sans doute un mal pour de Jupiter et Saturne sont gelées. un bien, car si des extraterrestres gagnaient la Terre, ils ne se priveraient certainement pas de nous conquérir ou de nous éliminer ! Hawking garde toutefois l’esprit ouvert et soutient un projet visant à accélérer la recherche d’éventuelles civilisations extraterrestres. Car comme l’a écrit l’astrobiologiste Carl Sagan, « quelque part là-haut, quelque chose d’incroyable attend d’être découvert ».

L’idée clé Nous ne sommes pas seuls

203

204

Glossaire

Glossaire Abiogenèse Processus d’apparition de la vie à partir de la matière inerte. ADN Molécule présente dans toutes les cellules et la plupart des virus, contenant le code génétique de l’organisme. Allotrope Différente forme moléculaire d’un même corps. Antimatière La plupart des particules possèdent un jumeau appelé antiparticule, de même masse et de même spin qu’elles, mais de charge électrique opposée (l’antiélectron, par exemple, est positif). Atome La plus petite unité indivisible d’un élément. L’atome est constitué d’un noyau contenant protons et neutrons, entouré d’électrons. Bactérie Organisme unicellulaire que l’on rencontre dans la plupart des environnements terrestres. Baryon Classe de particules subatomiques qui inclut les protons et les neutrons, constituants du noyau atomique.

Becquerel Unité de mesure de la radioactivité d’une substance. Bit Unité de base de l’information. Abréviation de « chiffre binaire » en anglais, elle a une valeur de 0 ou de 1. Boson de Higgs Dans le modèle standard, particule subatomique qui donne leur masse aux autres particules. Catalyseur Une substance qui accélère le taux des réactions chimiques sans être elle-même consommée. Les enzymes sont les catalyseurs biologiques des cellules. Cellule Plus petite unité d’un organisme vivant. Les cellules eucaryotes ont un noyau, les cellules procaryotes n’en ont pas.

Élément Substance constituée d’un seul type d’atomes, qui ne peut être divisée en plusieurs ingrédients, à la différence des corps composés. Énergie sombre Champ d’énergie intégré à la structure de l’espace qui cause l’accélération de l’expansion de l’Univers et qui serait sa principale composante. Entropie Degré de désordre d’un système thermodynamique. Terme également utilisé en théorie de l’information pour quantifier le contenu d’un signal. Espace-temps L’espace et le temps comme dimensions interdépendantes et unifiées dans la théorie de la relativité.

Cycle du carbone La circulation du carbone entre atmosphère, océan et la matière organique des plantes et des animaux.

Évolution Changement des traits caractéristiques d’un organisme au fil des générations. Les individus aux traits les mieux adaptés à leur environnement ont plus de chance de se reproduire.

Électrodynamique quantique Théorie du champ quantique de la force électromagnétique.

Fermion Particule subatomique dont le spin quantique est un demi-nombre entier.

Fond cosmologique diffus Rayonnement fossile du Big Bang, hérité de la naissance de l’Univers. Fractale Forme complexe qui se répète à toutes les échelles. Les fractales gouvernent la dynamique des systèmes chaotiques. Fullerène Molécule d’atomes de carbone arrangés en une structure sphérique (buckyball) ou cylindrique (nanotube). Galaxie Vaste amas d’étoiles liées par gravité, dont la plupart possèdent un trou noir supermassif en leur centre. Génome La panoplie complète de l’information génétique d’un être (ADN et gènes). Grammaire universelle Théorie que les règles de grammaire sont préprogrammées dans le cerveau humain. Hadron Particule subatomique qui interagit avec la force nucléaire forte, classe qui inclut les protons, les neutrons, les mésons et les quarks.

Glossaire Inertie Résistance de toute masse au mouvement et au changement de mouvement.

Modèle standard Ensemble des lois reconnues de la physique des particules.

Lepton Particule subatomique qui n’interagit pas avec la force nucléaire forte, classe qui inclut les électrons, les tauons, les muons et les neutrinos.

Molécule Plus petite unité d’un corps chimique, composé de plusieurs atomes identiques ou différents liés entre eux par des liaisons covalentes ou ioniques.

Matière noire Matière invisible qui se manifeste uniquement à travers sa gravité.

Nanotechnologie Manipulation d’atomes individuels pour élaborer des matériaux.

Nombre atomique Nombre de protons dans le noyau d’un élément. Les éléments du tableau périodique sont listés par nombre atomique croissant. Plaque tectonique Grandes unités de l’écorce terrestre en mouvement les unes par rapport aux autres, responsables de la dérive des continents, des séismes, des éruptions volcaniques et de l’orogenèse. Qualia Perceptions et expériences sensorielles et conscientes du cerveau.

Spin quantique Propriété des particules quantiques qui décrit leur symétrie de rotation. Supraconducteur Matériau qui peut conduire l’électricité avec une résistance quasi nulle, offrant le potentiel d’améliorer le transport d’énergie et d’en limiter les pertes. Virus Plus petit organisme capable de se répliquer, par injection de son ADN dans une cellule hôte.

205

206

Index

Index A ADN 97, 106–107, 116, 118–119, 128–131 ADNmt 126–127 Agassiz, Louis 150 âge glaciaire 148–151 albédo, effet 163 Afrique, migration hors d’ 124–127 Alvarez, Walter et Luis 157–158 Ampère, loi d’ 18 antimatière 36–37 ARN, et origine de la vie 97–98 Arrhenius, Svante 161, 163 atome 68–71 scission de l’ 45–46 Avogadro, Amedeo 70–71 azote 138 B bactériophage 139 balle magique 111 bande diffuse interstellaire 90 Bardeen, John 80–81, 85 Becquerel, Henri 76–77, 79 Big Bang 43, 172–175, 182, 184, 194 Big Crunch 185–187 Big Rip 187 biologique synthétique 135–139 bit 52–53, 82 Born, Max 35 boson 40, 42 boule de neige, Terre 151 boulet de canon, expérience du 14 buckyball 89–90, 93 C Callendar, effet 162 Calvin, cycle de 103 cancer 115 carbone 88–91 catastrophisme 157 Cavendish, Henry 15 cellule 104–107 reproductive 106 souche 133–134 Chadwick, James 44 Chalmers, David 143 champ, équation de 29–30

Chandrasekhar, Subrahmanyan 189 chaos, théorie du 56–59 Chargaff, loi de 129–130 codage de source 53–54 corps composé 70–71 Chomsky, Noam 144–146 chromosome 107 Clausius, Rudolf 21–22 claustrum 142 changement climatique 159–163 clonage 132–135 comète 169 conscience 140–143 de soi 141 constante cosmologique183 copernicien, Système solaire 164–167 Copernic, Nicolas 166 cordes, théorie des 48–51, 55, 175 Crick, Francis 128–130 D Dalton, John 69–70 Darwin, Charles 99, 120–125 De Broglie, Louis 33–34 décalage spectral, 181, 185 décohérence 63, 193 demi-vie 78 dérive des continents 152–153 Deutsch, David 60, 62 dinosaures, fin des 157–158 dioxyde de carbone, émission de 161–162 Dirac, équation de 36–38 Dolly, mouton cloné 132–133 double hélice 107, 128–131 E E = mc2 27,29, 46 Ebola, virus 112, 115 Eddington, Arthur 30 effet de serre 160–161 effet papillon 58 Einstein, Albert 11, 15, 24–33, 35–36, 70, 180, 182–183 électrofaible, modèle 39–40, 43 électromagnétisme 16–19, 25, 37, 43, 48 électron 36–37, 41, 75

élément 72, 75 empirisme 147 énergie sombre 179–183, 186–187 entropie 21–23, 54, 172 épigénétique 119–120 espace-temps 26–27, 29–30, 51, 182–183 eucaryote 105–106 Euler, Leonhard 11 Europe (lune) 201 Ève mitochondriale 126–7 Everett, Hugh 192, 194 évolution 120–127 humaine 124–127 exoplanète 196–199, 202 extraterrestre, intelligence 200–203 extrêmophile 203 F faille 154–155 Faraday, Michael 16–18 Fermat, principe de 4–47 fermion 40–41, 189 Feynman, diagramme de 38–39, 50 Feynman, Richard 7, 38, 192 fond diffus cosmologique 174–175, 178, 182 force nucléaire faible 42, 48 force nucléaire forte 41–42, 48, 50 forêt vierge, destruction de la 103 Fourier, Joseph 160–161 fractale 59 Franklin, Rosalind 129–131 fullerène 89–91 G g (accélération) 28–29 galaxie 168–171, 173, 177, 179, 181 spirale 171, 177 Galileo 8, 24, 26, 28, 167–168 gène/génétique 116–119 génétique, thérapie 119, 131 géocentrique, modèle 164–166 gingembre, gène du 117 GJ 1132b 198–199 glacier/glaciation 148–150 gluon 42

grammaire universelle 145–146 Grand collisionneur de hadrons (CERN) 41, 86–87 grande unification, théorie de la 39, 43 gravité 48–49 espace courbe de la 28–31, 39 newtonienne 12–15, 28– 29, 57, 167, 184, 188 quantique 39, 50, 55 tenseur-vecteur-scalaire (TeVeS) 178 H hadron 41 Hawking, rayonnement de 185, 191 Hawking, Stephen 23, 174, 190, 203 Heisenberg, principe d’incertitude de 37–38, 174, 191 Hertz, Heinrich 19 Higgs, boson de 40–43 Hobbit, 126 Hooke, Robert 14, 20, 104 horizon des événements 190 Hubble, constante de 180– 182 Hubble, Edwin 170, 173, 180, 184 I image par résonnance magnétique (IRM) 87, 142 immunisation 114 inflation de l’Univers 174, 183, 187, 194 information, théorie de l’ 7, 22, 52–55 information intégrée, théorie de l’ 143 intelligence artificielle (IA) 64–67, 136–137, 143 interférence 5–6, 193 J Jenner, Edward 114 jeu, théorie du 66–67 K Kant, Emmanuel 168–169

Index Keeling, courbe de 162 Kelly, critère de 55 Kepler, Johannes 14, 167, 198 Kepler, observatoire spatial 198, 202–203 Kepler-186f 196, 199 Koch, flocon de 59 L Lagrange, Joseph-Louis 6–7 lagrangienne, dynamique 6 Lamarck, Jean-Baptiste 120, 122 Lamb, décalage de 38–39 langage 144–147 Lemaître, Georges 173, 184 lentille/microlentille gravitationnelle 30, 178, 199 lepton 40–41 liaison chimique 70 Lister, Joseph 110 logique, portail 82–83 Lorentz, Hendrik 25–26 Lorenz, Edward 57–58 Lucy 126 lumière 4–7, 25, 27, 32–34 M M, théorie 51 machine à vapeur 21 maladies, théorie microbienne des 108–111, 113 Mars 200 masse, extinction de 156–159 matière noire 176–180, 182 Maxwell, James Clerk 16, 19, 23, 25, 37, 48 Maxwell, équations de 17–19 Meissner, effet 85–86 Mendel, Gregor 23, 116–118 Mendeleïev, Dmitri 72–75 Mercure 30–1 Messier, Charles 169 microprocesseur 83 microscope à effet tunnel (STM) 93–94 Milankovitch, cycles de 149 miroir, test du 141–142 Mitchell, John 188–189 moindre action, principe de 6–7 molécule 70–72 MOND (dynamique newtonienne modifiée) 178 mondes multiples, interprétation des (MWI) 62, 192–195

Moore, loi de 67 mouvement, lois de Newton du 7, 8–11 MRSA 122 multivers 192–195 N nanorobotique 94 nanotechnologie 91–95 nanotube en carbone 90–91 nébuleuse 169–170 Neumann, John von 54, 67 neuronal, réseau 65–66 neutrino 41 neutron 44–46, 75 neutrons, étoile à 189–190 Newton, Isaac 9 loi de la gravitation de 12–15, 28–29, 57, 167, 184, 188 lois du mouvement de 7, 8–11 nombre atomique 73–74 noyau atomique 27, 75, 78 nucléaire énergie 27, 44–47 fission/fusion 45–47 réacteur 46–47

Poincaré, Henri 57 positron 37 Priestley, Joseph 101–102 procaryote 105, 107 proton 41, 74–75 Ptolémée 165–167 Q qualia 141–143 quantique champ 7, 36–40, 42 chimie 75 chromodynamique (QCD) 39–40, 42, 50 cryptage 62 électrodynamique (QED) 39–40 esprit 142 mécanique/ théorie 11, 23, 32–36, 49, 60–61, 74–75, 93, 193 ordinateur 60–63 suicide 195 quantum 60–3 quark 41–2 qubit 60–61, 63 quintessence 183, 187

O OGM 132, 134–135 onde 19 et théorie de la lumière 5, 25, 32 gravitationnelle 31 onde-particule, dualité 33–35, 193 Onnes, Heike Kamerlingh 84–85, 87 ordinateur 67, 83

R radio, onde 19 radioactivité 39, 48, 76–79 réchauffement climatique 162–163 réfraction 4 relativité générale 11, 15, 28–31, 183–184, 188 relativité restreinte 11, 24–29, 36 renormalisation, théorie de la 38, 49 riz doré 135 Rubin, Vera 177, 179 Rutherford, Ernest 44, 77–78

P paléomagnétisme 153–154 Pangée 152, 158 particules accélérateur de 41, 86 physique des 26, 40–43, 50, 178, 185 Pasteur, Louis 108–111, 113 pasteurisation 111 Penrose, Roger 142, 174 Perlmutter, Saul 181–182 phase, portrait de 58 photoélectrique, effet 32–33 photon 37–38 photosynthèse 100–103 Piaget, Jean 147 Piltdown, homme de 125 Planck, Max 32–33 PLATO, mission 199

S Schrödinger chat de 34 équation d’onde de 34–36 Schwarzschild, Karl 188–189 Schwarzschild, rayon de 189–190 sélection naturelle 99, 122–123, 127 semi-conducteur 80–83 Semmelweis, Ignaz 110 Shannon, Claude 52–54 Shockley, William 80–82 Snell, loi de 4–5 sociale, aptitude 146–147

soupe primordiale 96–97, 99 spectroscopie 169–170, 198 supercorde 51 superintelligence 67 supernova 181–182 supraconducteur 84–87 symétrie 43 T tableau périodique 72–75 Taung, crâne de 125 tectonique des plaques 149, 152–155 Tegmark, Max 194–195 tenseur-vecteur-scalaire, gravité (TeVeS) 178 Tesla, Nikola 201 thermodynamique 20–23, 172, 191 Tononi, Giulio 143 tout, théorie du 19, 48–49 transistor 81–83 trou noir 23, 31, 50, 55, 171, 174, 185, 188–191 Turing, test de 64–65 U Univers destin de l’ 184–187 mort thermique de 185, 187 V variole, vaccin 114 Venter, Craig 136–139 vie, origine de la 96–99 virus 112–115 vitesse terminale 13 Voie lactée 168, 170–171, 177 Vygotski, Lev 146–147 W W, boson 42 Watson, James 128–131 Watt, James 21 Wegener, Alfred 152–153, 155 Wilmut, Ian 132–133 Witten, Edward 50–51 Wow !, signal 201–202 X X, rayon 76 Z Z, boson 42 Zwicky, Fritz 176–177

207

À notre merveilleux fils Callum sans lequel ce livre aurait été terminé en moitié moins de temps. Crédits photos : 95 : photo par D. Carr et H. Craighead, Cornell University.

L’édition originale de cet ouvrage a été publiée en 2016 au Royaume-Uni par Quercus Publishing Plc sous le titre 50 ideas you really need to know Science. Copyright © Quercus 2016

© Dunod, pour la traduction française, 2017 11, rue Paul Bert, 92240 Malakoff www.dunod.com ISBN 978-2-10-076303-0