196 88 4MB
French Pages 218 [214] Year 2021
Grandes controverses en astrophysique
Grandes controverses en astrophysique SUZY COLLIN-ZAHN Illustrations de Paul-Etienne Zahn
17, avenue du Hoggar – P.A. de Courtabœuf BP 112, 91944 Les Ulis Cedex A
SPOT Sciences Collection destinée à un large public qui invite le lecteur à découvrir à travers des essais toute une palette des sciences : histoire, origines, découvertes, théories, jeux…
Dans la collection « Sexualité, génétique et évolution des bactéries », J.P. Gratia, ISBN : 978-2‑7598-2538-7 (2021) « La pensée en physique – Diversité et unité », J.P. Pérez, ISBN : 978-2‑7598‑2481-6 (2021) « L’histoire du cerveau – Voyage à travers le temps et les espèces », Y. Gahéry, ISBN : 978-2-7598-2479-3 (2021) « Les clés secrètes de l’Univers – Émergence de l’Univers, de la vie et de l’Homme », M. Galiana-Mingot, ISBN : 978-2-7598-2534-9 (2021)
Composition et mise en pages : Flexedo
Imprimé en France ISBN (papier) : 978-2-7598-2613-1 ISBN (ebook) : 978-2-7598-2614-8
Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinés à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute repré sentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2021
SOMMAIRE
Préface........................................................................................ 7 Avant-propos : pourquoi j’ai écrit ce livre...................................... 9 Introduction................................................................................. 13 La méthode scientifique : une fabrique de controverses.................. 13 Spécificité de l’astrophysique...................................................... 19 La difficile classification stellaire.................................................. 23 La bataille Cannon/Maury........................................................... 26 Une jeune astronome trop modeste............................................. 28 Lord Kelvin et les géologues......................................................... 31 Heureusement, la physique nucléaire arriva…............................... 36 Le Grand Débat............................................................................ 39 Où il est question de nébuleuses................................................. 39 Où l’on parle du harem Pickering................................................. 45 Einstein contre Friedmann et Lemaître........................................... 49 La naissance compliquée de la cosmologie................................... 52 Années 1920 : deux médecins au chevet de l’Univers, Friedmann et Lemaître............................................................... 53 Mais reste cependant un grave problème….................................. 55 Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow........ 57 Le coup d’envoi provient de Gamow............................................. 59 Hoyle s’engouffre dans la brèche................................................. 61 Le paradoxe d’Olbers-de Chéseaux................................................. 65 Controverses autour de la matière noire......................................... 71 Un génie détesté...................................................................... 71 Controverse sur les amas de galaxies........................................... 75 On reprend les courbes de rotation des galaxies............................ 76 La matière noire refait surface.................................................... 77 Une nouvelle controverse........................................................... 78 Les batailles de la constante de Hubble......................................... 81 En 1952, H0 est divisé par deux et par conséquent l’Univers devient deux fois plus vieux.......................................... 83 La valeur mesurée de H0 continue à diminuer !............................. 85 Faisons donc encore un effort sur la constante de Hubble !............ 85 Une bataille féroce entre l’école anglo-saxonne et l’école française.... 86 Une nouvelle controverse…....................................................... 87 5
Sommaire
La controverse des décalages spectraux anormaux.......................... 91 Des problèmes à la pelle…......................................................... 93 Le point de vue non conventionnel............................................. 99 Une simple affaire de statistique................................................. 100 Les trous noirs géants, mythes ou réalités ?................................... 105 Les prémices d’une controverse................................................... 106 La controverse elle-même........................................................... 109 L’invasion des trous noirs massifs ! Une autre controverse se pointe….............................................. 112 Le chauffage de la couronne solaire............................................... 115 Découverte d’un élément inconnu sur Terre................................... 115 La solution du mystère…........................................................... 118 Un nouveau problème était né, et une nouvelle controverse !.......... 119 L’affaire Geminga......................................................................... 121 Weber : la saga des ondes gravitationnelles................................... 127 Les neutrinos solaires : John Bahcall et les physiciens.................... 133 C’est donc le modèle standard de la physique qui doit être révisé…. 137 Les GRB (Gamma-Ray Burst).......................................................... 139 La grande illusion : les canaux de Mars.......................................... 143 Controverse sur la météorite martienne.......................................... 151 La bataille de Pluton.................................................................... 155 Le principe anthropique................................................................ 159 Ces nombres bizarres qui caractérisent l’Univers............................ 159 L’âge de l’Univers, pas si naturel................................................. 160 Principe anthropique et Big Bang................................................ 162 Les forces et les constantes qui régissent l’Univers........................ 163 Un Grand Architecte n’est pas forcément nécessaire !..................... 166 Des disputes fécondes............................................................... 168 Les fausses controverses............................................................... 169 Les scientifiques qui créent la controverse.................................... 169 Les frères Bogdanov : une imposture médiatique........................... 172 La tempête médiatique.............................................................. 174 Les extraterrestres : où sont-ils ?.................................................. 179 Ces « objets volants non identifiés »............................................ 180 Une équation ultra-célèbre, mais qui ne sert pas à grand-chose....... 185 Le projet SETI.......................................................................... 187 Mais alors, où sont-ils ?............................................................. 189 Appendice................................................................................... 195 Remarques sur le développement de l’astrophysique en France........ 195 Glossaire..................................................................................... 203
6
Grandes controverses en astrophysique
PRÉFACE
La recherche scientifique n’a rien d’un long fleuve tranquille. Les découvertes ne sont que bien rarement le résultat de l’intuition géniale d’un seul individu comme on l’imagine trop souvent, mais ne surviennent qu’au terme d’un long processus fait de travail collectif souvent fastidieux, émaillé d’intuitions plus ou moins vagues, d’hésitations, de controverses et de repentirs. Dans notre période où fleurissent les fake news et les théories du complot, il est particulièrement instructif et salutaire d’examiner ce processus à partir d’exemples simples et concrets, car le public n’en a souvent aucune idée. Pour ceci, l’astrophysique offre un terrain assez particulier puisqu’on ne peut pas, sauf cas rares, se livrer à des expériences sur les astres lointains et que l’on doit se contenter d’essayer d’interpréter des observations à distance. Il faut dire que ces observations nous apportent bien des surprises, qui sont particulièrement propices au déclenchement d’idées plus ou moins farfelues, donc aux controverses. D’un autre côté, la recherche en astrophysique n’est pas biaisée par des soucis de rentabilité pratique, contrairement à la biologie par exemple, ce qui rend les chercheurs plus libres de développer leurs idées. Mais ceci ne veut certainement pas dire que leur ego et leurs relations avec leurs collègues et le public n’y jouent aucun rôle, comme le lecteur aura l’occasion de le constater. 7
Préface
Dans le présent ouvrage, Suzy Collin-Zahn s’est attachée à décrire par des exemples caractéristiques le cheminement intellectuel souvent tortueux qui conduit à notre connaissance de l’Univers. Elle a choisi des thèmes qui ont suscité des controverses éclatantes, mais qui ne sont que la partie émergée d’un ensemble globalement moins spectaculaire. Elle était particulièrement bien placée pour ce faire, car elle a été le témoin de nombreuses avancées de la recherche en astrophysique, à laquelle elle a d’ailleurs elle-même participé avec grand succès. Elle a connu personnellement un grand nombre des acteurs de cette recherche, que ce soit en France ou à l’étranger, dont elle a pu observer la démarche intellectuelle, et son témoignage est donc souvent de première main. Des pans entiers de la recherche en astrophysique n’ont pas encore abouti, et n’aboutiront peut-être jamais. C’est le sort de la science, dont le progrès en dents de scie est fait d’avancées spectaculaires environnées de stagnations et quelquefois de reculs, certaines idées qui semblaient bien établies étant mises à mal par de nouvelles observations ou des raisonnements plus poussés. Cependant, la vérité finit heureusement par se dégager, et la réalité est souvent plus spectaculaire que tout ce que l’on avait pu imaginer. On ne s’étonnera donc pas de rencontrer dans ce livre des objets exotiques comme les quasars et les trous noirs, et surtout des personnages passionnés par la contemplation même de ces objets, quelquefois au point d’en perdre un peu de leur sens critique. On y trouvera également des réflexions d’un grand intérêt sur notre place dans un Univers dont nous découvrons peu à peu les secrets. Le lecteur qui va se plonger dans cet ouvrage ne sera pas déçu. Ses différents chapitres, qui peuvent être abordés indépendamment les uns des autres, se lisent comme des romans et ne manqueront pas d’exciter curiosité et passion, d’autant plus qu’ils sont variés, bien écrits et très vivants, tout en restant accessibles aux non-spécialistes. Bonne lecture ! James Lequeux 8
Grandes controverses en astrophysique
AVANT-PROPOS : POURQUOI J’AI ÉCRIT CE LIVRE
L’idée d’écrire cet ouvrage m’est venue après avoir mené une vie de chercheuse pendant presque cinquante années au cours desquelles ma discipline, l’astrophysique, a subi un développement sans précédent. J’ai vu ainsi certains domaines, telle la cosmologie, complètement renouvelés par les observations inattendues conduisant à la découverte de la matière noire et de l’énergie sombre, représentant à elles deux 95 pour cent de l’Univers et dont la nature est totalement inconnue ! Ma propre spécialité, qui concerne les galaxies actives et les quasars, s’est entièrement construite depuis que j’ai commencé ma recherche. J’y ai vu la montée en force des trous noirs, presque objets de dérision pendant la première moitié du siècle (Einstein lui-même n’y croyait pas !), avant que l’on découvre que les plus géants d’entre eux sont tapis au cœur des galaxies, et même dans notre sage Voie lactée ! Depuis que je suis retraitée, on a découvert l’ombre de l’un de ces trous noirs enveloppé de son disque, exactement tel que prévu par la théorie. Dans le domaine de la physique stellaire qui, contemplée de loin, me paraissait beaucoup mieux établie, j’ai assisté à la découverte des derniers stades de la vie des étoiles trente ans après leur prédiction théorique, puis aux progrès de l’héliosismologie et de 9
Avant-propos : pourquoi j’ai écrit ce livre
l’astérosismologie qui ont permis de connaître la structure interne des étoiles. J’ai même vu, après des dizaines d’années d’efforts inouïs débouchant sur une précision de mesure sans précédent, le résultat de la fusion de deux trous noirs en une flambée d’ondes gravitationnelles, ouvrant une nouvelle fenêtre sur l’Univers, un siècle après leur prévision par Einstein qui n’avait jamais pensé que l’observation de ces ondes fût possible. Cette foison d’avancées scientifiques a été le résultat de l’incroyable développement des instruments d’observation, avec la mise en service des très grands télescopes, l’ouverture du spectre aux longueurs d’onde observables seulement depuis l’espace, l’invention de l’optique adaptative, la mise au point d’énormes programmes de simulations numériques, et la généralisation de l’Internet conduisant entre autres à la publication de relevés gigantesques. Ces découvertes ont presque toutes suscité des controverses passionnées, surtout lorsqu’elles étaient imprévues et que la communauté scientifique n’y était pas préparée. A contrario, elles étaient comprises presque dans l’heure et ne soulevaient pas la moindre discussion lorsqu’elles avaient été prédites, comme les pulsars et le rayonnement cosmologique1. J’ai constaté que des idées prémonitoires avaient été refusées en leur temps, et avaient été redécouvertes des décennies plus tard, telle celle de la matière noire. J’ai découvert que certaines idées avaient eu du mal à s’imposer devant d’autres plus à la mode, défendues par des scientifiques connus ; mais que, lorsqu’était proposée une explication s’insérant dans un contexte scientifique déjà accepté, elle était immédiatement admise, sauf par quelques récalcitrants comparables à ceux qui, actuellement, veulent à tout prix que la Terre soit plate. J’ai vu ainsi des chercheurs refuser pendant toute leur vie de reconnaître des évidences. Comme dit le proverbe, l’erreur est humaine, mais c’est persévérer qui est diabolique. Et ce n’est alors pas la science qui éteint les polémiques, mais la mort des protagonistes. 1. En fait, on verra que ce ne fut pas tout à fait vrai avec l’Univers stationnaire… 10
Grandes controverses en astrophysique
Avant-propos : pourquoi j’ai écrit ce livre
Il m’est donc venu l’envie, non seulement de rassembler ces histoires épiques que j’ai vécues, mais également de chercher comment s’étaient constituées des idées qui paraissent maintenant bien établies, pourquoi elles avaient suscité des controverses parfois violentes, et comment celles-ci avaient été résolues. Et ce faisant, de montrer comment fonctionne la méthode scientifique, et comment on arrive à se frayer – souvent péniblement et sur le long terme – un chemin vers la vérité.
11
INTRODUCTION
LA MÉTHODE SCIENTIFIQUE : UNE FABRIQUE DE CONTROVERSES Les controverses sont consubstantielles à la Science, et c’est grâce à elles que celle-ci progresse. La science se fonde en effet sur des faits, mais ces faits ne sont pas toujours faciles à interpréter. Elle procède donc par allers-retours entre vérité et erreurs. Sa démarche vers la vérité est chaotique, les vérités scientifiques étant changeantes contrairement aux vérités révélées. Mais elle finit par s’en approcher et, à long terme, il y a toujours une évolution du faux vers le vrai. Les expériences, l’observation de la nature et de ses régularités sont les pierres sur lesquelles sont bâtis des hypothèses et des modèles mathématiques, eux-mêmes servant à proposer d’autres expériences et d’autres observations et à en prédire les résultats. Si les résultats ne sont pas conformes aux prédictions, l’hypothèse doit être abandonnée pour une autre. Telle est la démarche scientifique, faite de permanentes remises en question, et qui ne peut s’abstraire du doute et de la discussion. Lorsqu’on parle maintenant de science, on confond souvent celle-ci avec les « techno-sciences », comme le nucléaire ou les nanotechno logies, dont le développement et l’usage posent des questions de 13
Introduction
société. On pense également aux sciences de la vie qui contiennent trop de paramètres pour que les scientifiques puissent donner des réponses simples aux questions posées. Elles sont génératrices de discussions impliquant des décisions politiques : les OGM sont-ils néfastes ou non ? Les vaccins sont-ils recommandés ? Etc. Les citoyens désirent légitimement avoir des informations sur ces sujets et veulent participer aux débats de société. Mais ce dont il est question ici, c’est de « science fondamentale », celle dont le but est seulement de faire avancer la connaissance, et plus précisément d’une science « dure », l’astrophysique (comme nous le verrons plus loin, c’est une science dure particulière, car elle est fondée sur les observations et non sur les expériences)2. Il ne faut pas croire qu’il n’existe pas de controverses dans les sciences dures, mais elles ne sont généralement pas connues du public car ce sont des querelles d’experts qu’on n’estime pas nécessaire de populariser. Contrairement aux débats de société dont je viens de parler, elles conduisent souvent – parfois au bout d’un temps très long – à un consensus, qui peut d’ailleurs être remis en cause à la suite d’une nouvelle observation ou d’une nouvelle théorie. On a infligé à la relativité générale toutes les vérifications possibles, et elle n’a été jamais été mise en défaut jusqu’à maintenant, mais il y aura peut-être un jour une observation plus précise qui y parviendra. Elle se métamorphosera alors probablement en une théorie nouvelle qui l’englobera, comme elle a englobé elle-même la mécanique newtonienne. Et c’est à ce moment, lorsqu’une solution s’est dégagée, que les scientifiques estiment qu’elle doit émerger à travers la vulgarisation scientifique. Ce n’est cependant pas l’avis de tout le monde, et certaines controverses sont amplifiées pour impressionner le grand public et avoir plus d’impact, souvent par les médias mais parfois aussi par des 2. En fait, l’astrophysique est par certains côtés proche des sciences de la nature, car les phénomènes font intervenir parfois plusieurs paramètres qu’il est difficile de départager. Il arrive qu’ils jouent tous un rôle important éventuellement à différents moments. 14
Grandes controverses en astrophysique
Introduction
scientifiques en mal de reconnaissance. Ces procédés contribuent à dégrader l’image de la science. Dans certains cas cependant – rares –, aucune solution claire ne se dégage même après des décennies, et là seulement, il faut exposer le problème au public. Car il ne faut pas confondre les théories en train de se faire, avec celles qui ont été longuement vérifiées. D’âpres discussions entre experts ont eu lieu. Après que les controverses ont fait rage, une théorie finit par s’imposer parce qu’elle s’intègre dans un corpus d’autres théories et qu’elle est en accord avec toutes les observations. Ne croyez d’ailleurs pas que les théories qui gagnent le font seulement parce que les scientifiques ont utilisé les « bonnes » méthodes, mais souvent simplement parce que les autres sont en désaccord avec les observations. Cela ne signifie pas que la théorie qui a gagné est définitive, mais la remettre en cause sera comme enlever la clef de voûte d’un édifice : il faudra la remplacer par une autre qui tienne mieux, ou tout va s’effondrer. Par ailleurs, les hommes n’étant pas des êtres purement rationnels (même les plus grands génies, et peut-être surtout eux !), ils sont gouvernés aussi par leurs émotions. Les faits sont alors interprétés à travers le prisme de leur subjectivité qui les leur présente avec de belles couleurs irisées. De plus, les théories naissent dans un cadre historique spécifique qui imprime nécessairement sa marque. L’un des meilleurs exemples est celui d’Einstein ajoutant une constante à ses équations (ce qui était d’ailleurs légitime) et choisissant arbitrairement sa valeur afin de rendre l’Univers statique, comme le voulaient la philosophie dominante de son temps et la sienne propre. Il refusa – même assez violemment – de l’admettre pendant plusieurs années, ce qu’il regretta par la suite3. Pourtant la constante cosmologique dont il contesta ensuite la réalité n’était pas une si mauvaise idée, et son abandon a été à l’origine d’une controverse qui a duré soixante ans. 3. Bien qu’il n’ait probablement jamais dit que « c’était la plus grande erreur de sa vie » – car il considérait certainement que la construction de la bombe atomique à laquelle il avait participé marginalement en était une bien plus grande ! 15
Introduction
Pour faire évoluer la Science, il faut savoir risquer l’erreur et la controverse, car on ne peut se contenter d’accumuler des faits empiriques sans théorie en arrière-plan, ou l’on ne débouchera sur rien. Il faut donc avancer des idées nouvelles et proposer des observations pour les vérifier. D’une nouvelle expérience naîtra toujours une connaissance plus riche, qu’elle soit prévue ou non, ou qu’elle montre que nos idées précédentes étaient fausses. Il faudra alors accepter le verdict et passer à autre chose. Et souvent l’observation nouvelle posera de nouvelles questions, tout aussi difficiles que les précédentes, et l’on découvrira une fois de plus avec découragement – ou avec excitation, suivant son tempérament – que la Science est sans fin. Un exemple en est la controverse à propos de la valeur de la constante de Hubble, qui en arrive maintenant jusqu’à poser des questions fondamentales remettant peut-être en cause la validité du modèle cosmologique standard. Quelles sont les causes des controverses ? Elles sont diverses et nous les verrons au cours de l’ouvrage. La raison la plus évidente est la méconnaissance à une époque donnée des théories ou des observations nécessaires pour répondre à une question. La discussion part alors dans tous les sens. C’est ainsi que Le Verrier, qui venait de trouver la planète Neptune grâce à ses perturbations sur l’orbite d’Uranus, décida de rechercher la planète Vulcain pour expliquer l’avance incompréhensible du périhélie de Mercure. Il la rechercha désespérément pendant toute sa vie, mais les mêmes effets ne proviennent pas toujours des mêmes causes. Et ce qu’il avait réussi avec Uranus et Neptune ne se renouvela pas. La planète n’existait pas, mais on ne pouvait le savoir, car c’est seulement cinquante ans plus tard qu’on disposa de la théorie explicative avec la relativité générale. Dans ce cas, aucune avancée n’est possible, à moins d’une intuition géniale. Mais celle-ci doit malgré tout être confirmée scientifiquement. Ce fut le cas par exemple pour les Univers-Îles d’Emmanuel Kant, dont l’existence fut prouvée deux siècles après sa proposition. 16
Grandes controverses en astrophysique
Introduction
Une controverse peut s’éterniser par la faute d’un scientifique trop sûr de lui, refusant d’écouter les arguments qu’on lui oppose. Ainsi celle que créa Lord Kelvin, lorsqu’il montra que la durée de vie du Soleil, si elle était due à sa contraction, ne pouvait excéder cinquante millions d’années. Or la détermination de l’âge bien plus élevé de la Terre par les géologues prouvait que ce n’était pas la bonne réponse. Simplement, il manquait alors un pan à la science qui n’arriverait que quarante ans plus tard, la physique nucléaire. Mais Kelvin n’accepta pas ce que lui disaient les géologues, qu’il considéra de façon très méprisante jusqu’à la fin de sa vie. D’ailleurs n’avait-il pas prophétisé à la fin du xixe siècle : « Il n’y a rien à découvrir de nouveau en physique maintenant, il ne reste qu’à faire des mesures de plus en plus précises » ! Ces paroles ne manquent pas de sel lorsqu’on sait qu’au cours des trente années suivantes, nos cadres de pensée ont été complètement transformés par la mécanique quantique et la relativité générale, et que l’Univers a acquis une histoire et une dimension gigantesque ! On se dispute souvent aussi à propos de la paternité d’une découverte. C’est ainsi que la découverte de Neptune expliquant les écarts de la trajectoire d’Uranus avait entraîné une polémique concernant le véritable découvreur de la planète : le Britannique Adams, le Français Le Verrier, qui avaient tous deux prédit sa position, ou l’Allemand Galle qui l’avait observée. On sait maintenant que les calculs d’Adams n’étaient pas aussi exacts que ceux de Le Verrier, et on admet que ce dernier, qui avait d’ailleurs publié le premier, est le découvreur de Neptune. Les disputes abondent d’autant plus qu’une question est importante, car elle suscite de multiples réponses avec chacune ses explications, et parmi celles-ci une seule est bonne, ou disons, moins mauvaise que les autres. Mais le principal est que les disputes finissent par s’éteindre grâce à la confrontation avec les expériences ou les observations. En effet, lorsque les théories sont démontrées fausses après un certain temps, il faut accepter d’éteindre l’incendie et d’écouter les opposants 17
Introduction
et pas seulement ses amis, comme ne le firent pas par exemple Hoyle et ses collègues pour l’Univers stationnaire. Car il n’y a rien de pire que de s’isoler dans son petit cercle scientifique confiné. Lorsque fut découvert le rayonnement cosmologique fossile, ils s’obstinèrent dans leur idée, prônant une émission locale, quitte à tordre les réalités de façon effarante. Il ne faut pas non plus réserver ses annonces au grand public, même si c’est avec un grand talent, avant d’avoir fait valider ses idées par des pairs, car elles risquent fort d’être annulées par la suite. C’est ce qui arriva aux tenants de « la lumière fatiguée » pour expliquer le décalage des galaxies vers le rouge. Il faut ajouter que nous vivons une période particulière où les théories du complot fleurissent grâce au développement de l’Internet et des réseaux sociaux. Ce mode de pensée s’apparente au post- modernisme qui prévaut aussi dans l’art et la philosophie. En science, il a pris la forme du « relativisme ». C’est l’idée très répandue, lancée il y a un demi-siècle par le philosophe des sciences Paul Feyerabend, que toutes les théories proposées pour interpréter les mêmes faits se valent, parce que la science est déterminée autant par des critères sociaux ou subjectifs que rationnels, et qu’il faut donc les prendre toutes en considération. Ce que s’empressent de faire certains médias, à l’affût de belles polémiques génératrices d’audimat. Quoi de plus plaisant que d’entendre deux scientifiques s’écharper pour savoir si les maïs OGM créent ou non d’affreuses tumeurs chez de pauvres petites souris qui ne nous ont rien demandé ? Y a-t-il malhonnêteté ? Chez celui qui n’a pas respecté les méthodes jugées trop strictes de la vérification scientifique, ou chez celui qui s’est peut-être fait payer grassement pour donner une opinion biaisée ? Comment voulezvous que les auditeurs le sachent ? Et je dirais qu’il est aussi monstrueux et inefficace de faire dialoguer devant le public un partisan du créationnisme4 (dont je parlerai 4. Idéologie très répandue aux États-Unis où elle est enseignée au détriment du darwinisme dans certains États, et où il existe même un « musée de la création » où les origines de l’Univers et de la vie sont présentées conformément à la Genèse. 18
Grandes controverses en astrophysique
Introduction
plus loin) avec un cosmologue affirmant que l’Univers est vieux de plusieurs milliards d’années, ou un « platiste » affirmant que la Terre est plate avec un géologue. C’est vouloir marier une carpe avec un lapin. Il faut reconnaître que par les temps de pandémie que nous traversons au moment où j’écris ces pages, on entend tout et son contraire à propos de ce maléfique virus et de la manière d’y résister. Il faut avoir la foi du charbonnier pour croire encore ce que disent les scientifiques. Il faudrait que chacune de leurs phrases commence par un avertissement prévenant qu’il s’agit en partie d’hypothèses non étayées, et se termine par des probabilités. Or c’est ce que le public n’aime pas entendre car il aime les certitudes. Ne croyez cependant pas que ces disputes sont toutes violentes, car elles se produisent pour la plupart dans le milieu feutré des publications scientifiques. Il faut rechercher alors les dissensions au sein de ces articles, et elles n’apparaissent qu’aux spécialistes du sujet, dans un langage terne et austère. C’est par contre dans les congrès que l’on voit émerger des disputes violentes, parfois à la limite du pugilat, comme je l’ai vécu à propos des quasars. Pour celles que je n’ai pas vécues personnellement, je me suis efforcée d’en trouver des descriptions orales ou écrites par des collègues qui y ont assisté. SPÉCIFICITÉ DE L’ASTROPHYSIQUE L’astrophysique est une science jeune, née il y a à peine deux siècles. C’est donc un bébé comparé à sa grande sœur, l’astronomie, qui remonte à cinq mille ans ou même plus, et que l’on considère comme la science la plus ancienne. Mais, à part chez quelques Grecs incroyablement lucides, c’était un savoir abstrait et ontologique, réduit à l’étude des positions des astres et à son corollaire, l’astrologie. On estime généralement que l’astronomie ne devint une véritable science (c’est‑à-dire prédictive) qu’avec Copernic, et surtout avec Kepler et Newton, qui déterminèrent les lois de leurs mouvements. Elle atteignit son apogée avec la mécanique céleste, discipline dans laquelle 19
Introduction
les Français tinrent le haut du pavé pendant tout le xixe siècle, et ont encore une place prépondérante dans le concert mondial. L’astrophysique (l’étude de la physique des astres, comme son nom l’indique) a pris son essor dans la deuxième moitié du xixe siècle. On peut lui fixer un début précis en 1811, lorsque François Arago montra5 que le Soleil est un gaz incandescent, et non un liquide ou un solide. C’était la première fois qu’on apprenait quelque chose concernant la nature physique d’un astre. Mais beaucoup la font plutôt remonter aux années 1820 lorsque Fraunhofer dispersa la lumière du Soleil avec un prisme et observa à sa grande surprise une multitude de raies sombres se surimposant à une lumière continue. Il fallut plus de quarante ans ensuite pour identifier ces « raies spectrales » à celles d’éléments connus sur Terre, et certains ne purent être identifiés qu’un siècle après leur découverte. En effet, l’astrophysique est un tronc qui marche sur deux jambes sans lesquelles il ne peut progresser : il lui faut à la fois les connaissances en physique et les développements techniques. En ce qui concerne la physique, elle fut impulsée essentiellement par l’identification en laboratoire des raies spectrales, la thermodynamique et la mécanique statistique, et au début du xxe siècle, par les débuts de la mécanique quantique et la physique nucléaire. Quant aux seconds, elle le fut principalement par les mesures des parallaxes des étoiles proches qui permirent de mesurer leurs distances, par l’invention de la spectroscopie* et celle de la photographie. À partir des années 1930, la physique progressa à pas de géant avec corrélativement un formidable développement technologique, le tout entraînant les progrès fulgurants de l’astrophysique. L’astrophysique possède une spécificité parmi les sciences physiques car sa méthode diffère de celle que j’ai décrite plus haut. En effet, à part avec les sondes spatiales envoyées depuis quelques années explorer in situ les objets du Système solaire (planètes, astéroïdes, comètes), les astrophysiciens ne peuvent pas expérimenter. L’expérience y est remplacée par l’observation, en particulier celle du rayonnement 5. Par la polarisation. 20
Grandes controverses en astrophysique
Introduction
électromagnétique qui parvient de tous les corps célestes. Ce rayonnement qui s’étend sur plus de vingt ordres de grandeur en longueur d’onde transporte heureusement une immense quantité d’informations (vitesses, température et pression, variabilité, polarisation…). Et depuis une quarantaine d’années, avec le développement de l’héliosismologie et de l’astérosismologie, on ne se contente pas d’observer le rayonnement de l’atmosphère des étoiles (soit un cent millionième de milliardième de leur masse…), on parvient même à connaître l’intérieur des étoiles grâce aux vibrations de leur atmosphère. Outre le rayonnement électromagnétique, les corps célestes envoient d’autres signaux, rayons cosmiques, neutrinos, et depuis peu, ondes gravitationnelles. Cette panoplie de messages, couplée au nombre gigantesque d’objets observables qu’il est possible de comparer, et dont on peut même tirer des prédictions, permet à l’astrophysique de tenir son rang parmi les sciences physiques expérimentales. Mais naturellement, lorsqu’on « expérimente » ainsi, c’est seulement par l’intermédiaire de théories physiques et de modèles que l’on peut déduire la nature et les propriétés des objets. C’est pourquoi les astrophysiciens ont développé une science de la modélisation et de la simulation numérique de haut niveau. J’en profite pour épingler cette phrase du philosophe français Auguste Comte publiée en 1835 dans son Cours de philosophie positive : « En ce qui touche les étoiles, nous ne saurons jamais étudier par aucun moyen leur composition chimique. » Non seulement moins d’un siècle plus tard on connaissait parfaitement les éléments chimiques contenus dans leur atmosphère, mais on allait connaître bientôt l’état de la matière à l’intérieur des étoiles et jusqu’à leur cœur ! S’il avait vécu un siècle plus tard, Auguste Comte aurait gagné à méditer cette phrase du grand penseur Bertrand Russell : « La philosophie tire sa valeur de son incertitude même… » Pour terminer cette introduction, j’ajouterai qu’il ne faut pas s’attendre à trouver un ouvrage historique dans ce petit essai, qui se concentre sur quelques controverses que j’ai cru amusant de pointer. 21
Introduction
D’ailleurs il est impossible d’être exhaustif dans ce domaine, car il n’existe quasiment pas de sujet de recherche, aussi mince soit-il, qui se soit développé sans donner lieu à une ou plusieurs controverses, puisque c’est le rôle même des scientifiques de douter et de critiquer. Je tenterai de montrer qu’elles ont été bénéfiques car ce sont elles qui construisent notre expérience de chercheurs, et c’est grâce à elles que se sont souvent dégagées de nouvelles voies de recherche. Je privilégierai les histoires bien documentées mais peu connues du public (à part les canaux de Mars !) et je développerai plus longuement celles qui me paraissent les plus importantes dans le développement de la science et que j’ai bien connues. Je tenterai de suivre un ordre plus ou moins chronologique, en commençant par les plus anciennes, mais c’est chose difficile car certaines ont duré plus d’un siècle. On peut cependant les lire dans n’importe quel ordre, ce qui explique que j’ai été amenée parfois à me répéter pour que chaque chapitre soit compréhensible indépendamment des autres. Chaque controverse sera d’abord replacée dans son contexte historique. Elle sera suivie par la solution du problème et par les perspectives qu’elle a éventuellement ouvertes sur d’autres sujets. L’ouvrage comprend un glossaire où sont expliqués certains termes scientifiques qui ne sont pas toujours connus des non-scientifiques. Ils sont marqués d’une étoile dans le texte. Comme les chapitres peuvent être lus dans un ordre arbitraire, cette étoile est présente chaque fois que le terme intervient. Des encadrés sont également aménagés en accompagnement du corps du texte, pour apporter des explications supplémentaires à ceux qui désirent approfondir une question. Ils peuvent être sautés sans problème. J'ajoute que je remercie Paul-Etienne Zahn qui a accepté de faire avec son talent habituel quelques dessins humoristiques qui, j’espère, distrairont les lecteurs. Je remercie également l’éditeur EDP Sciences, ainsi que Sophie Hosotte qui m’a beaucoup aidée à mettre ce livre en forme.
22
Grandes controverses en astrophysique
LA DIFFICILE CLASSIFICATION STELLAIRE
Il s’écoula un siècle entre le moment où Joseph Fraunhofer observa les raies spectrales* du Soleil et le moment où une jeune anglaise, Cecilia Payne, allait réussir à interpréter les spectres* des étoiles. Ce siècle fut riche en découvertes mais également en controverses, le travail à accomplir étant immense et tout étant nouveau dans cette aventure. Ce chapitre est donc un peu plus long que les autres, car il englobe pratiquement tous les débuts de l’astrophysique. Fraunhofer pointa un télescope également sur les planètes et constata qu’il retrouvait les mêmes raies que dans le Soleil (qu’on appela plus tard « les raies de Fraunhofer »), ce qui lui permit de déduire que les planètes n’émettent pas de rayonnement par ellesmêmes et se contentent de réfléchir la lumière du Soleil. Par contre, lorsqu’il observa Sirius puis bientôt d’autres étoiles, il découvrit que les raies différaient d’une étoile à l’autre. Malheureusement la spectroscopie de laboratoire n’était pas encore suffisamment développée, et il fallut attendre quarante ans pour que l’on commençât à comprendre ces spectres. Entre-temps une invention commençait à se répandre partout dans le monde : c’était la photographie, inventée par les Français Nicéphore Niépce et Louis Daguerre. En 1839, François Arago, futur directeur 23
La difficile classification stellaire
de l’Observatoire de Paris, présenta à l’Académie des sciences le « daguerréotype ». Il aurait dû s’appeler le « niépceéotype », ou au moins « daguerréotype-niépceéotype », car l’idée originale était due à Niépce, mort prématurément, dont Daguerre avait assez malhonnêtement confisqué l’invention. Désormais les spectres du Soleil et des étoiles furent obtenus par ce procédé beaucoup plus sensible que l’œil grâce au temps de pose ; de plus, il évitait d’avoir à dessiner les spectres, dont il dévoila même la partie ultraviolette. Les Allemands Gustav Kirchhoff et Robert Bunsen6 identifièrent de nombreuses raies produites par différents gaz incandescents. De leur côté, les Anglais William Huggins et William Miller entreprirent en 1864 une vaste étude spectrographique des étoiles à bonne résolution. Ils trouvèrent qu’elles contenaient du carbone, du fer, du calcium, du magnésium, du sodium, du nickel, du chrome et d’autres éléments présents sur Terre. Huggins nota : « Il est remarquable que les éléments les plus répandus […] sont ceux qui sont indispensables à l’existence des organismes vivants. » Darwin n’était pas loin… Le jésuite italien Angelo Secchi étudia les spectres de 4 000 étoiles et constata leur diversité extraordinaire7. Il avait fondé l’Observatoire Collegio Romano qu’il pouvait utiliser à sa guise, et il bénéficiait d’un support généreux de la part du pape Pie IX. Ce qui explique peutêtre qu’il publia environ 700 articles en 30 ans, donc il en écrivait à peu près un tous les quinze jours ! Il s’attaqua à la classification des spectres vers 1870 et distingua quatre classes liées à leur couleur. Puis les classifications se multiplièrent (à la fin du xixe siècle, il paraît qu’on en dénombrait jusqu’à 23 !) et on commença alors à se disputer. Les idées divergeaient sur ce qui relie les intensités des raies spectrales à la couleur, et certains pensaient que les étoiles évoluent et changent à la fois de composition et de température. L’idée prévalait que les 6. Quand j’étais petite, à force d’entendre parler de lui dans le laboratoire de mon père, je croyais que son prénom était « Bec ». 7. Les jésuites ont toujours joué un rôle important en astronomie. Le jésuite le plus célèbre dans l’histoire de l’astrophysique est Georges Lemaître, que nous retrouverons dans un autre chapitre. 24
Grandes controverses en astrophysique
La difficile classification stellaire
éléments chimiques présents sur Terre se retrouvaient dans le Soleil et les étoiles, mais que leurs abondances différaient considérablement d’un objet à l’autre. Et pourtant, à peine quelques années plus tard, dans des pièces surpeuplées de l’Observatoire de Harvard aux États-Unis, des dames affairées vont mettre sur pied la classification stellaire toujours en vigueur aujourd’hui, et une jeune étudiante en thèse utilisant cette classification en trouvera la bonne explication. Henry Draper était professeur de médecine. Devenu riche grâce à son mariage, il décida de se consacrer à l’astronomie, en particulier à l’astrophotographie. Malheureusement, il mourut en 1882 à l’âge de 45 ans et sa veuve éplorée décida de fonder un prix qu’elle donna à l’Observatoire de Harvard, pour mesurer les positions des étoiles, les spectrographier, les classer et en faire un catalogue en hommage à son époux. Ce fut le Henry Draper Catalogue, qui contenait plus de 225 000 étoiles lorsqu’il fut publié de 1918 à 1924. On l’utilisait encore lorsque j’ai commencé ma recherche, et on trouve souvent des articles où sont mentionnées des étoiles dont le nom commence par HD. Edward Pickering était alors directeur de cet observatoire depuis 1876. On était au début d’une révolution comparable, toutes proportions gardées, à celle qui s’est produite au tournant du xxie siècle avec l’introduction des grandes banques de données et la mise sur pied de grands projets. Il fallait des « managers » pour les diriger et lever des fonds. Pickering était le directeur rêvé pour ce travail. Il recruta de brillants jeunes hommes pour observer (car les femmes étaient interdites de télescope…), et il enrôla une armada pour analyser les spectres. Mais ce fut une armada féminine, car Pickering s’était aperçu que les femmes accomplissaient cette tâche avec plus de soin et de précision que les hommes. Et, détail non négligeable, elles se faisaient payer beaucoup moins cher. Il commença par recruter sa propre bonne, Williamina Fleming, qui y fit merveille. Outre Williamina, parmi la quinzaine de « calculatrices » qui formèrent pendant une vingtaine d’années le « harem de Pickering », trois 25
La difficile classification stellaire
se distinguèrent particulièrement : Antonia Maury, Antonia Jump Cannon et Henrietta Leavitt. Antonia Maury était la nièce de Henry Draper. Antonia Cannon fit la contribution la plus importante en nombre d’étoiles classées (on dit qu’elle parvenait à classer une étoile en un coup d’œil). C’est elle qui publia avec Pickering le Catalogue Henry Draper, et qui créa le système de classification adopté depuis, OBAFGKM (oh be a fine girl/guy kiss me). Elle fut la seule à parvenir au grade de docteur et à être nommée officiellement membre de l’Observatoire… à l’âge de 75 ans ! Quant à la troisième, Henrietta Leavitt, je reviendrai sur elle dans un autre chapitre. LA BATAILLE CANNON/MAURY La période de 1885 à 1910 fut marquée par la controverse qui opposa Maury d’un côté, à Cannon et Pickering de l’autre. À sa sortie du collège réputé Vassar qu’elle fréquenta, Antonia Maury fut recrutée par Pickering pour travailler sous les ordres de Williamina Flemming. Antonia n’avait visiblement pas un caractère très souple, car dans le livre publié sur l’Observatoire de Harvard entre 1839 et 1919, elle est reconnue comme « la plus originale ainsi que la plus insaisissable parmi les femmes astronomes de Harvard ». Cannon était réputée pour travailler comme une brute, mais aussi pour se refuser à toute interprétation théorique. Sa classification correspondait grosso modo à la température de surface des étoiles. Les éléments importants étaient l’hydrogène, l’hélium, le carbone, l’azote, l’oxygène, le silicium, et même le fer, bref tous ceux que l’on avait réussi à identifier grâce à leurs raies d’absorption dans le spectre solaire et en laboratoire. Contrairement à Cannon, Maury adorait réfléchir à ce qu’elle faisait, au détriment de la rapidité, et c’est ce que lui reprochait Pickering. Ils étaient en conflit permanent. Il l’avait humiliée (d’après elle) en ne reconnaissant pas sa contribution dans un article qu’il avait publié à propos de l’étoile Zeta Ursae Majoris, et elle décida de quitter Harvard. Elle écrivit à cette occasion : « Je ne pense pas qu’il soit correct de remettre mon travail à d’autres mains 26
Grandes controverses en astrophysique
La difficile classification stellaire
que les miennes. J’ai travaillé pour élaborer une théorie au prix de beaucoup de peines et de comparaisons compliquées et je pense que je dois recevoir le crédit de ma classification. » Maury prônait une division des étoiles en 22 groupes de température décroissante, et avait de plus classé les étoiles en fonction des largeurs des raies spectrales en trois catégories : la classe a, avec des raies larges et bien définies, la classe b avec des raies larges mais floues, et la classe c avec des raies fortes de l’hydrogène, mais étroites et bien définies. Il y avait également une classe ac. Ce classement prenait en compte des caractéristiques qui permettront plus tard de distinguer les naines et les géantes. Maury se rendit alors au Danemark chez Ejnar Herzsprung, qui commençait à élaborer le fameux diagramme de HertzsprungRussell*. En 1905, il déclara que la séparation de Maury en classe c et ac « est l’avancement le plus important dans la classification stellaire. Négliger l’existence de la classe c est à peu près comme si un zoologiste décidait de continuer à classer ensemble un poisson et une baleine ». Antonia Maury travailla par la suite sporadiquement à Harvard pour achever la publication de son propre catalogue, mais elle n’y retourna définitivement qu’en 1919 après la mort de Pickering et la nomination comme directeur de Harlow Shapley, un astronome aux idées beaucoup plus avancées que Pickering, celui-là même qui allait défendre bientôt l’idée que les nébuleuses spirales faisaient partie de la Voie lactée (c’est l’objet d’un autre chapitre). Ironiquement, elle reçut le prix Annie Cannon de la Société astronomique américaine en 1943, à l’âge de 77 ans ! Et en 1978, elle fut qualifiée par William Morgan, le père avec Keenan et Kellman du système MKK de classification stellaire utilisé actuellement, du « plus grand esprit qui se soit jamais engagé dans le domaine de la morphologie des spectres stellaires ». Mais tout ceci n’est pas la fin de l’histoire, car en 1920, on ne comprenait pas pourquoi certaines raies, comme les raies de Balmer*, étaient très intenses dans les étoiles B, tandis que les raies d’éléments 27
La difficile classification stellaire
métalliques devenaient très nombreuses et très intenses dans les étoiles froides. UNE JEUNE ASTRONOME TROP MODESTE C’est sur ces entrefaites qu’arriva à l’Observatoire de Harvard une jeune femme, Cecilia Payne, qui désirait y effectuer une thèse. Cecilia était née dans une famille intellectuelle anglaise, et elle avait perdu son père très tôt. À 19 ans, elle décrocha une bourse en sciences naturelles qui lui permit d’entrer au Newnham College de l’université de Cambridge en 1919 où elle étudia la biologie et la botanique. Mais après avoir assisté à une conférence de Arthur Eddington racontant son expédition en Afrique destinée à vérifier la théorie de la relativité générale en photographiant une éclipse, elle changea d’avis et décida de faire de l’astronomie. Elle obtint son diplôme en sciences en 1923. Or les postes de chercheurs étaient fermés aux femmes en Grande-Bretagne (celle-ci a toujours eu une politique de discrimination envers les femmes bien plus généralisée que dans le reste de l’Europe, et même qu’aux États-Unis). Cecilia obtint alors une bourse pour l’Observatoire de Harvard et partit y faire une thèse en 1923. En moins de deux ans, et ayant passé presque tout son temps à mesurer des spectres, elle rédigea sa thèse qu’elle passa en 1925 sous la direction de Harlow Shapley, alors directeur de l’Observatoire. Otto Struve, directeur de l’Observatoire Yerkes, et pas le moins anti- féministe des astronomes8, considérait cette thèse comme « la meilleure jamais écrite ». Non seulement elle représentait une véritable rupture de pensée en astrophysique, mais c’était une revue exhaustive de tout ce 8. Il a par la suite refusé la candidature de Margaret Burbidge, lui préférant son mari Geoffrey, théoricien. C’était pour effectuer des observations avec la grande lunette de l’Observatoire de Yerkes. Or Geoffrey Burbidge en était complètement incapable, et ce fut donc Margaret qui observa à la place de son époux dans le plus grand secret, car les femmes n’avaient pas le droit de se rendre la nuit au télescope – on a dit que c’étaient les épouses des astronomes elles-mêmes qui s’y étaient opposées. Ce n’est qu’en 1960 que le télescope du mont Palomar fut ouvert officiellement aux femmes. Margaret est devenue plus célèbre que son époux par la suite, étant en particulier la première femme « astronome royale » en Angleterre. 28
Grandes controverses en astrophysique
La difficile classification stellaire
que l’on savait théoriquement sur les spectres à l’époque, au point que Shapley décida qu’elle serait publiée sous la forme d’un livre : ce fut la première monographie de Harvard, et elle fut suivie par bien d’autres. Mais qu’avait donc cette thèse de si révolutionnaire ? C’est que Cecilia y montrait, en s’appuyant sur la théorie récente de l’Indien Meghnad Saha, que les intensités des raies spectrales ne sont pas déterminées seulement par l’abondance de l’élément correspondant, mais surtout par la température9. Lorsque l’on applique cette théorie à l’hydrogène, on trouve que les raies de la série de Balmer* ne peuvent apparaître que dans des étoiles ayant une température de surface voisine de 10 000 degrés, donc des étoiles B. Dans les étoiles plus chaudes, tous les atomes d’hydrogène ont perdu leur électron périphérique et ne créent plus de raies spectrales, et dans les étoiles plus froides, ils ne sont pas assez excités, et la série de Balmer n’apparaît plus. C’est ainsi que Cecilia s’aperçut que l’hydrogène devait, et de loin, être l’élément dominant dans toutes les étoiles, contrairement à ce que l’on pensait alors. En définitive, Cecilia avait montré que, contrairement à ce que l’on croyait, les abondances des éléments chimiques sont à peu près les mêmes dans toutes les étoiles (à part dans quelques étoiles particulières) et surtout que l’hydrogène est beaucoup plus abondant que les autres éléments, à l’exception de l’hélium. L’un des examinateurs de sa thèse, Henri Norris Russell (celui du diagramme de Hertzsprung-Russell*) qui avait été le directeur de la thèse de Shapley, n’était pas d’accord avec le résultat concernant l’hydrogène qui lui paraissait trop révolutionnaire. En conséquence, bien que Cecilia ne retirât pas le calcul correspondant de sa thèse, elle ne lui donna aucun impact, et ne le signala même pas dans la conclusion. Mais Russell publia en 1929 une analyse montrant qu’effectivement l’hydrogène est « incroyablement » plus abondant que les 9. Plus précisément, c’est le degré d’ionisation de ces éléments qui varie beaucoup en fonction de la température, et c’est lui qui détermine les intensités des raies. 29
La difficile classification stellaire
autres éléments à la surface des étoiles. Il nota que Payne (qu’il appelle « miss » dans son article, alors qu’elle était « docteur »10) avait trouvé le même résultat dans sa thèse quatre ans plus tôt. Mais c’est lui qui fut crédité de cette découverte par la suite. Devenue citoyenne américaine en 1931, Cecilia rencontra un astronome émigré russe Sergei Gaposchkin, qu’elle aida à obtenir un visa pour les États-Unis. Elle l’épousa, eut trois enfants, et se consacra alors avec lui à l’étude des magnitudes des étoiles, ce qui permettait de les classer et de déterminer leur évolution. Elle n’obtint un poste fixe à Harvard qu’en 1938 et devint en 1956 la première femme chef du département d’astronomie de l’université. Elle continua à travailler jusqu’à sa mort, en 1979. J’ai eu la chance de la rencontrer au cours d’une visite à Harvard en 1976, et de discuter longuement avec elle. C’était une personne très généreuse. Elle m’a entre autres donné des résultats non publiés de ses observations de novae*, ce qui m’a permis d’écrire un article à mon retour en France. À l’occasion de la célébration du vingtième anniversaire de la mort de Russell, Cecilia donna une conférence intitulée « The HR Diagram, In Memory of Henry Norris Russell ». Elle y parlait naturellement de la mesure des abondances des éléments dans les étoiles. Elle mentionna que dans son article de 1929, Russell avait déterminé les abondances de 56 éléments dans l’atmosphère solaire, et qu’il avait noté que l’hydrogène est « excessivement abondant ». Elle ne mentionna pas que c’était elle-même qui avait trouvé la première ce résultat cinq ans avant lui… L’Univers était désormais constitué en nombre pour 90 % d’hydrogène et pour 8 % d’hélium, les autres éléments réunis ne représentant que 2 %. Grâce aux progrès de la mécanique quantique, on découvrit alors que la source principale d’énergie des étoiles provient de la fusion de quatre atomes d’hydrogène en un noyau d’hélium. Mais ceci est une autre histoire… 10. Par contre, Eddington et Menzel y sont qualifiés de « professeurs », mais ce devait être l’habitude de l’époque. 30
Grandes controverses en astrophysique
LORD KELVIN ET LES GÉOLOGUES
Il paraît que c’est Newton qui se demanda le premier ce qui faisait briller le Soleil. Il fallut plus de deux siècles pour répondre à cette question après une dispute mémorable. Au début du xixe siècle, on ne savait même pas quelle quantité d’énergie rayonnait le Soleil par seconde. Le Français Claude Pouillet inventa en 1831 un appareil, le pyrhéliomètre, pour déterminer ce qu’il appela « la constante solaire ». Le nom lui est resté. Son appareil mesurait l’évolution de la température d’une masse d’eau et il en déduisait la quantité de chaleur qu’elle avait reçue11. Un principe certes simple, mais apparemment pas facile à mettre en œuvre. Après des débuts modestes comme répétiteur de physique, Pouillet avait fait une ascension tranquille jusqu’à être nommé professeur à l’École polytechnique puis au Conservatoire royal des arts et métiers. Il était partout remarqué pour ses cours extrêmement clairs, qui impressionnèrent même le Britannique William Thomson, futur Lord Kelvin, que nous allons retrouver tout au long de cette histoire. Pouillet avait été jusqu’à faire construire pour montrer la force du magnétisme à ses étudiants, un énorme 11. Ses résultats sont assez bons : 1 230 W/m2, au lieu de 1 367 actuellement. 31
Lord Kelvin et les géologues
électro-aimant en fer à cheval qui pouvait soulever sur une plateforme huit d’entre eux ! John Herschel (le fils de William) détermina la valeur de la constante solaire par une méthode un peu différente et trouva un résultat semblable : la quantité de chaleur émise par le Soleil était voisine de 10 puissance 26 watts, une quantité presque inimaginable dont il fallait comprendre l’origine. L’idée la plus simple que le Soleil était une boule de feu en train de se refroidir ne tenait pas, car on pouvait montrer qu’il s’éteindrait en moins de 5 000 ans, ce qui n’est clairement pas le cas. Même conclusion avec l’énergie chimique que calcula le physicien allemand Julius Robert Mayer : si le Soleil était une boule de charbon entourée d’oxygène – on peut facilement imaginer que c’était le cas le plus favorable –, il se consumerait également en 5 000 ans. L’idée que l’énergie de rotation du Soleil se dissiperait en chaleur donnait un résultat encore pire : il suffisait de cent ans pour qu’elle soit entièrement rayonnée. Mayer eut alors une autre idée, très astucieuse : si de petits corps comme des comètes ou des astéroïdes tombent sur le Soleil, leur énergie de mouvement peut être convertie en chaleur et en lumière, exactement comme les météorites arrivant dans l’atmosphère terrestre s’échauffent et deviennent des « étoiles filantes » avant de tomber sur la Terre. C’est un mécanisme mille fois plus efficace énergétiquement que la combustion du charbon. De plus, il pouvait expliquer les taches solaires, qui étaient des sortes de cratères d’impacts dans l’esprit de Mayer. Mais cette théorie ne fut pas prise au sérieux et Mayer, découragé, fit même une tentative de suicide qui le laissa estropié. S’il s’était limité à ses météorites et n’avait pas invoqué les taches solaires, sa théorie aurait eu probablement plus d’impact. C’est souvent en voulant trop démontrer que l’on suscite le doute. Toutefois, une idée un peu semblable fit son chemin dans la tête d’un ingénieur écossais, John Waterstone. Il remarqua que si le Soleil se contractait de 300 mètres par an, l’énergie gravitationnelle libérée 32
Grandes controverses en astrophysique
Lord Kelvin et les géologues
suffisait à rendre compte de la constante solaire. Et le Soleil pourrait vivre beaucoup plus longtemps, jusqu’à un million d’années. Cette idée enthousiasma William Thomson, qui n’était pas encore Lord Kelvin. William Thomson était né en 1824 à Belfast. Son père devint professeur à l’université de Glasgow où William fut ensuite étudiant avant d’être admis au collège Peterhouse de Cambridge. Il reçut en 1845 le grade de « second » de la division supérieure : être seulement second lui causa un dépit immense dont il se remit difficilement. On raconte qu’il aurait demandé à un membre du jury : « Qui est second ? », persuadé qu’il était premier, et que l’autre lui aurait répondu : « Mais c’est vous ! ». Il fut néanmoins nommé en 1846 professeur de « philosophie naturelle » (physique) à Glasgow, fonction qu’il n’abandonna qu’en 1899. Lors de son anoblissement en 1892, Thomson choisit le titre de baron Kelvin de Largs, du nom de la rivière Kelvin qui coulait à proximité de son laboratoire. Spécialiste de thermodynamique (c’est lui qui donna son nom aux degrés Kelvin, qui sont comptés à partir du zéro absolu), il était également excellent mathématicien et très habile technicien. Thomson discuta avec l’Allemand Hermann von Helmholtz. Celui-ci prônait la théorie du grand savant Pierre Simon de Laplace selon laquelle le Système solaire se serait formé à la suite de la condensation d’une nébuleuse12. Il y avait donc toutes les chances qu’il soit encore en contraction. Kelvin et Helmholtz calculèrent la durée de vie du Soleil due à cette contraction, qu’on appelle maintenant « le temps de Kelvin-Helmholtz », et trouvèrent qu’elle est de quelques dizaines de millions d’années13. Ils calculèrent aussi le temps de contraction de la Terre, et trouvèrent qu’il est également de l’ordre de quelques dizaines de millions d’années. Les deux temps étaient du même ordre, 12. Tout le monde connaît la réponse de Laplace à Napoléon qui lui demandait « Et Dieu, dans tout ça ? » « Sire, je n’ai pas eu besoin de cette hypothèse ! ». 13. Elle est égale à l’énergie gravitationnelle du Soleil, GM2/R, où G est la constante de la gravitation, M et R la masse et le rayon du Soleil, divisée par sa luminosité L. 33
Lord Kelvin et les géologues
donc tout allait bien, puisqu’on pensait que la Terre s’était formée à peu près au même moment que le Soleil. Hélas, tout n’allait pas si bien, car les géologues, eux, trouvaient que la Terre était âgée d’au moins 100 millions d’années. Mais Kelvin n’avait que mépris pour les géologues, car il pensait que ceux-ci ne connaissaient rien à la physique. Il affirmait donc que les géologues se trompaient, et comme il était très connu, c’est lui que l’on crut… Les géologues n’étaient cependant pas les seuls à penser que la Terre était très âgée, il y avait aussi Charles Darwin. Dans son livre L’Origine des espèces, publié en 1859, il envisageait pour la Terre un âge de plusieurs centaines de millions d’années, nécessaire pour la sélection naturelle. C’était une grosse pierre dans le jardin de Kelvin, qu’il élimina en refusant de croire à la théorie de l’évolution. Kelvin était probablement le scientifique le plus connu en Angleterre à la fin du xixe siècle. Malheureusement, il était très sûr de son génie et il admettait difficilement qu’on le contredise. En fait, dans la publication en 1862 de sa théorie du refroidissement du Soleil et de la Terre (il n’avait alors que 38 ans), il avait réussi à calculer un âge de la Terre de quelques dizaines de millions d’années en faisant plusieurs hypothèses très discutables, mais qui disparaissaient tant ses démonstrations étaient brillantes et convaincantes. Dans les années suivantes, une énorme controverse se développa donc entre Kelvin et les géologues. L’un des arguments forts de Kelvin était qu’il n’y avait aucune raison que dans le passé la Terre ait été dans le même état qu’actuellement, et que probablement elle avait eu une activité volcanique plus importante ; on ne pouvait donc pas déduire son âge de son état présent. Comme on le sait maintenant, il avait raison pour l’activité volcanique, mais il ne la plaçait pas au bon moment. Un autre argument que Kelvin utilisa également était qu’on devait pouvoir calculer l’âge de la Terre à partir de son renflement à l’équateur dû à sa rotation, qui avait dû mettre un certain temps à se mettre en place. Cet argument fut balayé par l’un des fils de Darwin, Georges, qui était mathématicien, ceci à la grande joie de son père. 34
Grandes controverses en astrophysique
Lord Kelvin et les géologues
Pourtant, à la fin du xixe siècle, la thèse de Kelvin concernant la durée de vie courte de la Terre semblait avoir gagné sur celle des géologues. En fait la chute de Kelvin fut due avant tout à sa position trop dogmatique, ainsi qu’à celle de certains de ses admirateurs. Ainsi Peter Guthrie Tait, un mathématicien qui adorait les querelles, écrivit une revue dans laquelle il citait un âge de la Terre plus court que les estimations les plus extrêmes de Kelvin : « Nous pouvons affirmer avec certitude que la philosophie naturelle conduit déjà à un temps de l’ordre de 10 à 15 millions d’années qui sont permis en tout pour le géologue et le paléontologue ; et qu’il n’est pas du tout impossible, qu’avec de meilleures données, cette durée soit encore réduite. » Les géologues avaient donc l’impression qu’on se moquait d’eux puisqu’en dépit de leurs propres efforts pour accepter les limites fixées par Kelvin, les physiciens ne faisaient rien pour admettre les faits venant de la géologie. En 1894, un scientifique influent, le Britannique Robert Cecil, marquis de Salisbury, utilisa même l’estimation de l’âge de la Terre de Kelvin pour critiquer violemment la thèse de Darwin. Le grand biologiste Thomas Huxley (grand-père de Aldous Huxley, l’auteur du Meilleur des mondes), surnommé « le bouledogue de Darwin », écrivit alors très justement à propos de Kelvin : « Les mathématiques peuvent être comparées au moulin très élaboré d’un meunier qui produit de la farine particulièrement fine ; néanmoins ce que vous obtenez dépend de ce que vous y introduisez et le meilleur moulin au monde ne transformera pas des cosses de petits pois en farine de blé, ainsi des pages de formules mathématiques ne produiront pas de résultat définitif à partir de données discutables. » Tout ceci poussa plusieurs physiciens – au départ animés des meilleures intentions envers Kelvin qu’ils admiraient – dont un de ses anciens étudiants en thèse, John Perry, à se pencher sur ses calculs et à s’apercevoir de leurs faiblesses. Ils en déduisaient que la Terre pouvait bel et bien être âgée de plusieurs milliards d’années comme l’affirmaient les géologues. En particulier, tout dépendait des mouvements 35
Lord Kelvin et les géologues
convectifs qui devaient se produire sous l’écorce terrestre et ralentir son refroidissement. Mais Kelvin persista jusqu’à sa mort dans son opinion que le Soleil et la Terre étaient plus jeunes que ne le pensaient les géologues, même lorsqu’on découvrit une nouvelle source d’énergie possible pour les étoiles. Ce qu’il faut malgré tout souligner dans cette histoire où Kelvin s’est illustré par son acharnement à soutenir ses idées en dépit des évidences, c’est que sur le plan de la physique pure, il avait raison. On avait affaire à une théorie juste utilisée dans un mauvais contexte. HEUREUSEMENT, LA PHYSIQUE NUCLÉAIRE ARRIVA… Au début du xxe siècle, la source d’énergie du Soleil et des étoiles était donc encore un mystère. Il ne fut résolu que lorsqu’on posséda les connaissances nécessaires, aussi bien théoriques qu’expérimentales. En 1896, le physicien Henri Becquerel découvrit par hasard la radioactivité* (on lui donna ce nom un peu plus tard) : les noyaux d’atomes instables se désintègrent en émettant des particules et du rayonnement. Sept ans plus tard, Pierre Curie montrait que les particules de radium émettent de la chaleur : c’était la découverte de l’énergie nucléaire. Quelques mois après, un astronome irlandais, William Wilson, qui tentait de déterminer la température de surface du Soleil, émit l’hypothèse que la radioactivité pourrait expliquer l’énergie rayonnée par le Soleil et les étoiles. Malheureusement, bien que son court article fût publié dans la prestigieuse revue Nature, on n’y prêta pas attention, probablement parce qu’il n’était pas universitaire et était peu connu. Mais en 1904, le physicien britannique Ernest Rutherford montra, en utilisant les abondances des isotopes* stables d’éléments comme l’uranium, que l’âge de la Terre est d’au moins 700 millions d’années. On sait que cette méthode consistant à comparer les abondances des produits de désintégration des isotopes radioactifs et à coupler ces résultats avec leurs demi-vies connues, est maintenant utilisée largement pour la datation des roches, et même, depuis que sa précision 36
Grandes controverses en astrophysique
Lord Kelvin et les géologues
s’est considérablement accrue, pour l’archéologie et la datation des objets d’art. Cependant, Kelvin s’obstinait dans son déni, proposant que les atomes prennent l’énergie de l’éther (ce concept allait disparaître définitivement avec la relativité restreinte, mais il est probable que Kelvin, qui allait mourir deux ans plus tard, n’était même pas au courant des travaux d’Einstein) et qu’ils la réémettent en se désintégrant. À partir de ce moment, il acquit la réputation de quelqu’un qui s’accrochait avec obstination à ses idées anciennes, et il perdit toute estime de la part de ses collègues scientifiques. Hélas, il y a d’autres exemples semblables dans ce livre… Kelvin n’avait cependant pas complètement tort ! Car la radio activité était totalement incapable de rendre compte de la source d’énergie du Soleil, même en supposant qu’il eût contenu énormément d’uranium (ce qui n’apparaissait pas dans son spectre). Mais la relativité restreinte de 1905 avait également montré l’équivalence entre la masse et l’énergie avec la célèbre loi E = Mc2. Il fallait trouver ce qui constituait la « masse » dans cette affaire. Presque trente ans furent encore nécessaires pour y parvenir. En 1920, le chimiste britannique Francis William Aston montra grâce à son spectromètre de masse* que la masse d’un noyau d’hélium, composé de deux protons* et de deux neutrons*, est plus faible que la masse de quatre protons libres, d’environ 0,7 pour cent. Ce qui était d’autant plus étrange que le neutron isolé est légèrement plus massif que le proton. La même année, Arthur Eddington suggéra que si cette différence de masse était convertie en énergie suivant la relation E = Mc2, la fusion de l’hydrogène en hélium pouvait fournir l’énergie nécessaire au Soleil. Mais il ne savait pas quel mécanisme pouvait permettre la transformation. En 1935, les physiciens Bethe et von Weizsäcker proposèrent une formule semi-empirique donnant une valeur approximative de l’énergie de liaison nucléaire (celle qu’on nomme l’interaction forte) caractérisant la liaison entre les nucléons constituant le noyau des 37
Lord Kelvin et les géologues
atomes. Deux noyaux qui se rencontrent vont former un noyau plus lourd si celui-ci est stable : les noyaux stables sont ceux qui rendent maximum l’énergie de liaison. Durant l’opération, une partie de l’énergie de liaison des composants du noyau est libérée sous forme de chaleur ou de lumière. On tenait donc enfin la clef de l’énergie générée dans le Soleil et les étoiles, et Bethe et von Weizsäcker détaillèrent en 1939 les réactions nucléaires qui interviennent. Finalement, dans les années 1940, l’astrophysicien Fred Hoyle (que j’évoque aussi dans ce livre) proposa que les réactions de fusion à l’intérieur des étoiles leur permettent non seulement de briller pendant des millions d’années, mais aussi de synthétiser les noyaux des éléments compris entre le carbone et le fer. Et c’est à partir de ce moment que se mit en place une physique de l’intérieur des étoiles, qui conduisit en quelques décennies à une véritable industrie numérique de la construction des étoiles depuis leur naissance jusqu’à leur mort.
38
Grandes controverses en astrophysique
LE GRAND DÉBAT
Le philosophe Emmanuel Kant avait proposé en 1755 que les objets nébuleux visibles dans le ciel soient des « Univers-Îles » semblables à la Voie lactée. On n’y crut pas pendant presque deux siècles. La question fut discutée en 1920 au cours d’un débat homérique qui ne trancha rien. Pourtant, à peine cinq ans plus tard, Hubble prouvait que certaines nébuleuses sont des galaxies situées en dehors de la Voie lactée. Et l’histoire ne faisait que commencer… OÙ IL EST QUESTION DE NÉBULEUSES On connaît depuis longtemps ces taches floues dans le ciel qu’on appelle « nébuleuses ». À la fin du xviiie siècle, l’astronome français Charles Messier avait constitué un catalogue de 103 nébuleuses. Il ne se doutait pas que son nom serait l’un des plus prononcés en astrophysique, puisqu’elles portent le nom de « Messier » suivi d’un nombre (M1, M2…), et qu’elles sont toutes célèbres d’une façon ou d’une autre. Lui ne les avait observées que pour vérifier que ce n’étaient pas des comètes, dont il était fanatique (on a dit qu’il était plus amoureux des comètes que de sa femme…). Avec William Herschel, le bestiaire des objets nébuleux s’agrandit considérablement. Aidé de sa sœur et plus tard de son fils, 39
Le Grand Débat
Herschel avait établi un catalogue de 5 000 nébuleuses, appelé New General Catalogue ; ce qui explique que leurs noms commencent par « NGC ». Ainsi, la galaxie M87 – celle dont on a observé en 2019 le trou noir* central géant – est également nommée NGC 4486, et la galaxie d’Andromède s’appelle M31 ou NGC 22414. William Herschel avait construit dans son jardin un très grand télescope avec lequel il réalisa nombre de ses découvertes, dont quelques-unes sur les nébuleuses. Il est impossible de mentionner William sans parler de sa sœur Caroline. De douze ans sa cadette, elle vouait une véritable adoration à ce frère dont elle fut la servante et l’assistante pendant presque toute sa vie, et à qui elle ne cessa de rendre hommage (elle a écrit : « Tout ce que je suis, je le dois à mon frère ; je ne suis que l’instrument qu’il a façonné pour son usage – un petit chien bien dressé en aurait fait autant que moi » !). Toujours présente près de lui pendant les nuits d’observations, elle notait les coordonnées des étoiles, lui apportait thé et petits gâteaux, et même lui donnait la becquée lorsqu’il n’avait pas le temps de manger. Lorsque William se maria avec une riche veuve et que Caroline fut obligée de quitter la maison familiale pour s’installer dans une maison toute proche, ce fut apparemment un déchirement pour elle. Très bonne observatrice, elle découvrit seule, outre de nombreuses nébuleuses, une douzaine de comètes, ce qui représentait un véritable exploit à cette époque. Et comme elle survécut 26 ans à son frère, elle eut tout le loisir de montrer ses capacités personnelles, ce qui lui valut d’être nommée membre de l’Académie royale de Dublin et de la Société royale astronomique de Londres, un honneur très rare pour une femme. Elle mourut à presque 98 ans en 1848, ayant rédigé sa propre épitaphe qui rendait naturellement hommage à son frère. 14. Si l’on ajoute que lorsqu’on a commencé à observer dans les domaines non visibles, en radio, en infra-rouge, ou en rayons X, on leur a donné d’autres noms sans toujours savoir qu’il s’agissait des mêmes objets, on conçoit qu’il a été souvent difficile de s’y repérer, avant que le Centre de données de Strasbourg ne vienne mettre de l’ordre dans ces nomenclatures ! 40
Grandes controverses en astrophysique
Le Grand Débat
Figure 1 | William Herschel et sa sœur Caroline.
Ces fameuses nébuleuses, de quoi étaient-elles faites ? William Parsons, autrement dit Lord Rosse, un riche astronome irlandais, s’était fait construire un télescope encore plus gigantesque que celui de Herschel (il avait 1,83 mètre de diamètre et 17 mètres de focale). Ce télescope n’était certainement pas facile à manipuler, car il avait été surnommé « le Léviathan de Parsonstown » en référence au nom de Lord Rosse, et je suppose à cause des mauvais tours qu’il jouait à ceux qui l’utilisaient. Lord Rosse le pointa sur les nébuleuses et constata que parfois elles contenaient des étoiles et même une sorte de structure spirale. Dans certaines d’entre elles, il avait même vu apparaître des novae*, qu’on appelle maintenant des supernovae*. Lord Rosse en déduisit que ces objets sont des systèmes d’étoiles semblables à la Voie lactée, idée qu’il défendit pendant toute sa vie mais sans grand succès. Le statut des nébuleuses n’était donc toujours pas défini au début du xxe siècle. Les astronomes se partageaient en deux camps. Les plus nombreux pensaient que toutes les nébuleuses, même les « spirales », faisaient partie de la Voie lactée. Les autres pensaient que les spirales étaient situées à l’extérieur. Notre célèbre Camille 41
Le Grand Débat
Flammarion faisait partie des premiers, et il s’était même amusé à calculer le « nombre total d’étoiles dans l’Univers », c’est‑à-dire dans la Voie lactée. À la fin de l’année 1918, George Ellery Hale, fondateur et directeur de l’Observatoire du mont Wilson (et surtout donateur du premier télescope de 1,50 mètre de cet observatoire !), suggéra que l’Académie des sciences américaine consacrât une soirée lors de sa prochaine session à une question importante et débattue. Le président de l’académie, C.G. Abbot, accepta immédiatement. Toutefois, il refusa le premier sujet proposé, la relativité générale, en répondant : « Je pense que ce sujet n’existera plus bien avant le meeting de l’Académie […] Je dois confesser que je préférerais un sujet sur lequel il y aurait plus d’une demi-douzaine de membres de l’Académie capables de comprendre seulement quelques mots de ce que les conférenciers diront.15 » Le sujet choisi fut donc la nature des nébuleuses. Le « Grand Débat », comme on l’appela, eut lieu le 26 avril 1920. Deux astronomes furent chargés de présenter les arguments pour chaque groupe. Ils prirent la parole chacun pendant une heure, mais ce qui en fut publié ensuite est beaucoup plus long et constitue un véritable point sur la situation de l’époque. D’un côté, le chef de file était Harlow Shapley, dont il est question dans le chapitre sur la classification des étoiles, à propos de la thèse de Cecilia Payne. Il pensait que la Voie lactée avait un diamètre de 300 000 années-lumière*, et que les nébuleuses spirales en faisaient partie. Le représentant de l’autre camp était Heber Curtis, un astronome plus âgé et connu, qui pensait que la Voie lactée avait un diamètre de 30 000 années-lumière et que les nébuleuses spirales étaient semblables à la Voie lactée. Il plaçait le Soleil au centre de 15. « It looks as if the subject would be done to death long before the meeting of the Academy […] I must confess that I would rather have a subject in which there would be a half dozen members of the Academy competent enough to understand at least a few words of what the speakers were saying. » 42
Grandes controverses en astrophysique
Le Grand Débat
la Voie lactée, contrairement à Shapley. On sait maintenant que le Soleil n’est pas au centre de la Voie lactée, dont le diamètre se situe entre les deux valeurs proposées (curieusement il est égal à leur moyenne géométrique ; ce qui pourrait conforter la position de certains scientifiques un peu cyniques affirmant que lorsque deux valeurs sont trouvées pour un paramètre, il faut prendre la moyenne des deux !). Mais outre cette question de dimension de la Voie lactée qui n’était pas encore bien déterminée à l’époque, chacun s’appuyait sur des arguments forts. Ainsi Curtis se fondait en particulier sur les observations d’explosions de supernovae* dans certaines nébuleuses. Elles montraient que ces nébuleuses étaient très lointaines, étant donné le faible éclat apparent des supernovae. Shapley, lui, mentionnait la détection de mouvements dans M33, la nébuleuse du Triangle, observés par l’astronome néerlandais Adriaan Van Maanen au moyen de mesures astrométriques16. Une véritable controverse qui vaudrait la peine d’être racontée elle aussi eut lieu à propos de ces mesures. En effet, ces mouvements prouvaient que cette nébuleuse faisait non seulement partie de la Voie lactée, mais était toute proche du Système solaire ! Notons que Van Maanen venait d’obtenir un poste à l’Observatoire du mont Wilson et qu’il devait par conséquent bénéficier d’une certaine aura. Ses mesures étaient fausses, mais elles furent l’objet de nombreuses discussions, et pendant plusieurs années, on s’interrogea sur leur validité, alors qu’elles posaient des problèmes insolubles. En 1933, par exemple, Fritz Zwicky, pourtant toujours très critique envers ses contemporains, se demandait encore comment on pouvait les expliquer ! On ignore toujours par quelle méthode Van Maanen les avaient trouvées. Je suppose qu’il avait complètement sous-estimé les erreurs, et qu’il ne s’agissait pas de fraude pure et simple, parce qu’on ne voit pas bien ce qu’elle aurait pu lui rapporter… sauf faire parler de lui ! 16. C’est-à-dire des mesures de changements de position sur le ciel. 43
Le Grand Débat
En revanche, ce que ni Shapley ni Curtis ne comprenaient, c’était les résultats de Vesto Slipher. Ce jeune astronome avait obtenu à l’Observatoire Lowell de Flagstaff dans l’Arizona les spectres* de quatorze nébuleuses spirales, et il avait montré que les raies spectrales étaient décalées vers le rouge dans toutes les nébuleuses, à l’exception d’Andromède, la plus grande. Le décalage était dû à l’effet Doppler-Fizeau*. Il signifiait que les nébuleuses s’éloignaient de nous avec des vitesses allant jusqu’à plus de mille kilomètres par seconde, bien plus grandes que celles des étoiles de la Voie lactée ! Ce résultat, publié en 1914, aurait pu être un argument pour Curtis, mais il était tellement bizarre que personne n’y croyait et qu’on mettait plutôt en cause la méthode de mesure de Slipher, qui en fut très affecté. Néanmoins, persuadé de la justesse de ses résultats, il avait continué ses mesures. Chacun des protagonistes se trompait donc, et le débat se termina par un match nul… Or cinq ans plus tard, Hubble arriva… Personne n’avait prêté grande attention au fait que le Suédois Knut Lündmark avait observé en 1919 une supernova dans la nébuleuse d’Andromède, et qu’il en avait déduit avec certitude qu’elle devait être située en dehors de la Voie lactée. En 1917 avait été inauguré le télescope Hooker de 2,50 mètres de diamètre de l’Observatoire du mont Wilson en Californie, le plus grand du monde à cette époque. Il permettait de distinguer des étoiles brillantes dans les nébuleuses spirales. Un jeune astronome, de retour du front en France, fut nommé en 1919 dans cet observatoire. C’était Edwin Hubble. Après des études en droit, il avait passé un doctorat d’astronomie. On le savait aussi amateur de boxe. Quant à la pipe qu’on le voit fumer sur de nombreuses photos, il ne s’y mit que plus tard, et on a dit que c’était surtout pour se donner une contenance au cours des interviews qu’il subira souvent.
44
Grandes controverses en astrophysique
Le Grand Débat
OÙ L’ON PARLE DU HAREM PICKERING Hubble décida d’utiliser le télescope Hooker qu’il avait pratiquement à sa disposition17 pour observer des Céphéides, étoiles dont l’éclat varie périodiquement. En effet, dix ans auparavant, Miss Henrietta Leawitt avait découvert une relation remarquable entre leur période et leur luminosité. Comme cela a déjà été mentionné dans le chapitre sur la classification stellaire, Miss Henrietta Leavitt travaillait dans le « harem Pickering », un groupe d’une vingtaine de femmes recrutées par le directeur de l’Observatoire de Harvard, Edward Charles Pickering, pour y construire un catalogue d’étoiles à la demande de la veuve de Henry Draper. Pickering estimait en effet que les femmes étaient plus précises et soigneuses que les hommes, et, cerise sur le gâteau, elles étaient payées deux fois moins ! Henrietta était une jeune femme timide (d’ailleurs sourde à la suite d’une maladie d’enfance), « peu encline à la frivolité et très dévouée à sa famille, son église, et sa carrière ». Elle avait commencé à travailler à 25 ans à l’Observatoire de Harvard comme calculatrice sans salaire. Plus tard, elle fut payée 0,30 dollar par heure. Pickering assigna à Henrietta l’étude des étoiles variables pour le catalogue Draper. Elle catalogua ainsi des milliers d’étoiles situées dans les Nuages de Magellan18. En 1908, elle publia ses résultats dans les Annales de l’Observatoire astronomique de l’université Harvard, notant que les étoiles périodiques les plus lumineuses avaient les plus longues périodes de variation. Et en 1912, elle confirma qu’il existait une relation entre la luminosité et la période de variation des Céphéides* (voir l’encadré sur les Céphéides).
17. C’est le directeur de l’Observatoire qui lui avait proposé son poste en 1917, et qui lui avait confié le télescope. Curieuse époque où un mécène pouvait disposer seul des postes et des instruments… 18. L’Observatoire d’Harvard possédait une station annexe à Arequipa au Pérou, d’où l’on observait le ciel austral. 45
Le Grand Débat
CÉPHÉIDES Comment Henrietta a-t-elle pu trouver sa loi de proportionnalité entre la luminosité et la période des Céphéides ? Ce qu’elle mesurait, ce n’était pas les luminosités, mais les éclats apparents des étoiles. La luminosité est la quantité d’énergie lumineuse émise par seconde par l’étoile, tandis que l’éclat est la quantité d’énergie reçue par l’observateur. On sait que l’éclat décroît comme le carré de la distance de l’objet observé. Comme les étoiles observées étaient toutes à peu près à la même distance (celle des Nuages de Magellan), leur luminosité était simplement proportionnelle à leur éclat, qu’elle pouvait mesurer, de même que leur période.
Pour connaître la luminosité réelle, il restait à déterminer la distance des Nuages de Magellan. Le Danois Ejnar Hertzsprung (celui du diagramme Hertzsprung-Russell*) franchit ce pas en 1913, en déterminant par la méthode des parallaxes statistiques* les distances de Céphéides proches, et en comparant ensuite leurs luminosités à celles des Nuages de Magellan. À partir de ce moment, il suffisait de mesurer la période d’une Céphéide pour obtenir sa luminosité grâce à la relation découverte par Henrietta, et de cette luminosité déduire sa distance en mesurant son éclat. Malheureusement, Henrietta quitta l’Observatoire cette même année pour aller vivre avec sa mère. Elle mourut d’un cancer en 1921 à l’âge de 53 ans, presque totalement ignorée des astronomes. Elle ne sut donc jamais quel bouleversement allaient entraîner ses conclusions concernant les Céphéides. Un membre de l’Académie royale des sciences de Suède la proposa pour le prix Nobel, pour apprendre qu’elle était décédée… Et c’est ainsi que le 30 décembre 1924, Hubble, en mesurant l’éclat apparent de Céphéides situées dans la nébuleuse NGC 6822, annonça qu’il avait obtenu sa distance : 600 000 années-lumière, soit une valeur bien supérieure au diamètre de la Voie lactée ! Puis, avec l’aide de Milton Humason, le muletier de l’Observatoire qui était devenu 46
Grandes controverses en astrophysique
Le Grand Débat
son assistant, il mesura les distances d’autres nébuleuses spirales qui étaient toutes, elles aussi, à l’extérieur de la Voie lactée, certaines étant situées à dix millions d’années-lumière. La Voie lactée deviendra plus tard « la Galaxie » (avec un grand « G »), et les nébuleuses spirales deviendront des « galaxies ». Cinq ans après le Grand Débat, la question était résolue ! Et l’Univers était devenu cent fois plus grand en quelques années. Mais l’histoire ne s’arrêta pas là…
47
EINSTEIN CONTRE FRIEDMANN ET LEMAÎTRE
Entre 1925 et 1929, Edwin Hubble détermina avec son assistant Milton Humason les distances des principales galaxies du Groupe local, en utilisant les Céphéides* mais aussi d’autres critères comme l’éclat des novae* ou des étoiles les plus brillantes. D’autres astronomes avaient publié également quelques distances. Certaines atteignaient une dizaine de millions d’années-lumière. De son côté, Vesto Slipher avait mesuré les décalages des raies spectrales* vers le rouge – traduisant leurs vitesses sur la ligne de visée – d’une quarantaine de « nébuleuses spirales ». À part Andromède, elles s’éloignaient toutes de nous, quelques-unes avec des vitesses atteignant parfois plus d’un millier de kilomètres par seconde. Slipher avait publié ses résultats essentiellement dans les très peu lus Comptes rendus de l’Observatoire Lowell, mais Arthur Eddington s’était chargé de les faire connaître. En 1927, un jeune ecclésiastique, l’abbé Georges Lemaître, se rend au célèbre congrès Solvay à Bruxelles, où il rencontre entre autres Albert Einstein. Hubble est également présent. Lemaître est cosmologiste et ses calculs théoriques plaident en faveur d’un Univers en expansion dont la vitesse est proportionnelle à la distance. Il veut en discuter avec Einstein. Celui-ci le reçoit très mal, car il ne croit 49
Einstein contre Friedmann et Lemaître
pas à un Univers en expansion. Lemaître a pris connaissance des mesures de distances des galaxies publiées par Hubble et par d’autres, ainsi que des mesures de vitesses de fuite des galaxies mesurées par Slipher. Utilisant ces distances et ces vitesses, il vient de publier – en français – dans la revue assez confidentielle Annales de la Société scientifique de Bruxelles, un article intitulé : « Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extra-galactiques ». Il y montre que les vitesses d’éloignement des galaxies sont proportionnelles à leurs distances, la constante de proportionnalité étant de 570 km/s/Mpc19. Ce n’est rien de moins que la fameuse « loi de Hubble » que celuici va « découvrir » deux ans plus tard et qui fera sa gloire. En 1929, Hubble rassemble en effet tous les résultats connus de vitesses radiales et de distances des galaxies, en y adjoignant ses observations personnelles avec Humason, et il publie dans les Proceedings of the National Academy of Sciences of the United States of America un article qui fait mouche immédiatement : « A Relation between Distance and Radial Velocity among Extra-Galactic Nebulae » (« Une relation entre la distance et la vitesse radiale des nébuleuses extragalactiques »). Il trouve que les vitesses de fuite des galaxies sont proportionnelles à leurs distances. Le facteur de proportionnalité est voisin de celui proposé par Lemaître, 530 km/s/Mpc, bien qu’il disposât de moins de distances de galaxies que Hubble. Hubble ne cite pas le nom de Slipher, dont les mesures de vitesses radiales sont pourtant fondamentales pour cet article, ni naturellement celui de Lemaître qu’il connaît probablement, l’ayant rencontré lors du Congrès Solvay de 1927 où ils étaient présents tous les deux. Désormais, on va appeler la constante de proportionnalité « constante de Hubble », et la loi reliant la vitesse à la distance « loi de Hubble ». 19. Un mégaparsec (Mpc) est égal à trois millions d’années-lumière. Cette loi signifie que si une galaxie est distante de 1 Mpc, elle fuit avec une vitesse de 570 km/s, et si elle est distante de 10 Mpc, elle fuit avec une vitesse de 5 700 km/s, etc. 50
Grandes controverses en astrophysique
Einstein contre Friedmann et Lemaître
Figure 2 | Hubble et sa pipe.
Pourquoi la découverte de Lemaître est-elle passée inaperçue ? On le sait maintenant grâce à une recherche historique menée par l’Américain Mario Livio et le Français Jean-Pierre Luminet. À la demande d’Eddington, Lemaître avait traduit en anglais son propre article, qui avait été publié dans la prestigieuse revue Monthly Notices of the Royal Astronomical Society, mais seulement en 1931. Lemaître en avait supprimé le paragraphe clef donnant la valeur de la constante de proportionnalité, prouvant l’antériorité de sa découverte par rapport à celle de Hubble. Il trouvait en effet que son calcul était dépassé à cause de nouvelles mesures de distances ! La contribution de Lemaître a été reconnue lors de la 30e assemblée générale de l’Union astronomique internationale (International Astronomical Union ou IAU), qui s’est tenue en 2018 à Vienne. La loi de Hubble s’appelle désormais la « loi de Hubble-Lemaître* ». 51
Einstein contre Friedmann et Lemaître
Pour Hubble, les vitesses de fuite mesurées étaient les vitesses réelles des galaxies. Pour Lemaître, elles étaient la manifestation de l’expansion de l’Univers. LA NAISSANCE COMPLIQUÉE DE LA COSMOLOGIE Revenons maintenant sur les débuts de la cosmologie. En 1915, Albert Einstein invente la « relativité générale » : l’espace, le temps et la gravitation ne sont plus séparés, seul existe un espace-temps à quatre dimensions courbé par les masses et l’énergie qu’il contient. En 1917, Einstein applique sa théorie à l’Univers entier, en supposant qu’à grande échelle celui-ci est identique en tout point de l’espace. C’est « le principe cosmologique ». Cette hypothèse (qui simplifie considérablement les calculs) est très audacieuse, car à l’époque tout ce que l’on connaissait de l’Univers, le Système solaire, les étoiles, les nébuleuses, était parfaitement inhomogène. Elle ne sera confirmée que beaucoup plus tard par la découverte du rayonnement le plus lointain que l’on puisse observer, le rayonnement fossile*, qui est pratiquement uniforme dans toutes les directions. La cosmologie est née ! Mais elle est née trop tôt… À l’époque, on pense que l’Univers est statique et éternel, et Einstein le pense aussi. Or, d’après ses équations, il aurait dû s’effondrer sous l’effet de sa propre gravité. Comment éviter ce cataclysme ? Einstein rajoute dans ses équations un terme, « la constante cosmologique », Λ ; elle correspond à une force répulsive jouant un rôle opposé à la gravité. Pour que l’Univers soit statique, Einstein attribue à Λ une valeur telle que les deux effets s’annulent exactement. En plus de ses convictions philosophiques, il avait quelques bonnes raisons pour penser que l’Univers était statique, car les vitesses des astres qu’il connaissait à l’époque étaient minuscules (au maximum un millième de celle de la lumière). Il n’avait pas connaissance des mesures de Slipher concernant les vitesses d’éloignement des nébuleuses.
52
Grandes controverses en astrophysique
Einstein contre Friedmann et Lemaître
ANNÉES 1920 : DEUX MÉDECINS AU CHEVET DE L’UNIVERS, FRIEDMANN ET LEMAÎTRE Né à Saint-Pétersbourg en 1888 de deux parents artistes, Alexandre Friedmann publie à 18 ans un article de mathématiques dans la prestigieuse revue allemande Mathematische Annalen (Les Annales de mathématiques). Il enseigne dès l’âge de 22 ans, en particulier à partir de 1920 à l’université de Petrograd (le nouveau nom de SaintPétersbourg après la révolution de 1917, avant celui de Leningrad). En découvrant les équations d’Einstein, il lui prend l’envie de les appliquer à l’Univers réel. Dans deux articles en 1922 et 1924, il abandonne l’hypothèse simplificatrice d’une densité constante au cours du temps par souci de généralisation et montre que l’Univers est alors en expansion ou en contraction. Il va jusqu’à prévoir que s’il est en expansion, il doit exister une singularité initiale. Einstein reçoit très mal sa théorie, car il refuse un Univers non statique. Lorsque Friedmann lui envoie son article qui doit paraître dans la revue Zeitschrift für Physik, Einstein écrit à l’éditeur pour signaler que l’article contient une faute. Ce qui explique certainement qu’il ait été largement méconnu bien que publié dans une revue prestigieuse. Or c’était Einstein qui avait tort ! On peut considérer pourtant que c’est cet article de Friedmann qui a fondé la cosmologie moderne. Malheureusement Friedmann est mort prématurément en 1925, avant de savoir que sa théorie était confirmée par les observations de Hubble20. L’abbé Georges Lemaître entre alors en scène. Il est né en 1894 en Belgique et a fait des études de mathématiques et de théologie. Engagé comme volontaire dans la première guerre mondiale, il devient à son retour professeur de mathématiques à l’Université catholique de Louvain. Il travaille ensuite à Cambridge (Angleterre) 20. Friedmann avait été nommé directeur de l’Institut de géophysique de Leningrad. En 1925, en compagnie d’un aviateur, il bat le record d’altitude en ballon stratosphérique à 7 400 m, en voulant mesurer entre autres la variation de la température avec la hauteur dans l’atmosphère. Il meurt subitement quelques jours après d’une fluxion contractée lors de son ascension. 53
Einstein contre Friedmann et Lemaître
sous la direction d’Arthur Eddington, puis au Massachusetts Institute of Technologie (MIT) à Cambridge (cette fois aux États-Unis). Sans connaître les travaux de Friedmann, il propose un modèle d’Univers en expansion. En effet, pour lui, l’Univers ne peut pas être statique, car cette situation est instable : il doit automatiquement être soit en expansion, soit en contraction, exactement comme une pomme posée sur le faîte d’un toit ne peut rester en équilibre, elle va forcément tomber d’un côté ou de l’autre. Nous avons vu plus haut que, se fondant sur les vitesses d’éloignement des galaxies et leurs distances publiées, il trouve en 1927 une loi semblable à celle que Hubble trouvera deux ans plus tard, qu’il interprète dans le cadre de son modèle d’Univers. Le même type de problème que pour Friedmann se reproduit avec Einstein. Lorsqu’il vient le consulter sur son modèle en 1927 pendant le congrès Solvay, Einstein lui aurait répondu : « Vos calculs sont corrects, mais votre physique est abominable ». Comme Friedmann, Lemaître est affecté d’être ainsi rebuté. Par la suite, Einstein se ralliera aux idées de Lemaître. Ainsi que l’écrivent deux biographes d’Einstein, Highfield et Carter, Einstein « était un homme chez qui la combinaison de lucidité intellectuelle et de myopie émotionnelle provoqua bien des déboires dans les vies de ceux qui l’entouraient »21. Einstein finit nolens volens par accepter sa défaite. Il propose alors un modèle cosmologique avec Willem de Sitter : l’Univers est en expansion, plat et infini, sans constante cosmologique*. Ce modèle va plomber la cosmologie pendant soixante ans. Mais Lemaître va plus loin ! Si l’Univers est en expansion, dit-il, c’est qu’il a été plus petit dans le passé, et même qu’il est né à un moment donné. Lemaître propose alors qu’il soit né d’une sorte de noyau atomique géant contenant tous les atomes de l’Univers, qui se serait désintégré par suite de son instabilité intrinsèque. Cette idée 21. Ayant étudié la vie tragique de la première épouse d’Einstein, Mileva, je pourrais développer longuement mes idées sur celui qui est considéré comme l’un des plus grands humanistes du xxe siècle, mais ce livre n’est pas le lieu où le faire. 54
Grandes controverses en astrophysique
Einstein contre Friedmann et Lemaître
rappelle ou plutôt anticipe celle du Big Bang, et naturellement, elle sera tout de suite interprétée comme la « création du monde » par Dieu, au grand dam des athées. Mais Lemaître s’est toujours défendu, y compris contre le pape Pie XII, de prôner une interprétation religieuse de sa théorie en termes de création. MAIS RESTE CEPENDANT UN GRAVE PROBLÈME… On peut donc maintenant calculer l’âge de l’Univers grâce à la constante de Hubble H0. En effet, si une galaxie s’éloigne de nous avec une certaine vitesse, si l’on suppose que cette vitesse reste constante, et que l’on connaît la distance actuelle de la galaxie, on peut en déduire quel temps s’est écoulé depuis qu’elle a quitté notre galaxie : c’est 1/H0. Mais on sait que l’expansion doit être ralentie par la gravité de la matière que contient l’Univers, et dans ce cas, l’âge de l’Univers est même plus petit que 1/H0. Par exemple, dans le cas de l’Univers proposé dans les années 1920 par Einstein et de Sitter, l’âge est seulement les deux tiers de 1/H0. Avec H0 de l’ordre de 500 km/s/Mpc, l’Univers a moins de deux milliards d’années. Or déjà à cette époque, on pensait que la Terre était plus âgée, et lorsque les datations par radioactivité arrivent dans les années 1940, il est clair que… ça ne marche pas du tout ! En fait, ça marcherait, si l’on tenait compte d’une constante c osmologique Λ, mais à l’époque on croit au modèle d’Einstein-de Sitter qui n’en a pas… Lemaître, lui, continue tranquillement à penser que cette constante peut exister, et il a même des idées sur son origine (l’énergie du vide), mais il prêche dans le désert…
55
UNIVERS STATIONNAIRE CONTRE BIG-BANG, OU HOYLE CONTRE GAMOW
Après la découverte de la loi de Hubble* en 1929, on assista pendant les quarante années suivantes à une bataille entre deux types d’Univers, l’un issu du Big Bang et ayant une histoire, l’autre immuable et restant de tout temps identique à lui-même. Bataille entre deux conceptions, mais aussi entre deux titans aussi imaginatifs l’un que l’autre, où l’un gagnera grâce à une prédiction vérifiée, et où l’autre refusera pendant toute sa vie d’accepter sa défaite. Fred Hoyle était un brillant astronome britannique, qui répugnait pour des raisons philosophiques à accepter l’idée d’un Univers en expansion ayant eu un début. Il était né en 1915 de parents modestes, il avait étudié les mathématiques à Cambridge où il avait eu comme directeur de thèse le grand Paul Dirac, dont il s’inspira pour initier un domaine nouveau et controversé dont il est question dans un autre chapitre. Il avait été nommé Fellow de son collège à 24 ans, puis professeur dans la célèbre chaire d’astronomie « Plumian » de Cambridge dont les statuts avaient été élaborés entre autres par Newton. Très inventif, il avait été l’auteur d’un opéra et de plusieurs romans de science-fiction. Tous les étudiants de mon âge s’arrachaient dans les années 1950 un roman de Hoyle, Le nuage noir, 57
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
à cause des remarquables idées physiques qu’il faisait intervenir22. L’humanité n’y était pas présentée sous son plus beau jour, à part un professeur génial… Il était aussi connu pour son esprit frondeur, remettant en cause sans hésiter les idées reçues. On raconte qu’un soir où il était allé au cinéma avec ses collègues Thomas Gold et Hermann Bondi et qu’ils avaient vu un film d’horreur où tout semblait recommencer sans fin, ils avaient eu l’idée de « l’Univers stationnaire ». Un Univers immuable dans le temps permettait de résoudre la contradiction entre l’âge de la Terre et celui de l’Univers, car la valeur de la constante de Hubble dans les années 1930-1940, 500 km/s/Mpc, ne permettait pas à l’Univers d’avoir plus de 2 milliards d’années (voir le chapitre précédent). Mais pour Hoyle, il répondait aussi à sa philosophie, et à une sorte de principe de symétrie de l’Univers qui serait non seulement identique en tout point de l’espace mais également à toutes les époques. Il s’appuya donc sur ce qu’il appela « le principe cosmologique parfait » : il y aurait création continue de matière qui ferait apparaître l’Univers en expansion, sans qu’il ait pour autant un âge donné par la constante de Hubble. Comme Hoyle le faisait remarquer, la seule différence entre les deux scénarios est que dans celui du Big Bang23, toute la matière était créée dans une explosion initiale, tandis que dans le modèle stationnaire, la matière se formait constamment à un taux invariable dans le temps ; de toute façon, dans les deux cas, on ignorait totalement qu’elles étaient les causes de la formation de matière ! D’après Hoyle, l’Univers était donc éternel et immuable. Cette théorie rallia beaucoup d’astronomes24. 22. Un immense nuage de gaz créant ses propres réactions nucléaires et doté d’une intelligence supérieure arrivait dans le Système solaire… 23. On a souvent dit que Hoyle a utilisé le terme de Big Bang par dérision lors d’une émission de la BBC en 1949. Il est cependant probable qu’il n’a pas employé ce terme ironiquement, mais pour donner une image facilement compréhensible de l’événement. 24. J’y ai moi-même cru jusqu’en 1965, à l’instar d’autres astronomes français, dont mon directeur de thèse, Evry Schatzman. 58
Grandes controverses en astrophysique
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
Un autre brillant astronome était le Soviétique Georges Gamow. Il naquit en 1904 à Odessa dans une famille intellectuelle, et il fit sa thèse avec Friedmann, le créateur de la cosmologie moderne. Puis il travailla avec les plus grands spécialistes de physique nucléaire et de mécanique quantique, avant d’émigrer finalement aux États-Unis en 1933. Il avait plusieurs points communs avec Hoyle : il avait étudié la physique nucléaire (c’est même lui qui a trouvé « l’effet tunnel » permettant d’expliquer une partie de la radioactivité), et il avait également un esprit très imaginatif. En particulier il créa un personnage de fiction, Monsieur Tompkins, modeste employé de banque qui rêve souvent et entre alors dans des mondes imaginaires où les constantes de la physique sont modifiées, ce qui permet d’expliquer la physique de façon imagée. La série des Tompkins est ainsi devenue un classique de la vulgarisation scientifique25. Gamow croyait à l’expansion de l’Univers. À partir des années 1940, Hoyle et Gamow vont se battre sur la question de l’expansion. LE COUP D’ENVOI PROVIENT DE GAMOW Gamow commence par corriger « l’atome primitif » de Lemaître en montrant que la matière doit être non seulement beaucoup plus dense que maintenant, mais également beaucoup plus chaude ; car quand un gaz se contracte, il chauffe, quand il se dilate, il refroidit. L’Univers est donc au début de sa vie une boule de feu suffisamment chaude pour que des réactions nucléaires s’y produisent. Avec son étudiant Ralph Alpher, Gamow publie en 1948 un article sur la formation des éléments au cours des premières phases de l’expansion de l’Univers : il montre que c’est dans le brasier effroyablement chaud et dense de l’Univers primordial, lorsque sa température était de centaines de milliards de degrés, que s’élaborent les premières particules et que se manifestent les forces de la nature. 25. Par exemple la vitesse de la lumière est 30 m/s, ce qui lui permet de constater l’effet de la relativité lorsqu’il se déplace à vélo ! 59
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
L’histoire de cet article fondateur traduit bien le caractère farceur de Gamow. Il s’arrange pour que l’article sorte le 1er avril 1948, et il demande à son ami Hans Bethe, spécialiste très connu de physique nucléaire mais qui n’a absolument pas travaillé sur l’article, de le signer avec lui et Alpher. Bethe accepte. Les auteurs seront donc Alpher, Bethe et Gamow, et Gamow espère qu’il sera cité comme le « alphabêta-gamma » de l’Univers. Inutile de dire que le pauvre étudiant, Alpher, à qui on n’avait pas demandé son avis, n’est pas très heureux de la chose. Alpher se rattrape d’ailleurs l’année suivante, en signant avec Robert Herman un article sur l’évolution de la température et de la densité de l’Univers. L’article paraît le 1er avril 1949, et on peut se demander si ce n’est pas un pied de nez que Alpher adresse à Gamow ! Puis avec Gamow, Ralph Alpher et Robert Herman prédisent pour la première fois l’existence d’un rayonnement fossile venu du fond des âges, dont ils estiment la température à 5 degrés absolu26. C’est une prédiction extraordinaire, dont on ne prend pas conscience avant plusieurs années ! Et bien que Alpher et Herman y aient contribué largement, c’est souvent Gamow seul qui en est crédité… Après la découverte en 1953 de la structure de l’ADN, Gamow quitte l’astrophysique et aborde le problème de la génétique ; il s’y consacrera jusqu’à la fin de sa vie en 1968. Mais un gros problème apparaît bientôt. C’est que, contrairement à ce que prédisaient Alpher et Gamow, il est impossible de former tous les éléments chimiques pendant le refroidissement de l’Univers. En fait, seuls l’hydrogène et l’hélium et quelques autres éléments légers se forment pendant les cinq premières minutes après le Big Bang, mais ensuite, la température étant devenue trop faible, la nucléosynthèse s’arrête là. 26. Ce rayonnement a été émis lorsque la température de l’Univers ayant suffisamment diminué (à 3 000 degrés, 380 000 années après le Big Bang), les électrons et les protons qui le constituaient se sont « recombinés » pour donner des atomes d’hydrogène. Les photons de lumière ont pu alors circuler librement et parvenir jusqu’à nous, mais en perdant de l’énergie par suite de l’expansion de l’Univers. De visibles, ils sont devenus des photons radio. 60
Grandes controverses en astrophysique
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
HOYLE S’ENGOUFFRE DANS LA BRÈCHE Dès 1946, Hoyle a publié un article dans lequel il propose que les éléments chimiques depuis le carbone jusqu’aux éléments plus lourds se forment dans la fournaise infernale des étoiles dont la température centrale atteint des centaines de millions de degrés. C’est le cas des vieilles étoiles où tout l’hydrogène du cœur a été brûlé et s’est transformé en hélium27. Il fallait maintenant réussir à faire fusionner trois noyaux d’hélium pour former un noyau de carbone. On connaissait pour cela la réaction « triple alpha » : c’est le processus par lequel trois noyaux d’hélium (qu’on appelle des « particules alpha ») sont transformés en un atome de carbone. Mais il fallait que le processus triple alpha soit beaucoup plus rapide que ce qui avait été calculé auparavant (voir l’encadré sur la formation de carbone dans les étoiles). Pour tenter de résoudre ce problème, Hoyle suggéra que la réaction entre l’hélium 4 et le béryllium 8 soit en résonance avec un niveau d’énergie du carbone 12. Hoyle calcula qu’il devait exister un niveau d’énergie du carbone 12 à environ 7,68 MeV*, au-dessus du niveau le plus bas. Nanti de cette certitude, il se précipita chez William Fowler qui dirigeait un laboratoire expérimental de physique nucléaire et il lui demanda de vérifier que ce niveau d’énergie existait. En quelques mois il eut la réponse : le niveau existait bien ! Cette prédiction était aussi importante que celle du rayonnement cosmologique, car elle allait permettre d’expliquer la formation des éléments dans les étoiles, mais Hoyle lui attribua aussi une dimension philosophique comme je l’ai mentionné plus haut. En 1957 paraissait un article publié par Geoffrey Burbidge, Margaret Burbidge, William Fowler et Fred Hoyle. C’était une véritable somme présentant une théorie complète de la nucléosynthèse stellaire. Pour les étudiants de ma génération, c’était une manne que nous décortiquions au cours de longues séances de travail. On 27. Bien entendu, il fallait arriver au stade de l’hélium, ce qui avait déjà été résolu par Bethe entre autres, mais ce n’est pas le lieu ici de faire un cours de nucléosynthèse. 61
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
l’appelle « le B2FH », mais nul doute que Hoyle, étant donné ses antécédents sur la question, y avait contribué majoritairement. FORMATION DE CARBONE DANS LES ÉTOILES La réaction triple-alpha est la suivante : 4He + 4He ↔ 8Be + photon γ 8Be + 4He ↔ 12C + photon γ Le bilan énergétique net de cette réaction est 7,275 MeV. Le 8Be produit lors de la première étape est instable et il retourne en 10–16 seconde sous forme de deux noyaux d’hélium. La réaction triplealpha est donc très peu probable, et devrait demander un temps très long pour produire du carbone. Mais ce que montra Hoyle, c’est que le couple 8Be + 4He a presque exactement la même énergie que l’un des états excités de 12C. Cette résonance augmente considérablement la probabilité qu’une particule alpha se combine avec un noyau de béryllium 8 pour former un noyau de carbone. Lorsqu’il y a suffisamment de noyaux de carbone, ils peuvent fusionner avec des noyaux d’hélium en produisant un isotope stable d’oxygène. Le processus se poursuit mais plus lentement jusqu’au fer où il s’arrête.
Cependant, comme pour la nucléosynthèse primordiale de Gamow, il y avait un gros problème dans la nucléosynthèse stellaire. Elle ne crée presque pas d’hélium. Vous vous dites certainement (je me le suis dit moi-même) : c’est surprenant puisque les étoiles brillent justement en formant de l’hélium à partir de l’hydrogène ! Mais la nucléosynthèse stellaire ne produit que quelques pourcents des 24 % de l’hélium qui sont observés uniformément dans l’Univers. C’est bien le Big Bang qui produit l’essentiel de l’hélium. Ironie du sort ! Les deux ennemis jurés, Gamow et Hoyle, sont réunis désormais pour la formation des éléments, leurs deux mécanismes doivent marcher la main dans la main ! Les éléments légers, le deutérium*, le lithium, le béryllium et le bore, sont trop fragiles pour résister à la chaleur qui règne dans les 62
Grandes controverses en astrophysique
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
intérieurs stellaires. Ils se forment dans la matière interstellaire par un mécanisme décrit par Hubert Reeves et son élève Jean Audouze. Fowler obtint le prix Nobel de physique en 1983. On peut se demander pourquoi Hoyle ne l’obtint pas en même temps. Il y a certainement plusieurs raisons à cela : son esprit frondeur, qui l’avait conduit à critiquer violemment le comité Nobel pour n’avoir pas nommé Jocelyn Bell en même temps que son patron, Anthony Hewish, pour la découverte des pulsars* ; probablement ses idées sur l’Univers stationnaire qu’il défendra pendant toute sa vie, enfin ses idées non orthodoxes sur la dissémination de la vie dans l’Univers. Il sera tout de même récompensé par un prix de consolation, le Crawford, réservé d’habitude aux géophysiciens. Revenons maintenant au rayonnement fossile prédit par Gamow et Alpher. En 1965, ce « bruit provenant du fond des âges » comme on l’a souvent appelé, est découvert sans qu’ils le cherchent par deux ingénieurs de la Bell Telephone, Arno Penzias et Robert Wilson, qui recevront par la suite le prix Nobel pour cette découverte majeure. Également en 1965, le physicien Robert Dicke, aidé du cosmologiste Jim Peebles, est en train de construire à Princeton un radiomètre destiné à capter ce rayonnement. Il ne sera au point que l’année suivante. Mis au courant de cette découverte, ce sont eux qui révèlent à Penzias et Wilson la nature de ce rayonnement bizarre. Jim Peebles, encore en vie en 2019, a reçu le prix Nobel pour sa carrière de cosmologiste. Le comité Nobel n’apprécie les théoriciens que lorsqu’ils sont très âgés… En fait, des suspicions concernant l’Univers stationnaire étaient déjà apparues dans les années 1955, lorsque les radioastronomes* Martin Ryle et ses collaborateurs à Cambridge (Angleterre) montrèrent que les sources de rayonnement radio étaient extérieures à la Voie lactée, et qu’il existait beaucoup trop de sources faibles par rapport à une distribution uniforme ; ce qui semblait signifier qu’elles avaient été plus nombreuses dans le passé, preuve d’une évolution de l’Univers. Mais leur estimation était contestée par d’autres équipes, qui arguaient que leurs observations surestimaient les sources faibles, car elles souffraient 63
Univers stationnaire contre Big-Bang, ou Hoyle contre Gamow
d’un phénomène de « confusion » dans le faisceau du radiotélescope*. La question resta donc en suspens pendant plusieurs années, jusqu’à ce que des radiotélescopes plus précis apportent une confirmation. Mais à ce moment-là, on avait déjà d’autres preuves de l’évolution de l’Univers. En 1965, on avait donc découvert ce rayonnement prédit vingt ans plus tôt ! Depuis 1992, on sait qu’il correspond exactement à un corps noir* dont la température est 2,725 degrés absolus. C’était une preuve fantastique en faveur du Big Bang. D’autant que s’accumuleront ensuite de nombreuses autres évidences de l’expansion. Ainsi, on a découvert que les galaxies situées à des milliards d’années-lumière (qu’on observe donc dans l’état où elles étaient il y a des milliards d’années) sont très différentes des galaxies proches – elles sont plus petites, plus perturbées, contiennent plus d’étoiles en formation. On observe des quasars* dans des galaxies lointaines, plus lumineux que les galaxies actives proches. On a découvert que la température du rayonnement fossile augmente avec la distance, etc. Tout ceci aurait dû constituer logiquement un coup d’arrêt pour l’Univers stationnaire. Eh bien non ! Hoyle et d’autres tenteront de l’adapter par la suite. Jayant Narlikar, un ancien étudiant de Hoyle, très célèbre en Inde pour son action en faveur de la popularisation de la science, reprendra le flambeau et tentera d’adapter le modèle stationnaire en créant le « modèle quasi stationnaire28 ». La densité moyenne de l’Univers n’y est plus constante au cours du temps, et celui-ci a une histoire cyclique, basée sur une alternance de phases d’expansion et de contraction. Margaret et Geoffrey Burbidge y adhéreront jusqu’à leur mort récente, en particulier en contribuant à la recherche de « décalages spectraux* anormaux ». Malheureusement, ce modèle ne permet aucune prédiction spécifique, ce qui le condamne en tant qu’objet scientifique…
28. Un jour où je me promenais dans la campagne indienne, j’y rencontrais une famille de touristes indiens, à qui je dis que je venais de Pune où j’avais été reçue par Narlikar qu’ils connaissaient par ses émissions à la télévision. Éperdus d’admiration, ils me questionnèrent sur lui pendant des heures et je dus leur faire un véritable cours d’astrophysique. 64
Grandes controverses en astrophysique
LE PARADOXE D’OLBERS-DE CHÉSEAUX
Il est intéressant d’insérer ici un petit chapitre sur ce « paradoxe » qui a fait couler beaucoup d’encre pendant des siècles. Une première solution fut trouvée grâce au génie d’un poète, puis plus tard la véritable solution arriva grâce à la découverte de l’expansion de l’Univers. Pourquoi la nuit est-elle noire ? « Mais parce que lorsque le soleil est couché, il ne nous éclaire plus. Le ciel étoilé est magnifique, les étoiles y scintillent par centaines, mais elles ne sont tout simplement pas capables de nous éclairer plus que ne le feraient des chandelles posées dans un champ à plusieurs kilomètres », répondraient la plupart des enfants, et probablement 99 % des adultes ! Pourtant on sait, depuis qu’on observe le ciel avec des télescopes, qu’il existe des millions et même des milliards d’étoiles. Et cependant le ciel le plus profond est toujours aussi noir la nuit que celui que nos yeux perçoivent directement. Cette question simple a suscité de nombreuses réponses et autant de controverses. Comme pour tous les problèmes astronomiques, des solutions scientifiques ne furent proposées qu’à partir de xviie siècle. La plus simple était de supposer que l’Univers n’était pas infini et qu’il contenait un nombre limité d’étoiles. C’est ce que fit Kepler, qui affirmait très justement que si l’Univers était infini, avec des étoiles 65
Le paradoxe d’Olbers-de Chéseaux
réparties uniformément, la voûte céleste aurait dû être aussi brillante que le Soleil. En fait, il voulait surtout contrer Giordano Bruno qui pensait que l’Univers et le nombre d’étoiles étaient infinis, et qui monta en 1600 sur le bûcher pour cette affirmation. La première approche mathématique fut en 1744 celle du Suisse Jean-Philippe Louis de Chéseaux qui montra que le ciel entier devait être environ 180 000 fois plus brillant que le Soleil. Il fallait donc bien se tourner vers un Univers fini. Et de fait, l’existence de la Voie lactée, qui semblait borner le monde, plaidait pour cette explication. C’est presque un siècle plus tard en 1826 que le médecin allemand Heinrich Olbers, passionné d’astronomie, reprit le problème de Chéseaux sans y ajouter grand-chose, sinon qu’il exposa pour la première fois l’argument simple suivant : « S’il y a réellement des soleils dans tout l’espace infini, leur ensemble est infini et alors le ciel tout entier devrait être aussi brillant que le Soleil. Car toute ligne que j’imagine tirée à partir de nos yeux rencontrera nécessairement une étoile fixe quelconque, et par conséquent tout point du ciel devrait nous envoyer de la lumière stellaire. » C’est pour cette raison que le paradoxe fut nommé « paradoxe d’Olbers », nom qui, contrairement à ce que l’on croit en général, lui fut donné seulement un siècle plus tard par le cosmologiste britannique Herman Bondi. Utilisant une image invoquée souvent depuis, imaginons que nous soyons dans une forêt s’étendant à l’infini, nous ne verrions que des arbres autour de nous. Le ciel nocturne devrait donc être aussi brillant que la surface d’une étoile moyenne comme notre Soleil29. Il fallait donc que l’Univers fût fini. Mais il y avait eu déjà un problème pour Newton dans ce cas. Car toutes les étoiles devaient tomber au centre et s’y rassembler, conformément à sa loi de la gravitation universelle. Et si les étoiles n’étaient pas réparties de façon exactement uniforme, chaque région un peu plus dense en étoiles que les régions environnantes devait s’effondrer vers son centre. Et puis, 29. En effet, si l’éclat d’une étoile varie comme l’inverse de sa distance au carré, c’est parce que sa surface apparente diminue comme la distance au carré, tandis que la brillance de sa surface reste constante. 66
Grandes controverses en astrophysique
Le paradoxe d’Olbers-de Chéseaux
si l’Univers était fini, se posait alors le problème de son « bord ». Que se passe-t-il lorsqu’on y parvient ? Peut-on se pencher en dehors, le franchir et aller plus loin ? Et ainsi de suite ? Dans ce cas, l’Univers pourrait être infini, mais il serait vide au-delà d’une certaine distance. Bref, tout ceci semblait inconsistant. Des solutions dans le cas d’un Univers infini furent proposées, comme l’absorption du rayonnement par des poussières au cours de son voyage à travers le cosmos. On ignorait que dans ce cas, le rayonnement visible absorbé devait nécessairement être réémis, éventuellement dans un autre domaine de longueur d’onde, et que le ciel resterait aussi lumineux. Et si le paradoxe n’avait pas été résolu entretemps, nul doute que les partisans de la « fatigue de la lumière » au xxe siècle l’auraient invoqué comme explication (voir le chapitre sur les décalages spectraux anormaux ») ! Curieusement, c’est le grand poète Edgar Allan Poe qui a fourni le premier au xixe siècle une explication rationnelle, fondée sur des concepts scientifiques exacts. On dirait maintenant qu’il avait une bonne connexion entre son cerveau gauche et son cerveau droit. Ole Christensen Rømer, astronome danois, avait déterminé à l’Observatoire de Paris en 1676 la valeur approximative de la vitesse de la lumière en étudiant le cycle des éclipses de Io, l’un des satellites de Jupiter. Par ailleurs, Poe savait, ou devinait, que le Soleil – donc les étoiles – ne pouvait vivre indéfiniment. À son époque, le célèbre Lord Kelvin avait même montré, au grand dam des géologues, que le Soleil ne pouvait avoir plus de 50 000 millions d’années (voir le chapitre sur Kelvin). Poe connaissait-il les travaux de Kelvin ? En tout cas, il déduisait qu’on ne pourrait voir des étoiles plus lointaines que la distance parcourue par la lumière depuis leur naissance (donc 50 millions d’années-lumière* si on adoptait la valeur de Kelvin – bien qu’on ne parlât pas encore de cette unité de longueur), car la lumière n’aurait pas eu le temps de nous en parvenir. C’était loin, mais c’était ce n’était pas infini. Donc pour Poe, seule une région finie de l’Univers nous était accessible, et le paradoxe était résolu ! 67
Le paradoxe d’Olbers-de Chéseaux
Figure 3 | Le paradoxe d’Olbers.
Pourtant cette solution n’est pas la bonne car elle a été bousculée par la cosmologie du xxe siècle et la découverte de l’expansion de l’Univers. Les choses ne sont pas si simples. On sait maintenant que l’Univers a un âge fini, et l’on est même capable de voir les toutes premières étoiles et les premières galaxies, nées il y a plus de treize milliards d’années, qui sont bien plus éloignées que 50 millions d’années-lumière. Mais nous les voyons telles qu’elles étaient il y a 13 milliards d’années, et beaucoup ont évolué ou même disparu depuis. De plus leur rayonnement nous parvient décalé vers les grandes longueurs d’onde, et l’on entend souvent dire que cet effet joue un rôle important car il diminue l’intensité de la lumière que nous en recevons. Cela signifie que la lumière provenant de ces galaxies possède moins d’énergie que si l’Univers n’était pas en expansion. En réalité, cet effet est mineur, c’est l’âge fini des étoiles qui est déterminant. Notons qu’il est aussi possible que l’Univers soit infini spatialement malgré un âge fini (on ne le sait en fait pas encore !), mais cela ne change pas la conclusion. 68
Grandes controverses en astrophysique
Le paradoxe d’Olbers-de Chéseaux
Ajoutons que le ciel n’est pas « noir » la nuit, il l’est seulement si nous le regardons en lumière visible. Car dans le domaine des micro-ondes, il brille intensément à cause du rayonnement que nous a envoyé le gaz uniforme primordial lorsque l’Univers était âgé de 400 000 ans. Et si nos yeux étaient aussi grands que les antennes d’un radiotélescope, il est probable qu’ils seraient éblouis même la nuit.
69
CONTROVERSES AUTOUR DE LA MATIÈRE NOIRE
Il est évident qu’un problème aussi fondamental que celui de la matière noire*, apparue il y a presque un siècle et dont la nature n’est toujours pas comprise, n’a pas suscité UNE controverse, mais plusieurs, et qu’elles sont loin d’être terminées actuellement ! Pourtant, ce problème était né dans l’indifférence générale… UN GÉNIE DÉTESTÉ En 1933, un astronome enseignant au California Institute of Technology (Caltech), l’Américano-Suisse Fritz Zwicky, fit une découverte capitale. Zwicky était indubitablement un génie. Outre celle dont il est question ici, il a fait plusieurs autres découvertes importantes. Il a compris que les supernovae* sont à l’origine des étoiles à neutrons* (qu’on allait découvrir quarante ans plus tard avec les pulsars*). Il a suggéré que les rayons cosmiques sont émis par les supernovae ; il s’est lancé pour le prouver à la recherche des supernovae et en a découvert 120 ! Il avait même envisagé déjà dans les années 1930 de pouvoir sonder l’Univers avec les lentilles gravitationnelles* ! C’était un travailleur infatigable qui n’hésitait pas à mettre les yeux derrière le télescope. Outre les supernovae, il est l’auteur d’un catalogue de 71
Controverses autour de la matière noire
galaxies et d’amas de galaxies (contenant 9 134 amas de galaxies !), et il a découvert une classe de galaxies « compactes », dont plusieurs sont devenues célèbres. Ainsi, I Zwicky 1 est considérée comme la galaxie la plus extrême d’une espèce étrange possédant un noyau très brillant avec des raies spectrales* du fer très intenses30, un phénomène qui n’est pas encore expliqué. Et I Zwicky 18 a pendant longtemps été la galaxie la plus pauvre en carbone et en oxygène de l’Univers. Mais Zwicky avait une autre particularité. Il avait un caractère abominable. L’une de ses phrases préférées était qu’il était entouré de « cons sphériques » (« spherical bastards »). Pourquoi « sphériques » ? Parce qu’ils étaient cons de quelque côté qu’on les regarde. J’ai appris qu’un hôte éminent qui venait souvent à Pasadena et avait alors un bureau dans le même bâtiment que Zwicky, Allan Sandage, évitait toujours de prendre les couloirs et préférait faire le tour par l’extérieur pour ne pas le rencontrer. On ne pouvait donner un séminaire en présence de Zwicky sans avoir à répondre à ses attaques violentes, souvent justifiées d’ailleurs. Bref, il se faisait détester de tout le monde. Dans les années 1930, on venait de découvrir l’expansion de l’Univers avec la constante de Hubble. On ne croyait plus trop à la « constante cosmologique Lambda* », puisque Einstein lui-même l’avait reniée – mais non Georges Lemaître, l’autre découvreur de l’expansion de l’Univers. Il restait cependant une constante fondamentale nécessaire pour connaître la structure et le devenir de l’Univers, sa masse volumique ou densité. Einstein et de Sitter avaient proposé en 1932 un modèle d’Univers de courbure nulle (donc « euclidien ») qui avait une relativement grande densité. Zwicky la détermina en mesurant les masses des amas dans lesquels résidaient la plupart des galaxies. En fait, contrairement à ce qu’on croit habituellement, sa découverte est due entièrement à son intuition en non pas à ses observations. ll se contenta de rassembler et d’analyser les résultats publiés, surtout ceux de Humason et Hubble, pour en déduire ses propres conclusions. Je vais essayer de décrire simplement sa méthode. 30. J’ai moi-même travaillé sur ce sujet pendant plusieurs années. 72
Grandes controverses en astrophysique
Controverses autour de la matière noire
En 1933, pour plus de soixante galaxies (qu’on appelait encore « nébuleuses »), avaient été publiés à la fois les distances déterminées directement au moyen des Céphéides et d’autres critères, et les décalages spectraux vers le rouge. Ceux-ci correspondent, comme pour l’effet Doppler-Fizeau* bien connu, à des vitesses d’éloignement par rapport à nous. On les interprétait comme étant dues à l’expansion de l’Univers. Tant qu’elles ne sont pas trop grandes, ces « vitesses de récession » sont proportionnelles aux distances : c’est la fameuse « loi de Hubble* ». Zwicky étudia les écarts des galaxies à cette loi et remarqua que l’erreur statistique moyenne était de 300 km/s. À part les galaxies proches du groupe local, Zwicky constata que les galaxies se regroupaient au sein de neuf concentrations, des « amas ». Il s’intéressa à l’amas de Coma (dans la constellation de la « chevelure de Bérénice ») qui contenait huit galaxies individuelles bien observées. En étudiant les vitesses de récession de ces galaxies, il constata que les écarts entre elles étaient de l’ordre de 1 500 km/s. C’était beaucoup plus grand que l’erreur statistique moyenne. Zwicky en déduisit que ces écarts étaient dus aux vitesses propres des galaxies au sein de l’amas, qui se superposaient à la vitesse de récession de l’ensemble de l’amas causée par l’expansion de l’Univers. Zwicky se servit de ces vitesses propres pour déterminer la masse totale de l’amas. Il utilisa pour cela un amas ayant atteint un état d’équilibre dynamique, « relaxé » comme on dit (voir l’encadré). La méthode avait été inventée quelques années auparavant par le Britannique Arthur Eddington pour les amas d’étoiles. Pour faire simple, disons que plus les vitesses sont grandes pour un rayon donné de l’amas, plus la « masse dynamique » de l’amas est élevée, car la gravité empêche alors les galaxies de se disperser malgré leurs grandes vitesses. Zwicky trouvait ainsi pour Coma une masse de 3 × 1014 masses solaires. Par ailleurs, il comptait dans Coma environ 800 galaxies (un nombre proche de la réalité). En supposant qu’elles possédaient chacune un milliard d’étoiles semblables au Soleil, Zwicky en déduisait la masse de toutes les galaxies de l’amas… et il constatait qu’elle était 400 fois 73
Controverses autour de la matière noire
plus petite que celle donnée par la méthode que je viens de décrire ! Il en déduisait l’existence d’une masse non visible, une « masse cachée ». Il constatait d’ailleurs que, multipliée par le nombre d’amas par unité de volume, cette masse correspondait à peu près à la densité de l’Univers d’Einstein et de Sitter. Il suggérait même de l’étudier au moyen de lentilles gravitationnelles*, ce qui est l’un des moyens actuels couramment utilisés pour mesurer la masse manquante de l’Univers. Naturellement, tout ceci était très approximatif, d’autant qu’on se trompait à l’époque, et sur les distances, et sur les masses des galaxies. Néanmoins la différence entre les deux déterminations était suffisamment grande et aurait dû attirer l’attention des cosmologistes. Or la découverte de Zwicky ne fut pas prise au sérieux ! Était-ce à cause de son caractère exécrable ? Ou simplement parce que son article était publié en allemand dans une petite revue suisse, et qu’il subit le même sort que la découverte de l’expansion de l’Univers en 1927 par Lemaître, publiée en français dans une revue belge ? Ou alors, Zwicky lui-même, qui était déjà suffisamment critiqué, ne voulait-il pas se battre pour cette idée ? À vrai dire, sa découverte ne fut pas même discutée, simplement on n’en parla pas. Ainsi, en 1939, Horace Babcock publia une analyse de la rotation de la galaxie d’Andromède (voir l’encadré), et constata que les vitesses ne décroissaient pas vers l’extérieur du disque lumineux, ce qui impliquait la présence de matière non lumineuse. Il en déduisait un rapport élevé de la masse à la luminosité, mais curieusement il ne citait pas Zwicky31. En 1957, les radioastronomes néerlandais Hendrick van de Hulst, Ernst Raimond et Hugo van Woerden construisirent une meilleure courbe de rotation* d’Andromède, obtenue par l’observation des nuages d’hydrogène neutre (raie à 21 cm* de longueur d’onde). Ils montrèrent que la vitesse de rotation reste approximativement constante au-delà du rayon visible de la galaxie, mais n’en déduisirent rien concernant une masse « cachée ». Une étude de Kahn et Woltjer en 1959 mit en évidence dans le groupe local de galaxies la présence de matière « non 31. Sauf pour mentionner ses réflexions sur les courbes de rotation. 74
Grandes controverses en astrophysique
Controverses autour de la matière noire
stellaire », qu’ils attribuèrent à du gaz très chaud émettant seulement des rayons X. Eux non plus ne citèrent pas Zwicky. Pourtant, on trouve dans la littérature un article d’un Sinclair Smith, publié en 1936 dans Astrophysical Journal (revue bien connue, elle !), qui propose exactement le même travail que Zwicky, mais sur l’amas Virgo, et trouve également une masse dynamique bien plus importante que la masse visible ; Smith l’attribue à de la matière interstellaire. Il faut aller chercher dans les dernières phrases de l’article pour trouver une allusion à la découverte de Zwicky sur Coma, et il n’est pas mentionné que c’est lui qui a inventé la méthode. Apparemment, ce Smith, qui travaillait au mont Wilson et était spécialisé dans la fabrication de spectrographes*, a arrêté de publier après son article sur Virgo. Bizarre, bizarre32… CONTROVERSE SUR LES AMAS DE GALAXIES On commença à accepter l’idée de grandes vitesses dans les amas de galaxies au cours des années 1960, car on pouvait cette fois les déterminer avec précision, et le problème revint à la mode. Mais on en déduisait des masses « cachées » très grandes. En effet, si les amas n’étaient pas très massifs, ces vitesses auraient signifié que les galaxies n’étaient pas retenues par leur champ gravitationnel et devaient s’en échapper. Donc les amas se videraient rapidement et on devrait en observer beaucoup moins. La situation était grave au point qu’un jeune Italien, Arrigo Finzi, osa proposer en 1963 une modification de la loi de Newton aux grandes distances, concept qui sera repris vingt ans plus tard par l’Israélien Mordehai Milgrom avec la théorie MOND (MOdified Newtonian Dynamics). On n’était pas encore prêt à envisager une idée aussi révolutionnaire. Notons que c’est la première fois que le nom de Zwicky est mentionné pour son article de 1933 ! 32. James Lequeux qui a vécu beaucoup plus tard à Pasadena raconte qu’il y avait encore des disputes homériques sur ce sujet et d’autres entre les gens de Santa Barbara Street (eux-mêmes divisés) et ceux de Caltech. Ils avaient cependant des réunions en terrain neutre (un restaurant tahitien) auxquelles assistaient des personnes de bonne volonté prêtes à discuter calmement… 75
Controverses autour de la matière noire
Dans les années 1970, une controverse se déclara à propos de l’hypothèse que les amas de galaxies avaient atteint un état d’équilibre. Le cas de Coma fut réexaminé à diverses reprises, pour constater qu’il n’était pas « relaxé », car il était composé de plusieurs entités. Par ailleurs le gaz qui s’échappe des galaxies se concentre vers le centre des amas en se réchauffant et en émettant des rayons X. On commença à observer ces rayons X grâce aux satellites artificiels, et on constata qu’ils montraient des concentrations irrégulières. Donc les amas ne semblaient pas relaxés. Tout ceci permit de déterminer la quantité de matière noire de façon plus précise : elle était environ cinq à dix fois celle de matière ordinaire. C’était plus raisonnable que la proportion trouvée par Zwicky. Néanmoins la controverse sur l’équilibre des amas n’est toujours pas complètement éteinte. ON REPREND LES COURBES DE ROTATION DES GALAXIES Vera Rubin voulait faire de la recherche en astronomie. Elle tenta de faire des études à Princeton, mais on lui répondit que Princeton n’acceptait pas les femmes. Elle s’inscrivit alors à Cornell, ce qui n’était pas un mauvais choix puisqu’elle eut Richard Feynman comme professeur. Puis elle passa une thèse sous la direction de George Gamow, dont il est question dans un autre chapitre. Il lui conseilla de choisir plus tard un sujet de recherche moins difficile que le Big Bang, peu approprié aux femmes. Conformément à l’injonction de son mentor, elle choisit un sujet qui lui paraissait tranquille, l’observation de la dynamique des galaxies, auquel elle s’intéressa pendant toute sa vie. Je ne pense pas qu’elle ait pensé une seule seconde en commençant ses observations, qu’avec ce sujet elle allait initier une véritable révolution en cosmologie… En 1970, elle publia avec un ingénieur qui avait développé un spectromètre* très sensible, Ken Ford, un article sur la galaxie d’Andromède dans lequel ils déterminèrent la variation de la vitesse de rotation en fonction du rayon, à partir des spectres visibles d’étoiles chaudes et de nébuleuses brillantes. Ils confirmèrent que la courbe de 76
Grandes controverses en astrophysique
Controverses autour de la matière noire
rotation ne retombe pas comme elle devrait le faire à 70 000 annéeslumière de rayon, alors que le rayonnement, lui, s’effondre. Ce fut le début d’une série d’articles d’eux-mêmes et de plusieurs autres, qui montrèrent alors que de la matière invisible s’étend systématiquement loin des galaxies, là où il n’existe plus de matière visible. LA MATIÈRE NOIRE REFAIT SURFACE Mais qu’est-ce que c’était que cette matière noire ou plutôt invisible ? Jusqu’en 1980, on ne faisait pas allusion à de la matière exotique « non baryonique »33. On cherchait quels objets « normaux » pourraient contribuer à la matière noire, comme les naines brunes*, les naines blanches*, les trous noirs*… À cette époque, furent organisées d’énormes collaborations entre astronomes et physiciens, comme MACHOs (Massive Compact Halo Objects), EROS (Expérience pour la Recherche d’Objets Sombres), ou encore AGAPE (Andromeda Galaxy Amplified Pixel Experiment) qui a suivi 10 milliards d’objets. Malgré leurs noms provocateurs, elles furent infructueuses. C’est à ce moment seulement que la « matière noire » au sens où on l’entend maintenant, celle qui n’interagit pas avec la lumière mais seulement avec le champ de gravité, fit son entrée dans le bestiaire cosmologique. En effet, les cosmologistes américains Ostriker et Peebles montrèrent en se fondant sur des simulations numériques que les disques galactiques sont instables en l’absence d’un halo étendu de matière noire. Et l’on se mit à chercher des particules exotiques, comme les WIMPS34 (Weakly Interacting Massive Particles), correspondant à des extensions du modèle standard de la physique des particules. Jusqu’à maintenant, toutes les expériences, dont celles sur le LHC (Large Hadron Collider) de Genève ont échoué à les détecter. 33. La matière « normale » est constituée de baryons, particules formées de trois quarks, comme les protons et les neutrons. Le terme « baryon » vient du grec barys qui signifie « lourd », car les baryons sont en général plus lourds que les autres types de particules. Les baryons interagissent avec la lumière, contrairement à la « matière noire ». 34. Wimps signifie « mauviette » en anglais… 77
Controverses autour de la matière noire
UNE NOUVELLE CONTROVERSE Naturellement toutes ces idées suscitèrent de nouvelles controverses. L’une d’elles fut celle de la « matière noire chaude » contre « la matière noire froide ». Bien qu’elle soit maintenant résolue (enfin, on peut l’espérer !), elle vaut la peine d’être mentionnée, car en son temps – celui de la guerre froide – ce fut une guerre feutrée et inavouée entre cosmologistes russes et américains. Pour les Russes sous l’égide du grand cosmologiste Iakov Zeldovitch, les particules de matière noire étaient très légères et rapides (« chaudes »), par exemple des neutrinos*, et devaient dissoudre rapidement en se déplaçant toutes les petites fluctuations de densité de l’Univers. Seules subsistaient les très grandes, qui allaient former les gros amas de galaxies. Ceux-ci se fractionneraient plus tard pour donner des galaxies. Dans l’autre scénario, prôné entre autres par l’Américain Jim Peebles, la matière noire était massive et froide, et les petites condensations se formaient en premier, puis s’agrégeaient pour former plus tard de grandes structures comme les amas de galaxies. C’est ce que l’on nomme le scénario « hiérarchique ». Les observations montrèrent que c’est le deuxième scénario qui est le bon. Ce sont donc les Américains qui gagnèrent, et à partir de ce moment, on parla de modèle cosmologique CDM (Cold Dark Matter). Dans les années 2000, ce modèle devint le « LambdaCDM » lorsqu’il fut montré qu’il fallait lui ajouter une « énergie sombre* », résurgence de la constante cosmologique* Lambda d’antan. Toutefois l’affaire n’est pas terminée, car on parle maintenant aussi de matière noire « tiède ». Encore une controverse ! En 1983, Milgrom proposa, comme on l’a dit plus haut, de se passer de la matière noire grâce à une modification empirique de la dynamique newtonienne (MOND). Elle marche très bien pour les courbes de rotation des galaxies, ce qui n’est pas étonnant car elle a été fabriquée dans ce but, mais elle échoue à expliquer certaines observations, comme l’amas de galaxies du Boulet. Celui-ci est formé de deux amas 78
Grandes controverses en astrophysique
Controverses autour de la matière noire
en collision, et la matière noire (observée grâce à une lentille gravitationnelle*) est clairement séparée de la matière ordinaire (observée en rayons X). Un groupe d’astronomes travaille toutefois à réconcilier MOND avec les observations. Il est clair cependant que ni MOND ni ses avatars ne suffisent à expliquer les phénomènes observés, et qu’il faut garder au moins un peu de « matière noire », qui est probablement sous forme de gaz très chaud et difficile à observer. Diverses autres tentatives d’explications, qui permettraient également de se passer à la fois de la matière noire et de « l’énergie sombre », voient le jour. L’une, qui pourrait être la bonne, est de mettre à bas le « principe cosmologique » supposant l’homogénéité de l’Univers, mais les calculs sont très difficiles. On en attend les résultats avec impatience ! MÉTHODES DE ZWICKY ET DES COURBES DE ROTATION Dans les deux cas, le principe consiste à déterminer la vitesse du gaz ou d’étoiles présentes sur la ligne de visée Vr en mesurant le décalage des raies spectrales (effet Doppler) : Vr/c = Δλ/λ où c est la vitesse de la lumière. La méthode de Zwicky est basée sur le théorème du viriel (du latin vis : force), proposé en 1870 par Rudolf Clausius, qui revient à dire que dans un système en équilibre dynamique, l’énergie cinétique Pcin (= ½ M où est le carré de la vitesse moyenne) égale l’opposé de la moitié de l’énergie potentielle Ppot (= GM2/2R, où R est un rayon caractéristique), ce qui donne pour la masse M = 2R/G. La méthode des courbes de rotation est basée, elle, sur la mesure de la vitesse de rotation des étoiles ou des nuages interstellaires d’une galaxie en fonction de la distance au centre R. La masse est donnée par la même équation, mais en supprimant le facteur 2, et cette fois la vitesse est la vitesse de rotation mesurée directement et corrigée de l’inclinaison de la galaxie. En principe, à partir du rayon où il n’y a plus de matière, la vitesse de rotation doit décroître suivant la loi de Kepler en 1/R1/2.
79
Controverses autour de la matière noire
En 1986, Vera Rubin avait été invitée à prononcer le discours de clôture d’un congrès qui s’était tenu en Inde sur la matière noire dans l’Univers. Sa conclusion est résumée dans cette phrase : « Nous avons raconté ici une histoire, une histoire dont nous commençons juste à comprendre les détails. Nous comprenons un peu comment s’est formé l’Univers, nous pouvons essayer de prédire son histoire future. La plupart des réponses nous échappent. Nous avons encore beaucoup à apprendre. » Je ne suis pas sûre que nous ayons beaucoup progressé depuis cette époque !
80
Grandes controverses en astrophysique
LES BATAILLES DE LA CONSTANTE DE HUBBLE
La « constante de Hubble » est la valeur du taux d’expansion de l’Univers (vitesse par unité de distance) dans notre environnement local. Il s’agit donc de mesurer des vitesses et des distances. Les vitesses de fuite des galaxies sont relativement simples à déterminer, puisqu’elles sont données par le décalage spectral des raies vers le rouge* (redshift)35. C’est la mesure des distances qui a de tout temps posé des problèmes colossaux aux astronomes. Elle est fondée sur des méthodes utilisées de proche en proche, dont la première et la seule directe est la mesure des parallaxes* géométriques des étoiles. Les Céphéides* qui avaient servi à Hubble pour déterminer la première distance d’une nébuleuse spirale ne sont qu’une méthode parmi d’autres, et même avec le télescope de 5 mètres du mont Palomar qui resta le plus grand du monde jusqu’aux années 1990, il était impossible d’aller plus loin que quelques dizaines de millions d’années-lumière avec elles (voir l’encadré sur la mesure des distances dans l’Univers).
35. Le redshift est le décalage spectral relatif vers le rouge dû à l’expansion de l’Univers, égal à la longueur d’onde observée moins la longueur d’onde à la source, divisé par la longueur d’onde à la source. 81
Les batailles de la constante de Hubble
LA MESURE DES DISTANCES DANS L’UNIVERS Cette mesure a toujours posé un problème majeur pour les astronomes. Lorsqu’elle concerne des étoiles jusqu’à quelques centaines d’années-lumière*, on utilise la méthode de la parallaxe qui consiste à observer le déplacement de l’étoile à 6 mois d’intervalle : l’étoile s’est alors déplacée sur le ciel d’un angle correspondant à 300 millions de kilomètres (le diamètre de l’orbite de la Terre) rapporté à sa propre distance. Pour simplifier le travail, on peut aussi utiliser les parallaxes obtenues pour un groupe d’étoiles : ce sont les parallaxes statistiques plus faciles à obtenir. La méthode des parallaxes a été profondément transformée par le satellite Hipparcos (High Precision PARallax COllecting Satellite) de l’Agence spatiale européenne (ESA), lancé en 1989, et maintenant par GAIA, lancé en 2013, qui va permettre de mesurer les positions et les déplacements d’un milliard d’étoiles dans la Galaxie et les Nuages de Magellan, dont la distance est aujourd’hui connue avec précision. Quand la distance à mesurer devient trop importante, les astronomes utilisent les Céphéides puis les supernovae de type 1, qui ont toutes la même luminosité à leur maximum et permettent de mesurer des distances jusqu’à plusieurs milliards d’années-lumière. Il existe aussi différents critères, comme la loi de Tully-Fisher dont il est question dans ce chapitre. On essaye en général d’en combiner plusieurs entre eux.
Rappelons que la « constante » de Hubble n’est pas une vraie constante, comme la constante de la gravitation ou la vitesse de la lumière. Elle mesure en effet le taux d’expansion actuel de l’Univers. Elle ne garde pas la même valeur au cours du temps, puisque dans tous les modèles cosmologiques, le taux d’expansion varie au cours du temps – il peut augmenter, diminuer, rarement rester constant ! Il vaudrait donc mieux parler du « paramètre de Hubble ». Sa valeur aujourd’hui, c’est‑à-dire mesurée avec les galaxies proches, notée H0, fournit de précieuses indications. Au début des années 1930, estimée d’abord par Lemaître puis par Hubble, elle valait environ 500 km par seconde et par mégaparsec. Cette valeur due à une échelle des 82
Grandes controverses en astrophysique
Les batailles de la constante de Hubble
distances très fausse posait problème si on l’interprétait comme un indicateur de l’âge de l’Univers. En effet, l’inverse de la constante de Hubble, appelée « temps de Hubble », constitue une borne supérieure de l’âge de l’Univers quand on néglige la « constante cosmologique* » (voir le chapitre « Einstein contre Friedmann et Lemaître »). Or 500 km/s/Mpc donnait un temps de Hubble d’environ deux milliards d’années, trop petit par rapport à l’âge géologique de la Terre qui, grâce à la datation radioactive des roches, était estimé alors à 3 milliards d’années. Ce désaccord explique pourquoi de nombreux astronomes avaient préféré le modèle d’Univers stationnaire de Hoyle. Comment résoudre ce problème d’apparente incompatibilité ? EN 1952, H0 EST DIVISÉ PAR DEUX ET PAR CONSÉQUENT L’UNIVERS DEVIENT DEUX FOIS PLUS VIEUX L’astronome américain Walter Baade travaillait avec le télescope du mont Wilson et grâce à l’extinction des lumières de Los Angeles durant la deuxième guerre mondiale, il pouvait résoudre pour la première fois les étoiles de la région centrale d’Andromède et en observer les Céphéides*. Il s’aperçut qu’en fait elles se classent en deux catégories distinctes n’ayant pas la même relation entre la période et la luminosité. Rappelons que c’est cette relation, découverte par Henrietta Leavitt, qui permettait de déterminer leur distance. Or les Céphéides des Nuages de Magellan qui lui avaient servi n’obéissaient pas à la même relation que celles des amas globulaires qu’avait utilisés Hubble pour déterminer les distances des galaxies plus lointaines ! Les Céphéides des Nuages de Magellan sont plus lumineuses par environ 1,5 magnitude pour la même période. Hubble avait donc surestimé les distances par un facteur deux, tandis qu’au contraire la distance des Nuages de Magellan était sous-estimée (Hertzsprung en 1913 avait trouvé 33 000 années-lumière, contre 200 000 en réalité !). Tout ceci conduisit Baade à diviser par deux la valeur de la constante de Hubble et donc à multiplier par un facteur deux l’âge de l ’Univers. Il annonça cette grande nouvelle lors d’un congrès de l’Union 83
Les batailles de la constante de Hubble
astronomique internationale en 1952. Quelque temps après, il reçut une lettre du Français Henri Mineur lui envoyant un article publié en 1944, montrant qu’il était parvenu à une conclusion similaire concernant la constante de Hubble. Baade mentionna très honnêtement la découverte de Mineur dans son article suivant, néanmoins le mérite n’en fut jamais attribué à Mineur, même partiellement. Henri Mineur était un personnage hors du commun, une sorte d’aventurier comme l’époque en était féconde. Né en 1899, il fut reçu premier à l’École normale supérieure à 18 ans, mais il préféra servir dans l’armée pendant la première guerre mondiale. Après la guerre, il obtint son agrégation de mathématiques en 1921, puis son doctorat en 1924. Pendant la seconde guerre mondiale, il s’engagea très vite dans la résistance. À son retour, passionné par l’astronomie, il rejoignit l’Observatoire de Paris, et devint par la suite directeur de l’Institut d’Astrophysique jusqu’à sa mort. Rendu aigri par des attaques personnelles, il sombra ensuite dans la dépression et la boisson et mourut en 1954. Il avait créé à l’Institut d’Astrophysique un « bureau des calculs » constitué, comme le « harem Pickering » à Harvard dont il est question ailleurs, d’une vingtaine de « calculatrices », car apparemment les femmes étaient préférées pour ce genre de tâche précise et ingrate… Ce bureau me servit lorsque je commençais ma recherche, avant de disposer du premier ordinateur dont se dota l’Observatoire de Paris après 1960. Paul Couderc – pratiquement le seul astronome français à croire au Big-Bang dans les années 1950 – écrit dans la revue l’Astronomie à la suite de l’annonce de Baade : « Le temps d’expansion est doublé… Cet allongement est le bienvenu : il comble à peu près totalement l’abîme inacceptable qui séparait l’âge de l’expansion de l’âge de la Terre. Nous arrivons maintenant à trois milliards d’années pour l’un comme pour l’autre : nous ne nous sentons pas encore très à l’aise mais la contradiction flagrante s’est estompée. La Terre demeure un os un peu difficile à avaler par la théorie de l’expansion, mais il ne se met plus franchement en travers. » 84
Grandes controverses en astrophysique
Les batailles de la constante de Hubble
LA VALEUR MESURÉE DE H0 CONTINUE À DIMINUER ! En 1956, trois astronomes américains, Milton Humason (l’ancien muletier du mont Wilson et collaborateur de Hubble), Nicholas Mayall et Allan Sandage, publient un gros article : « Décalages spectraux and magnitudes of extragalactic nebulae ». Ils rassemblent les décalages spectraux d’un millier de galaxies et déduisent H0 grâce à la relation qu’ils trouvent entre la luminosité*36 et la distance. Ils concluent à une valeur de H0 de 180 km/s/Mpc). Le temps de Hubble devient proche de cinq milliards d’années. Cependant l’« os » de Paul Couderc est toujours présent ; ce n’est plus la Terre qui pose problème, mais les plus vieilles étoiles des amas globulaires : on pense qu’elles ont au moins vingt milliards d’années. On se dispute d’ailleurs sur cet âge, et des Français comme Roger et Giusa Cayrel participent à cette bagarre. En fait, les déterminations actuelles précises montrent que l’âge des plus vieilles étoiles est de 14 milliards d’années. Mais à l’époque, le conflit entre l’âge de l’Univers et la constante de Hubble n’était toujours pas résolu. FAISONS DONC ENCORE UN EFFORT SUR LA CONSTANTE DE HUBBLE ! À peine trois ans après l’article de Humason, Mayall et Sandage, ce dernier ramène H0 à 75 km/s/Mpc (avec toutefois une erreur possible d’un facteur deux, précise-t-il), en faisant une analyse très fouillée de divers tests de distance, en particulier en révisant la relation périodeluminosité des Céphéides. Mais Sandage n’est pas encore satisfait. Le temps de Hubble reste incompatible avec l’âge des plus vieilles étoiles. On persiste en effet à penser que la constante cosmologique* Λ est nulle, alors que si on lui attribuait une valeur suffisamment grande, le problème d’âge de l’Univers disparaîtrait de facto, comme l’avait déjà montré Lemaître quarante ans plus tôt. Rappelons que le modèle préféré dans les années 1960 est toujours celui qu’Einstein et de Sitter ont proposé en 1932, postulant que la densité est égale à la densité 36. En fait, ils utilisent ce qu’on appelle la « magnitude ». 85
Les batailles de la constante de Hubble
critique (la valeur nécessaire pour que l’Univers soit plat) et que la constante Λ est nulle. En fait, on ne sait pas quelle est la densité de l’Univers. Si son contenu se limite à la matière visible, il est alors ouvert, en expansion perpétuelle décélérée, et son âge est de 13 milliards d’années. S’il est plus dense – par exemple rempli aussi de matière noire, comme l’avait suggéré Fritz Zwicky dès 1933 – son âge est encore plus petit. H0 semble donc encore trop grand pour valider le modèle du Big Bang ! Sandage se consacre désormais essentiellement à la mesure de la constante de Hubble. Dès 1970, il annonce qu’elle est probablement voisine de 50 km/s/Mpc. Avec le Suisse Gustav Tammann, il va produire une série d’articles intitulée « Steps toward the Hubble constant » (« Étapes vers la détermination de la constante de Hubble »), où ils confirment et précisent cette valeur de 50 km/s/Mpc. Dans le dernier article de la série, en 1995 (le dixième), ils concèdent une valeur un peu plus grande : 55 km/s/Mpc. Ils tentent également de déterminer par les mêmes méthodes la densité totale de matière car elle est liée à H0, mais à cette époque les observations ne portent pas encore suffisamment loin. UNE BATAILLE FÉROCE ENTRE L’ÉCOLE ANGLO-SAXONNE ET L’ÉCOLE FRANÇAISE En 1977, deux radioastronomes, l’un canadien l’autre américain, Brent Tully et Richard Fisher, découvrent une relation empirique entre la luminosité* des galaxies spirales et la largeur de la fameuse raie à 21 cm* de l’hydrogène. Notons d’ailleurs que cette relation n’est pas encore complètement comprise. Naturellement elle peut être utilisée comme critère de distance, puisqu’on peut facilement mesurer la largeur de la raie à 21 cm, et que la luminosité qui en est déduite comparée à l’éclat donne alors la distance. C’est ce que s’empressent de faire deux radioastronomes françaises, Lucienne 86
Grandes controverses en astrophysique
Les batailles de la constante de Hubble
Gouguenheim et Lucette Bottinelli37, ainsi que leur étudiant Georges Paturel. Gérard de Vaucouleurs, un astronome français installé à Austin au Texas, propose dans les années 1970, sur la base de différents critères, une valeur de 100/km/s/Mpc pour la constante de Hubble. Il est bientôt rejoint par nos radioastronomes françaises. La bataille se livre à coups d’articles et de tests. Dans les années 1980, la valeur donnée par l’école française est 75 km/s/Mpc. Pourtant, pendant encore plus de trente ans, la valeur de 50 km/s/Mpc préconisée par Sandage et Tammann contre l’école française prévaut, même en France ! Il faut cependant noter que ce n’est que dans un modèle en décélération (donc sans constante cosmologique*) que la valeur du paramètre de Hubble donne une contrainte sur l’âge de l’Univers. Derrière le débat féroce sur la valeur mesurée de H0 se cachait donc une position idéologique… À ce jour, les résultats des satellites WMAP puis Planck donnent une valeur voisine de 70 km/s/Mpc. À partir des années 2000, c’est cette valeur qui a été adoptée, et il a fallu refaire de nombreux calculs en tenant compte de ce changement. Par exemple, la luminosité des galaxies et des quasars* correspondant à la distance tirée de la loi de Hubble est devenue deux fois plus faible… En définitive, la valeur de la constante de Hubble a été divisée par 7,5 en 60 ans ! UNE NOUVELLE CONTROVERSE… Cependant l’histoire est loin d’être finie et une autre bagarre vient d’être déclenchée, car il subsiste un désaccord majeur entre deux déterminations de la constante de Hubble. Il existe en effet maintenant deux méthodes principales pour déterminer H0. 37. On les appelait « les Rosettes », car elles avaient fait leurs premiers pas en astronomie en étudiant la nébuleuse de la Rosette sous la direction de James Lequeux. Ce surnom leur est resté toute leur vie ! 87
Les batailles de la constante de Hubble
L’une s’adresse non pas à des galaxies proches, mais à des objets très lointains, et même au plus lointain que nous puissions observer : le « rayonnement fossile* », émis seulement 380 000 ans après le Big Bang. Il est observé actuellement dans le domaine des ondes radio et millimétriques, et plusieurs satellites – dont le dernier en date, Planck – nous ont appris qu’il présente de minuscules fluctuations. Leur analyse permet de déduire un ensemble de paramètres concernant la structure et l’histoire de l’Univers, en particulier H0, mais aussi la quantité de matière « noire* » et « normale », ou bien « l’énergie sombre* ». Le résultat le plus précis pour la constante de Hubble, publié en 2018 par la collaboration Planck, est H0 = 67,4 ± 0,5 (km/s)/Mpc. Par ailleurs, par une méthode fondée sur des supernovae* particulières, dites « de type 1 », Adam Riess, l’un des deux astronomes qui ont découvert l’existence de l’énergie sombre et qui ont obtenu le prix Nobel pour cette découverte, annonce que de nouvelles mesures des distances des Céphéides du Grand Nuage de Magellan donnent H0 = 74,03 ± 1,42 (km/s)/Mpc. La différence entre les deux valeurs de H0 correspond à une probabilité de 99,999 % qu’elles soient incompatibles. La dispute fait rage en ce moment et plusieurs articles sont publiés chaque mois sur le sujet. L’enjeu n’est pas mince, car ce débat pourrait remettre en cause le « modèle standard » de la cosmologie, ainsi peutêtre que celui de la physique « standard » sous-jacente. Heureusement, il existe de nombreuses façons de déterminer la constante de Hubble. Par exemple, on peut mesurer la distance d’un quasar* lorsque son image est démultipliée par une lentille gravitationnelle*. Comme l’éclat du quasar est variable, il suffit de comparer les courbes de lumière des différentes images, dont les écarts donnent des distances réelles. Cette méthode a été utilisée pour la première fois il y a près de quarante ans par un chercheur de l’Observatoire de Meudon, Jean Schneider. Elle donne à l’heure actuelle des résultats encore peu précis, mais dont la précision va progresser avec l’amélioration des 88
Grandes controverses en astrophysique
Les batailles de la constante de Hubble
observations. Il nous reste donc à attendre patiemment l’issue de cette nouvelle bataille… De plus, avant de terminer, je me permets de citer une discussion au sujet de la constante de Hubble que j’ai eue avec Jean-Pierre Luminet, spécialiste de cosmologie qui a écrit de nombreux livres sur la question. D’après lui, la « tension de Hubble est surévaluée, car elle met une fois de plus en exergue une rigidité idéologique liée à ce que le consensus décrète être le modèle standard du jour. En effet le modèle standard LambdaCDM décrète une valeur strictement nulle de la courbure spatiale, or c’est une absurdité car aucun paramètre physique ne peut être strictement égal à 1 avec un nombre infini de décimales. Les données de Planck sont parfaitement compatibles avec une courbure non nulle. Or en refaisant les calculs de H0 avec une courbure spatiale très légèrement différente de zéro, la tension disparaît… La question est donc plutôt de savoir ce qu’on appelle vraiment modèle standard pour savoir s’il est ou non remis en cause ».
89
LA CONTROVERSE DES DÉCALAGES SPECTRAUX ANORMAUX
S’il est une controverse que j’ai traversée de bout en bout, c’est bien celle des « décalages spectraux anormaux », pendant laquelle j’ai assisté à des disputes d’une violence incroyable, en particulier lorsque l’un des adeptes des décalages spectraux anormaux, Geoffrey (Gef) Burbidge, était présent dans une discussion sur le sujet. L’époux de Margaret Burbidge, aussi menue et calme que lui était imposant (disons même gros…), était en effet doté d’une voix de stentor qu’il exploitait lors de véritables explosions de fureur. Il ne faut donc pas s’étonner si je m’étends sur cette controverse un peu plus longtemps que sur les autres. En fait, il ne s’agissait pas que de la controverse sur les décalages spectraux, car la discussion englobait généralement plusieurs autres sujets, comme l’Univers stationnaire, les trous noirs géants, ou encore des lois physiques controversées telles la fatigue de la lumière. Je ne parlerai pas ici de l’Univers stationnaire ni des trous noirs, qui sont discutés dans d’autres chapitres, ni de la lumière fatiguée, qui mériterait un chapitre à elle seule. Je me concentrerai sur l’aspect « décalages spectraux ». Si l’on veut un exposé clair du point de vue que j’appellerai « non conventionnel », le mieux est de lire un article de Jean-Claude Pecker, publié dans la revue de l’AFIS (Association française 91
La controverse des décalages spectraux anormaux
pour l’information scientifique), Science & pseudosciences, n° 294, janvier 2011 : « La maladie infantile de la cosmologie, le Big Bang chaud », auquel répond en partie mon propre article « La théorie du Big Bang rend bien compte des décalages observés ». En 1963, il se produisit un événement majeur qui bouleversa tellement la communauté astronomique qu’un congrès fut immédiatement organisé au Texas pour essayer d’expliquer ces astres extraordinaires que l’on venait de découvrir et que l’on nomma « quasars » (de « quasi-stars », car ils apparaissaient comme des étoiles sur les photographies). Les Texas Symposiums se renouvelèrent ensuite tous les deux ans, mais ils traitent maintenant de sujets plus vastes, incluant les ondes gravitationnelles*, les supernovae*, et de façon générale tous les événements « violents » de l’Univers. L’une des caractéristiques des quasars est que leurs raies spectrales* (souvent intenses et toujours larges) sont décalées vers les grandes longueurs d’onde, c’est‑à-dire vers le rouge. On a pris l’habitude d’appeler ce décalage du terme anglais plus concis, redshift. Celui-ci peut atteindre plusieurs centaines de pourcents38. On aurait pu l’attribuer à une vitesse réelle (voir l’encadré sur l’effet Doppler-Fizeau), mais il fallait dans ce cas expliquer pourquoi il était toujours dirigé vers les grandes longueurs d’onde, ce qui signifiait que tous les quasars s’éloignaient de nous, donc qu’ils auraient été tous expulsés du Système solaire avec des vitesses extraordinairement grandes. Car si les quasars s’éloignaient tous de nous, tout en étant proches (c’est‑àdire situés à l’intérieur de la Voie lactée), cela signifiait qu’ils avaient été expulsés d’un endroit proche du Soleil. S’ils avaient été expulsés d’un autre endroit, on en verrait se rapprocher de nous. L’explication la plus naturelle était qu’ils participaient à l’expansion de l’Univers. Et comme les décalages spectraux étaient très grands, cela signifiait que 38. Le redshift, mentionné dans le livre à plusieurs reprises, est égal à la différence entre la longueur d’onde observée et la longueur d’onde émise, divisée par la longueur d’onde émise. Avec l’explication habituelle en termes de vitesse, il donne la vitesse d’un objet projetée sur la ligne de visée, exprimée en vitesse de la lumière. 92
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
les quasars étaient très éloignés, conformément à la loi de Hubble*, plus éloignés même qu’aucun objet connu à cette époque. EFFET DOPPLER-FIZEAU Tout le monde sait que le même son émis par un objet en mouvement semble plus aigu lorsque l’objet s’approche et plus grave lorsqu’il s’éloigne. Ce phénomène a été découvert par Doppler. Fizeau, lui, a découvert le même phénomène pour les ondes lumineuses : elles sont décalées vers les grandes longueurs d’onde lorsque la source d’émission s’éloigne. Ce décalage, ou redshift z, mentionné dans le livre à plusieurs reprises, est égal à la différence entre la longueur d’onde observée et la longueur d’onde émise, divisée par la longueur d’onde émise. Lorsque la vitesse (projetée sur la ligne de vue) est beaucoup plus petite que celle de la lumière, elle est simplement proportionnelle au redshift (V = cz, où c est la vitesse de la lumière) qui est alors plus petit que l’unité, mais lorsqu’elle se rapproche de la vitesse de la lumière, des termes correctifs interviennent et le redshift devient plus grand que l’unité. En fait le décalage vers le rouge* des galaxies découvert par Hubble et Lemaître n’est pas dû à l’effet Doppler-Fizeau, bien qu’il soit exprimé pratiquement de la même façon, c’est‑à-dire qu’il ne correspond pas à des vitesses réelles : les longueurs d’ondes sont distendues parce que l’espace lui-même s’étend, entraînant les ondes avec lui.
DES PROBLÈMES À LA PELLE… Cette explication était très embarrassante. En effet, si on plaçait les quasars à leur distance donnée par la loi de Hubble (que nous appellerons par la suite leur « distance cosmologique »), cela signifiait qu’ils étaient prodigieusement lumineux puisque l’éclat varie comme l’inverse du carré de la distance. Or, non seulement ils ressemblaient à de simples étoiles, mais on s’aperçut qu’ils variaient sur des échelles de temps très courtes, typiquement d’une semaine (on a observé depuis des variations encore plus rapides dans le domaine des rayons X). Suivant le principe de causalité affirmant qu’une variation d’éclat ne 93
La controverse des décalages spectraux anormaux
peut être plus rapide que le temps mis par la lumière pour traverser la région émissive (car toute perturbation se propage avec une vitesse plus petite que celle de la lumière), on en déduisait que leur taille était plus petite qu’une semaine-lumière. Pour résumer, disons que leur puissance était celle de mille galaxies, dans une région de la dimension d’un millionième de galaxie ! À cette époque, je venais moi-même de passer une thèse « de troisième cycle » sur des problèmes concernant l’état des électrons juste au-dessus de la surface du Soleil (dans cette couche que l’on nomme la « chromosphère), et je m’apprêtais à préparer une « thèse d’État »39 sur un sujet proche, lorsque, enthousiasmée par ces nouvelles excitantes, je décidais de me tourner vers les quasars. En fait, il était à cette époque impossible d’en prendre des spectres en France car ils étaient trop faibles, et je me rabattis donc sur « les noyaux actifs de galaxies » découverts vingt ans plus tôt, qui leur ressemblaient mais étaient encore peu étudiés. C’étaient les « galaxies de Seyfert », comportant un noyau très brillant et ponctuel avec des raies spectrales larges et intenses, découvertes en 1943 par Carl Seyfert. Il s’avéra par la suite qu’elles étaient en tout point semblables aux quasars (en tout cas à ceux qui ne rayonnent pas dans le domaine des ondes radio et constituent environ 90 % de l’ensemble des quasars). Une seule propriété les en différencie, leur luminosité* plus faible. Les noyaux des galaxies de Seyfert sont en fait les pendants des quasars, mais proches de nous. Un certain nombre d’astronomes – en particulier tous ceux qui croyaient à l’Univers stationnaire – proposèrent alors que les quasars n’étaient pas situés à leur distance cosmologique, mais qu’ils étaient beaucoup plus proches et que leur décalage spectral était dû à une cause physique encore inconnue, telle que la fatigue de la lumière dont la longueur d’onde augmenterait au cours de son voyage dans l’espace. Ce fut « la controverse des redshifts anormaux » qui battit 39. Les thèses de troisième cycle n’existent plus. Elles ont été remplacées par des thèses de trois ans ressemblant aux Ph.D. américains, tandis que les thèses d’État plus longues ont été supprimées et remplacées par « l’habilitation à diriger des recherches » qui permet d’enseigner et de diriger des recherches. 94
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
son plein pendant une quinzaine d’années. Plusieurs paradoxes soulevés dès la découverte des quasars semblaient en effet impossibles à résoudre dans le cadre de la physique conventionnelle. Par exemple, en 1966, Gef et Margaret Burbidge, avec leur collègue Beverly Lynds, observèrent dans le spectre du quasar 3C191 des systèmes de raies sombres très fines. Elles étaient dues à des éléments comme l’oxygène, le carbone et l’azote. Ces raies étaient décalées vers le rouge, mais leur décalage était inférieur à celui du quasar lui-même. Elles étaient donc « décalées vers le bleu » par rapport aux raies brillantes du quasar. Les Burbidge croyaient que le phénomène caractérisant les quasars était une explosion, associée à l’éjection de gaz et de particules relativistes. Or que devait-on observer dans ce cas ? Le gaz rejeté par les quasars sur la ligne de visée devait créer des raies sombres dans leurs spectres et, puisque ce gaz se rapprochait de nous, ces raies devaient être décalées vers le bleu par rapport à celles du quasar lui-même. C’était exactement ce qu’ils observaient. Les Burbidge attribuèrent donc ces raies à du gaz chassé par le quasar lui-même. Les « conventionnels », eux, les attribuaient à des nuages appartenant à des galaxies situées sur la ligne de visée des quasars plus lointains, qui laissaient leurs empreintes dans les spectres des quasars. Elles étaient moins décalées vers le rouge que celles du quasar visé, puisque ces nuages étaient plus proches. Ces raies avaient en fait été prédites dès la découverte des quasars par deux astronomes américains, John Bahcall et Edwin Salpeter, que nous retrouvons aussi dans d’autres chapitres. Il fallut cependant attendre quelques années avant que l’on comprenne et que l’on vérifie en les observant directement que certains de ces « nuages » sont à l’intérieur de galaxies situées sur la ligne de visée des quasars, confirmant d’ailleurs définitivement les décalages spectraux cosmologiques. Dans les années 1970, on eut droit à un autre résultat surprenant. Lorsqu’on commença à faire des observations interférométriques* avec des radiotélescopes très éloignés (ce que l’on nomme VLBI, pour Very Long Baseline Interferometry), permettant d’obtenir une 95
La controverse des décalages spectraux anormaux
résolution de l’ordre de la milli-seconde de degré40 (quelques annéeslumière pour les galaxies les plus proches), on découvrit que des sources radio compactes doubles ou triples semblaient s’éloigner les unes des autres avec des vitesses supérieures à celle de la lumière, du moins si on les situait à leur distance cosmologique. C’était naturellement impossible. Mais si la distance de ces radio-sources n’était pas donnée par la loi de Hubble et si elles étaient proches, le paradoxe disparaissait, puisque la vitesse réelle est égale à la vitesse angulaire mesurée multipliée par la distance. Cependant on comprit rapidement (grâce à Martin Rees que nous retrouvons plusieurs fois dans l’ouvrage) qu’il s’agissait en fait d’une vitesse apparente41. De toutes ces explications, les « non conventionnels » n’avaient cure. Ils continuaient à mettre en doute l’interprétation cosmologique du décalage spectral. La controverse prit tellement d’importance qu’il se développa en 1973 au sein de l’Observatoire de Paris-Meudon, un « tribunal des décalages spectraux anormaux » se réunissant une fois par semaine pour tenter de statuer sur ces problèmes. À propos de cette controverse, la radioastronome Lucienne Gouguenheim nota à cette époque « l’aspect trop passionnel qu’a pris le débat entre partisans et opposants des décalages spectraux anormaux ». J’avais moi-même publié un petit article avec Jean-Claude Pecker et un astronome arménien montrant qu’il existait une différence systématique de redshift entre les galaxies à noyau actif les plus brillantes d’un groupe et les autres. Mais il fut rapidement clair dans mon esprit que nous avions surestimé la précision de nos résultats et que l’échantillon statistique était trop faible. L’Académie pontificale des Sciences organise chaque année au Vatican une semaine d’étude dans le but de « prendre quelque sujet d’importance fondamentale dans une branche de la science, sur lequel 40. Rappelons que la résolution spatiale est inversement proportionnelle à D, où D est la distance entre les télescopes. 41. L’effet est dû essentiellement à ce que les sources s’éloignent les unes des autres et que le rayonnement qui nous en parvient est émis de plus en plus tard au cours de ce mouvement. Mais il intervient également un effet de relativité restreinte. 96
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
les experts ont des avis divergents ou même contradictoires, et d’inviter un petit groupe de scientifiques à en discuter d’une façon aussi approfondie que possible ». En 1970, le sujet choisi fut les noyaux de galaxies. Le congrès qui dura une semaine avec une logistique digne d’une réunion de chefs d’État, rassembla six membres de l’équipe pontificale et 25 astronomes constituant la fine fleur de l’astronomie anglo-saxonne de l’époque car les autres nations étaient très peu représentées (il n’y avait pas de Français…). On y trouvait seulement deux femmes, Margaret Burbidge et la « chef du secrétariat pontifical ». Il y avait également Gef Burbidge, Fred Hoyle, Lodewijk Woltjer. Les seules personnes ne professant pas à cette époque dans des universités des États-Unis étaient deux astronomes hollandais, Oort et Van der Laan, et l’astronome arménien Ambartsumian, adepte de l’Univers stationnaire. Celui-ci fit l’introduction du colloque et l’on ne peut qu’admirer la largesse d’esprit des pères du Vatican qui n’hésitaient pas à donner une place importante à des esprits frondeurs et même anti-religieux dont les idées allaient certainement à l’encontre de leurs propres convictions philosophiques. À la lecture des discussions, on voit qu’elles ont été très vives entre les « conventionnalistes » et les « non-conventionnalistes », mais finalement les conclusions donnent l’impression d’un « consensus mou », comme on dit, contrairement à l’espoir des organisateurs de la semaine. Ce n’était pas étonnant, car à part Woltjer et deux jeunes, Martin Rees et Donald Lynden-Bell, tous étaient encore acquis à cette époque au modèle local des quasars. À mon avis, le congrès le plus important dans les quinze années suivant la découverte des quasars eut lieu en juin 1977 en Suède à Uppsala, et j’eus la chance d’y participer. Il ambitionnait de « continuer et actualiser le travail commencé pendant la conférence du Vatican ». Il se tint pendant la période où le débat sur les décalages anormaux atteignait son apogée. Les organisateurs espéraient donc qu’il « aide à délimiter le domaine de plus en plus petit restant pour les spéculations dogmatiques et biaisées (opiniated) sur la nature des quasars et des Noyaux Actifs de Galaxies ». Ce congrès contribua 97
La controverse des décalages spectraux anormaux
à imposer enfin les vues conventionnelles au détriment des autres, grâce aux efforts des théoriciens pour apporter des explications aux phénomènes observés, et en même temps à l’impossibilité pour les « non-conventionnels » de proposer une alternative sérieuse. Mais les choses furent loin de se passer avec la politesse feutrée qui avait dû avoir cours au Vatican et la bataille d’Hernani ne fut sans doute pas plus houleuse que ce congrès. Un jeune astronome américain, Derek Wills, conclut diplomatiquement que les observations « pouvaient effectivement être expliquées en invoquant dans chaque cas des mélanges appropriés de décalages cosmologiques et non cosmologiques », car ce serait, disait-il, « une bonne solution qui permettrait au moins aux chercheurs de continuer à se parler entre eux ». De leur côté, les organisateurs du congrès eurent du mal à en publier les comptes rendus, et ceux-ci ne mentionnent pas les discussions qui suivirent les exposés, comme c’est normalement le cas, « à cause de la réticence des intervenants à révéler leur identité ». Les organisateurs se déclarèrent donc « contrits de ces lacunes et déplorèrent que leurs bonnes intentions de publication rapide aient été démenties (overtaken) par les événements »…
Figure 4 | La bataille des redshifts anormaux.
98
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
LE POINT DE VUE NON CONVENTIONNEL Il est temps de donner maintenant la description de la controverse du point de vue « non conventionnaliste ». Pour cela, je préfère citer l’article de Jean-Claude Pecker mentionné au début du chapitre. « Une découverte importante (capitale même aux yeux de l’auteur de ces lignes) est celle des “décalages spectraux anormaux”, due à Halton Arp. Depuis 1972, Arp a publié des dizaines d’exemples d’un phénomène remarquable : la fréquente association physique de deux objets, une galaxie normale de petit décalage spectral, et un quasar de grand décalage spectral. Cette association est démontrée non seulement par leurs positions apparentes proches dans le ciel, mais par des bras de matière les séparant. Cette découverte a été complètement occultée par la majorité des cosmologistes. Ne met-elle pas en doute l’interprétation du décalage spectral par un effet Doppler ? Deux objets sont à la même distance de nous, l’expansion devrait donc les entraîner à la même vitesse, et ils devraient être affectés du même décalage spectral – du même redshift ». Et un peu plus loin : « Mais aucun caractère spectrographique n’a encore jusqu’à présent permis la détermination de leur distance [des quasars], sauf pour ceux dont on distingue les galaxies-hôtes, et ceux pour lesquels on observe des raies d’absorption en provenance de galaxies situées très près de la ligne de visée des quasars. On suppose donc que la valeur du décalage spectral est une telle mesure, comme c’est le cas pour les galaxies les plus lointaines ; un quasar serait alors à la même distance que les galaxies affectées du même décalage spectral. » « Malgré cette accumulation de faits, l’existence des décalages spectraux anormaux n’est toujours pas acceptée par les cosmologistes du Big Bang. Ils affirment que les associations quasars-galaxies sont des effets de perspective ; que l’éclat des quasars lointains voisins en apparence d’une galaxie proche est augmenté par un effet de réfraction gravitationnelle*, ce qui entraîne une sélection observationnelle des quasars proches dans le ciel des galaxies. Mais l’existence des ponts de matière vient contredire cette critique ; aussi est-elle ignorée des cosmologistes du Big Bang. Nous devons noter 99
La controverse des décalages spectraux anormaux
que, n’y eût-il qu’un seul cas bien avéré d’association de deux objets de décalages spectraux très différents, l’explication unique de tous les décalages spectraux par un effet Doppler-Fizeau serait à abandonner. Et il y en a plus d’un ! ». Je passe sur toute la discussion mettant en cause l’expansion de Univers, comme la proposition que le rayonnement cosmologique fossile* est en fait créé localement dans les galaxies. « L’expansion ne serait qu’une apparence ; les « décalages spectraux » ne seraient pas dus à l’effet Doppler-Fizeau, mais à une interaction des photons avec les milieux traversés (c’est la « fatigue de la lumière »). Le mécanisme de cette interaction n’est pas encore précisé ; plusieurs suggestions sont faites ; c’est le point faible de cette vision de l’Univers. » Il faut rappeler que cet article a été écrit en 2011, or à cette époque on disposait de nombreux arguments en faveur des décalages spectraux cosmologiques, que ne cite pas Pecker et que je rappelle dans ma réponse, dont j’extrais ci-dessous une partie. UNE SIMPLE AFFAIRE DE STATISTIQUE On peut se demander pourquoi il a été si difficile de statuer sur ce problème des décalages anormaux. C’est que, outre les problèmes théoriques dont il a déjà été question – mais qui ont été résolus dans le cadre des décalages spectraux cosmologiques ainsi qu’on l’a vu – un astronome, Halton Arp, excellent photographe, publiait sans cesse d’étranges observations. Il fut pendant presque trente ans membre de l’Observatoire du mont Palomar et avait donc un accès facile au télescope de cinq mètres. Il était d’ailleurs l’auteur d’un Atlas de galaxies particulières où l’on trouve de nombreuses galaxies de formes extraordinaires qui ont été étudiées en détail par la suite. Donc Arp et quelques autres découvraient de bizarres alignements de quasars, des décalages semblant répondre à des récurrences ou à des lois d’exclusion, des quasars situés à côté de galaxies brillantes proches auxquels ils étaient joints par un pont de matière, des 100
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
groupes de galaxies dans lesquels un membre n’avait pas le même décalage que les autres, etc. En fait l’essence de la controverse est purement statistique. La méthode que Arp a souvent utilisée est particulièrement fallacieuse de ce point de vue. En effet, il partait d’une galaxie et cherchait ce qui pouvait exister de curieux autour. Sur le nombre, il trouvait évidemment certains cas bizarres. C’est comme si, lisant sur la plaque d’immatriculation d’une voiture devant nous le nombre 9999, nous nous en étonnions car la probabilité pour trouver un tel nombre est très faible, d’un pour dix mille. C’est vrai, mais nous n’avons simplement pas prêté attention aux 9 990 autres nombres (j’exclus ceux qui ont quatre chiffres identiques). De même, quand nous gagnons à la loterie et que nous trouvons que c’est une institution merveilleuse, nous oublions que nous avons acheté des centaines de billets avant d’en arriver là, ou tout bonnement que plusieurs millions d’autres personnes en ont acheté sans rien gagner. La différence réside dans ce qui est statistique a priori et statistique a posteriori. C’est un débat qui n’est pas près d’être clos puisqu’on en est encore à estimer des probabilités différant par des facteurs un million entre les uns et les autres. Tant que le nombre de quasars était très réduit et qu’ils étaient distribués de façon inhomogène sur le ciel pour des raisons diverses, il était difficile de leur appliquer les règles des statistiques a priori. Maintenant que d’énormes régions du ciel ont été explorées et ont livré tous les quasars qu’elles contiennent, y compris les plus faibles, on peut vérifier que les nombres de groupements et d’alignements correspondent bien à ce qui est prédit par les lois du hasard sans avoir besoin de faire intervenir une théorie nouvelle. De surcroît, on sait maintenant que « l’effet Einstein » non seulement crée de multiples images du même quasar lorsqu’il est situé derrière un amas de galaxies ou une galaxie massive qui joue le rôle d’une « lentille gravitationnelle* », mais également amplifie leur éclat, augmentant ainsi la proportion de fausses associations. 101
La controverse des décalages spectraux anormaux
Je ne peux pas entrer ici dans le détail des objets qui ont été litigieux un temps et ne le sont plus maintenant (on en trouverait des exemples dans ma réponse à Pecker). Le cas qui a fait le plus couler d’encre est sans conteste le couple formé par la galaxie NGC 4319 et le quasar Markarian 205 : ces deux objets dont les décalages diffèrent par un facteur douze, semblaient reliés par un pont de matière, jusqu’à ce que l’on obtienne récemment des images prises avec le télescope spatial Hubble montrant que la connexion entre les deux objets semble interrompue42. On voit donc qu’il faut aller jusqu’à un haut degré de sophistication dans l’analyse pour être sûr qu’elle ne soit pas biaisée par de multiples effets, même minuscules ; et par conséquent c’est un énorme travail que de réfuter ou d’accepter les cas à mesure qu’ils se présentent, ou bien notre temps y serait entièrement consacré, chacun étant à la limite des possibilités observationnelles et des erreurs statistiques. Et cela pourrait continuer indéfiniment puisque le ciel est immense et contient des millions, voire des milliards d’astres, dont il est maintenant possible d’obtenir une image détaillée et dont certains ont des particularités curieuses. Presque aucun astronome n’éprouve maintenant l’envie de passer son temps à montrer que tel alignement peut être dû au hasard, ou que tel quasar est bien situé derrière la galaxie près de laquelle il semble se trouver. C’est l’une des raisons ayant conduit à la désaffection de ce problème. Il suffit à mon avis que quelques exemples phares aient été prouvés faux et qu’aucun des autres ne soit indiscutable. Mais il y a une autre raison d’ordre supérieur à la désaffection du sujet. C’est qu’il n’a jamais été proposé pendant quarante ans aucun cadre théorique général dans lequel insérer cette série de faits disparates. Bien sûr, en tant que tenant de l’Univers quasi stationnaire, Hoyle avait suggéré que la matière était expulsée des noyaux 42. La diffusion photographique tend en effet à créer un pont entre deux sources brillantes proches l’une de l’autre, et disparaît avec de très bons détecteurs, sauf saturation. 102
Grandes controverses en astrophysique
La controverse des décalages spectraux anormaux
des galaxies, rejoignant en cela les anciennes idées d’Ambartsumian. Mais cela est resté au niveau de spéculations. Et de ce point de vue, les idées de Arp lui-même ne sont rien moins que convaincantes. En son temps, ce débat a été fascinant non seulement à cause de son importance scientifique, mais également par ce qu’il a révélé sur les personnalités et les différentes conceptions de la science. Pourquoi en effet tant de passions se sont-elles déchaînées dans cette discussion ? Certes des prix Nobel étaient sans doute à portée de la main si les non-conventionnels avaient gagné. Mais je suis sûre que même les astronomes les plus « conventionnels » auraient été excités et ravis qu’un concept totalement nouveau se dégage de leur science, montrant que l’astrophysique ne se réduit pas à appliquer la physique connue dans des conditions extrêmes. Comme l’écrivit Martin Rees, « La théorie orthodoxe d’un phénomène est par définition la plus développée parmi les théories qui n’ont pas encore pu être éliminées empiriquement. Donc suivre une approche orthodoxe est généralement la meilleure stratégie pour obtenir une confrontation décisive entre la théorie et l’observation qui permettra soit de renforcer l’orthodoxie, soit de l’éliminer en faveur d’une autre qui deviendra alors la nouvelle orthodoxie. »
103
LES TROUS NOIRS GÉANTS, MYTHES OU RÉALITÉS ?
Il y a plus de cinquante ans, en 1963, la radioastronomie* conjuguée à l’astronomie optique permettait de faire une découverte complètement inattendue, celle des quasars. Ce sont des objets très énergétiques, au sens de leur puissance intrinsèque totale. D’autres sources ont une puissance instantanée bien supérieure, mais seulement pendant quelques secondes ou quelques minutes, alors que les quasars vivent une centaine de millions d’années. Les quasars sont également les objets les plus distants et les plus vieux de l’Univers avec les galaxies. D’ailleurs ce sont tout simplement les noyaux très lumineux de galaxies lointaines, certaines ayant vécu seulement quelques centaines de millions d’années après le Big Bang. Et leur puissance gigantesque, qui peut atteindre celle d’un amas de plusieurs milliers de galaxies, est créée dans une région minuscule, dont la dimension n’est que le milliardième de celle d’une galaxie. Il n’est donc pas étonnant que pendant plus de quinze ans après la découverte des premiers quasars, on ait pataugé complètement quant à leur nature. Durant les années 1960, du moins chez les partisans des décalages spectraux cosmologiques (c’est‑à-dire correspondant à la loi de Hubble qui implique qu’ils soient très lointains et très lumineux, voir le chapitre sur « La controverse des décalages spectraux 105
Les trous noirs géants, mythes ou réalités ?
anormaux »), on se disputait à propos du mécanisme qui les faisait briller autant. Il fallait qu’il produise beaucoup d’énergie dans un tout petit volume. La théorie ayant le vent en poupe était celle de William Fowler, qui proposait une origine nucléaire de l’énergie, par exemple une étoile supermassive en rotation, un pulsar* géant en quelque sorte. Ainsi eut lieu en 1971, à Cambridge en Angleterre, un grand congrès sur les étoiles supermassives, où je fis la connaissance de Stephen Hawking, déjà sur une chaise roulante, mais où on entendit aussi parler d’autres théories. Car des astronomes s’opposaient aux étoiles supermassives, affirmant qu’elles ne pouvaient pas être stables, évoquant plutôt l’énergie fournie par l’explosion de supernovae* en chaîne, ou bien par des collisions d’étoiles, ou encore des sortes d’éruptions comme celles qui se produisent à la surface du Soleil, mais bien entendu à une échelle complètement différente. Comme toujours, le nombre de modèles était d’autant plus grand qu’on ne disposait pas des principales données qui auraient pu les contraindre, comme les observations spatiales dans les domaines de l’ultraviolet et des rayons X. Brandon Carter, dont je parle dans un autre chapitre et qui n’avait pas encore émigré en France, parla discrètement de trous noirs, mais j’avoue que je ne sortis pas convaincue de sa conférence… Dans le chapitre précédent, je raconte comment, après la découverte des quasars, j’avais décidé d’orienter ma thèse sur les « galaxies de Seyfert », découvertes par Carl Seyfert en 1943. Ces galaxies ont en effet des « noyaux » brillants d’aspect stellaire, dont les spectres présentent des raies* intenses et larges rappelant celles des quasars. Curieusement, elles n’avaient intéressé presque personne avant que l’on découvre les quasars et que l’on réalise que ces noyaux de galaxies sont des sortes de « mini-quasars », plus proches de nous, en tout point identiques aux quasars mais moins lumineux. LES PRÉMICES D’UNE CONTROVERSE En 1959, deux articles sur les galaxies de Seyfert avaient paru dans le même volume de l’Astrophysical Journal (ils étaient d’ailleurs 106
Grandes controverses en astrophysique
Les trous noirs géants, mythes ou réalités ?
publiés à la suite l’un de l’autre), le premier par les Américains Margaret et Geoffrey Burbidge, avec Kevin Prendergast, le second par le Hollandais Lodewijk Woltjer. Visiblement aucun n’avait eu connaissance de l’autre étude. Or ils parvenaient à des conclusions diamétralement opposées. Les Burbidge et Prendergast s’étaient intéressés seulement à l’une de ces galaxies dont ils avaient pris des spectres, NGC 1068. C’est une galaxie spirale comme la nôtre, et ils avaient donc cherché à déterminer la masse de la région centrale en construisant sa « courbe de rotation »*, suivant en cela une technique largement utilisée avant et depuis (voir l’encadré dans le chapitre sur la matière noire, p. 79). Ils avaient adopté pour cette détermination les raies sombres (en absorption) produites dans les spectres des étoiles, qui sont beaucoup moins larges que les raies brillantes (en émission). Ils obtenaient un résultat bien clair : la masse localisée à l’intérieur de quelques centaines d’années-lumière était inférieure à un milliard de fois la masse du Soleil, ce qui ne suffisait pas à retenir le gaz animé de vitesses d’un millier de kilomètres par seconde. Ils concluaient que « le gaz est éjecté du noyau de cette galaxie avec une grande vitesse ». Woltjer, lui, avait fait un calcul en utilisant les propriétés moyennes des raies en émission, en particulier celles d’une autre galaxie de Seyfert, NGC 4151, et il en déduisait que les grandes largeurs des raies étaient « probablement dues à des mouvements rapides de rotation dans le champ gravitationnel des noyaux ». Tous avaient raison car ils n’avaient pas considéré les mêmes régions ni les mêmes galaxies ! On met ici le doigt sur un problème récurrent en astrophysique, qui a conduit à de nombreuses idées fausses. C’est que l’on observe le plus aisément les plus brillants d’une classe d’objets. Or s’ils sont plus brillants que les autres, c’est que souvent ils n’en sont pas représentatifs. On élabore des théories spécifiques pour eux, et on croit qu’ils sont les représentants d’une classe dont ils sont en réalité marginaux. NGC 1068 et NGC 4151 ont été ainsi considérés pendant longtemps comme les archétypes des galaxies de Seyfert, or chacun a 107
Les trous noirs géants, mythes ou réalités ?
des particularités qui le distinguent de l’ensemble des autres galaxies. C’est même certainement une cause majeure du retard qu’ont pris les théoriciens à comprendre le fonctionnement de ces objets. Car ces conclusions furent à mon avis à l’origine d’une confusion profonde dans les esprits et initièrent plus tard le débat sur les redshifts qui dura près de vingt ans. Pour schématiser, disons qu’il y eut plus tard les partisans de noyaux de galaxies compacts et massifs retenant la matière par leur gravitation, et les partisans des « explosions » qui pensaient que le phénomène fondamental dans les quasars était l’éjection de gaz et de particules. Ceux-là étaient partisans des décalages spectraux anormaux, avec en particulier le Russe Ambartsumian. Viktor Ambartsumian, un Arménien très célèbre en URSS (il était entre autres président de l’Académie des Sciences et membre du Soviet Suprême), avait constaté que les étoiles jeunes sont souvent membres de groupes en expansion et il en déduisait qu’elles se formaient à partir d’une explosion initiale. Étendant cette idée aux noyaux des galaxies, il suggéra que la matière jaillissait au centre des galaxies comme d’une source, ce qui allait d’ailleurs dans le sens de l’Univers stationnaire de Hoyle. Beaucoup plus tard, en 1980, il écrivait encore dans la prestigieuse Annual Review of Astronomy and Astrophysics : « Tandis que toutes les formes d’activité dans les noyaux de galaxies plaident directement en faveur d’une explosion et d’un processus d’expansion, beaucoup de théoriciens en sont encore à construire des modèles de noyaux dans lesquels les processus d’éjection sont précédés par l’effondrement d’une grande quantité de matière diffuse. […] Il n’est pas nécessaire de dire que je suis très sceptique devant un mode de pensée aussi spéculatif, car il n’y a pas la moindre évidence de tels événements. Il semble qu’une telle approche soit le résidu de la vieille notion [souligné par moi] selon laquelle les processus d’évolution dans l’Univers vont toujours dans la direction de la contraction et de la condensation ». Je pense que la dernière phrase était une allusion à la théorie de Laplace de la formation du Système solaire. On avait pourtant en 1980 de bonnes 108
Grandes controverses en astrophysique
Les trous noirs géants, mythes ou réalités ?
raisons de penser que, dans le cas des noyaux de galaxies comme dans celui des étoiles, « les processus d’évolution allaient dans la direction de la contraction et de la condensation » et en tout cas, c’est une certitude maintenant. Les idées d’Ambartsumian n’étaient cependant pas complètement injustifiées car on n’avait – et on n’a maintenant encore – aucune preuve directe de la chute de la matière vers l’intérieur ! Ceci pour la simple raison qu’il n’y a pas de « chute », mais une lente progression en spirale vers le centre. Les seules manifestations observées ont toujours été des éjections : jet et présence de particules relativistes* dans les radio-galaxies*, et plus tard découverte de « vents » chassés par les quasars et les Noyaux Actifs de Galaxies. LA CONTROVERSE ELLE-MÊME Pourtant, deux grands astrophysiciens, l’Américain Salpeter et le Russe Zeldovich, avaient proposé indépendamment, immédiatement après la découverte des premiers quasars, qu’il devait s’agir de « trous noirs géants » attirant la matière environnante. En 1970, au cours de la semaine d’étude qui se tint au Vatican, dont il est question dans le chapitre sur les décalages spectraux anormaux, un jeune astronome britannique, Donald Lynden Bell, émit aussi l’hypothèse qu’il s’agissait de trous noirs sur lesquels venait tomber du gaz à un taux élevé (c’est ce que l’on appelle « l’accrétion »). Invoquer l’accrétion de matière revient à faire appel à « l’énergie gravitationnelle ». Celle-ci a un rendement bien plus élevé que les réactions nucléaires dans les étoiles. En effet, un corps qui tombe sous l’effet de la gravitation acquiert une vitesse d’autant plus grande que l’objet qui l’attire est compact, le trou noir représentant évidemment la quintessence de la compacité. Dans sa chute, le corps tend à être freiné par la matière qu’il rencontre et à s’échauffer (c’est ce qui se produit pour les météorites tombant sur la Terre, qui sont brûlées avant d’arriver au sol, mais elles sont dix mille fois moins rapides que la matière autour d’un trou noir). De cette façon, l’énergie 109
Les trous noirs géants, mythes ou réalités ?
gravitationnelle est restituée sous forme de rayonnements d’autant plus puissants et plus énergétiques que la vitesse est plus grande. Quand de la matière tombe sur un trou noir, la vitesse qu’elle atteint est proche de celle de la lumière, et l’énergie colossale résultant de son freinage (attention, à l’extérieur du trou noir évidemment !) est libérée sous forme de chaleur, elle-même transformée en rayons ultraviolets, X et gamma*. Jusqu’à 40 % de l’énergie de masse qui tombe peut être ainsi convertie en rayonnement, contre seulement 0,7 % pour les réactions nucléaires dans les étoiles. Cette théorie ne fut réellement acceptée par la communauté astronomique qu’à la fin des années 1970, en particulier grâce à la découverte d’autres astres étranges, les pulsars*. Car celle-ci prouva qu’un corps aux propriétés extraordinaires, prédit depuis longtemps par une théorie fondée sur des lois rigoureuses, existait bel et bien dans la réalité. Mais il restait un problème majeur, qui fortifiait l’interprétation des quasars en termes d’explosions : on pensait que leur rayonnement était entièrement d’origine « synchrotron ». C’est le rayonnement d’un ensemble de particules chargées se déplaçant dans un champ magnétique à des vitesses proches de celle de la lumière. On l’a appelé « synchrotron » car il a été découvert à la fin des années quarante dans les grands accélérateurs de particules, les synchrotrons. On savait que le rayonnement radio des radio-galaxies et des quasars était dû au mécanisme synchrotron, et tout naturellement on pensa que le reste de leur rayonnement, visible, et plus tard ultraviolet et X, l’était également. La percée vint en 1978 lorsqu’un jeune Américain, Greg Shields, montra que le rayonnement du premier quasar découvert, 3C273, était tout simplement le rayonnement du gaz en train de « tomber » sur le trou noir. Il faut imaginer ce gaz spiralant autour du trou noir et s’en rapprochant inéluctablement avant de s’engouffrer dedans et disparaître à jamais. Tout le rayonnement de ce quasar, depuis l’infrarouge jusqu’aux rayons X, est dû à ce qu’on appela désormais 110
Grandes controverses en astrophysique
Les trous noirs géants, mythes ou réalités ?
« le disque d’accrétion ». C’est au cours de ce processus que des particules rapides sont éjectées le long de l’axe de rotation du disque, expliquant ainsi l’origine des magnifiques jets cosmiques associés à certains quasars. Et c’est depuis cette époque qu’on a adopté le paradigme de l’accrétion sur un trou noir géant pour les quasars et les noyaux actifs de galaxies43. ÉTOILES À NEUTRONS La formation des étoiles à neutrons* et des trous noirs* est en effet prévue dans le cadre de l’évolution stellaire. Toute étoile ayant épuisé ses ressources nucléaires « implose » sous l’effet de la gravité. Si la masse de l’étoile effondrée est comprise entre 1,4 et environ 3 masses solaires, elle deviendra une « étoile à neutrons* », dont le diamètre est de quelques dizaines de kilomètres et dont une cuillère à café pèse 10 000 milliards de tonnes ! Et ce sont les variations périodiques de ces objets fantastiques que deux radioastronomes, Antony Hewish et son étudiante Jocelyn Bell, ont découvert un jour et ont appelé d’abord, pour rire, « Little Green Men », avant de comprendre qu’il s’agissait tout simplement d’étoiles à neutrons en rotation… Mais que se passe-t-il au-dessus de trois masses solaires ? Il n’existe alors plus aucune force capable de soutenir l’étoile et son effondrement doit nécessairement se poursuivre jusqu’au stade ultime, celui de « trou noir ». Et comme on n’a pas trouvé d’étoile à neutrons de masse supérieure à 2 masses solaires, on peut penser qu’elles deviennent des trous noirs lorsque leur masse excède cette valeur. L’étoile n’est alors plus perceptible que par son champ de gravité qui continue à s’exercer sur son environnement. Quelques années plus tard, on découvrait bel et bien de tels trous noirs : ils sont membres d’un couple d’étoiles dont l’une est un trou noir qui attire et « avale » la matière de sa compagne en émettant une profusion de rayons X que détectent les satellites.
43. Le même phénomène se produit d’ailleurs en plus petit et non relativiste pour toutes les étoiles en formation. 111
Les trous noirs géants, mythes ou réalités ?
Comme preuve supplémentaire de l’existence de ces « trous noirs supermassifs », on peut noter que « l’horizon » d’un trou noir ayant une masse égale à un milliard de Soleils (c’est‑à-dire la région dont rien ne peut ressortir, ni matière ni rayonnement) a un rayon de trois heures-lumière. C’est la dimension que nous donne la variabilité des quasars dans le domaine X. Or l’énergie émise au voisinage de ce trou noir par l’accrétion de gaz est de l’ordre de 1040 watts, et c’est la puissance typique d’un quasar. Tout concorde ! L’INVASION DES TROUS NOIRS MASSIFS ! UNE AUTRE CONTROVERSE SE POINTE… Maintenant rappelons-nous que l’on voit les quasars comme ils étaient il y a des milliards d’années. On peut donc se demander s’il en existe dans notre environnement proche qu’on ne voit pas parce qu’ils sont « éteints ». Un quasar éteint, c’est ce qui reste lorsque le trou noir qu’il contient n’a plus rien à avaler. Il ne se manifeste plus sous la forme d’un objet lumineux, mais sa masse demeure indéfiniment présente. En 1982, un astronome polonais, Andrzej Soltan, prit en compte tous les quasars observés ayant existé dans le passé, et fit le calcul de la masse qu’ils avaient emmagasinée au cours de leur vie. Il trouva que chacun devait avoir une masse moyenne de cent millions de masses solaires, et que le nombre de ces trous noirs éteints par unité de volume était de l’ordre de celui des galaxies proches de nous. Mais où étaient-ils ? La réponse fut donnée par un astronome britannique qui a beaucoup contribué au développement du sujet, Martin Rees, qui prédit alors que la plupart des galaxies devaient contenir un trou noir géant, résidu de l’activité passée d’un quasar en leur sein. Pratiquement personne ne le crut ! Je me rappelle qu’en 1990 j’avais mentionné cette hypothèse au cours d’un séminaire donné par un cosmologiste très connu, qui m’avait sèchement répondu qu’il n’y croyait pas… Or, quelques années plus tard, on eut la preuve, en étudiant les mouvements des étoiles dans une quarantaine de galaxies proches, 112
Grandes controverses en astrophysique
Les trous noirs géants, mythes ou réalités ?
qu’il existe bien au centre une énorme masse invisible. Aussi simplifiés qu’aient été les calculs de Soltan, ils se sont révélés presque justes ! Et l’on s’aperçut que la masse de ces trous noirs est égale à quelques millièmes de la masse du bulbe44 de leur galaxie. Ce qui signifie que le trou noir central et la galaxie tout entière sont liés par un mécanisme inconnu. De là, une nouvelle controverse : les trous noirs empêchentils ou provoquent-ils la croissance des galaxies ? La balance penche largement du côté de la première hypothèse. Au début des années 1990, certains astronomes commençaient à suspecter qu’il existait un trou noir géant au centre de notre propre Galaxie, mais cette idée soulevait aussi beaucoup de scepticisme. Elle fut annoncée en 1996 par l’Allemand Reinhard Genzel qui observait depuis cinq ans les déplacements sur le ciel d’étoiles très proches du centre de la Voie lactée, et qui a continué à les observer pendant près de trente ans (il a d’ailleurs obtenu en 2020, avec une astronome américaine qui faisait de son côté un travail analogue, le prix Nobel pour cette découverte). On sait que ce trou noir, dont l’existence est maintenant indubitable (on dispose d’observations très détaillées montrant entre autres que l’une des étoiles est passée à côté du trou noir avec une vitesse de plus de 8 000 km/s !), a quatre millions de fois la masse du Soleil. Il est donc relativement petit, mais le bulbe de notre Galaxie l’est aussi. Il est « éteint » en ce moment, mais il pourrait bien se rallumer dans quelques milliards d’années lorsque la Voie lactée entrera en collision avec sa grande sœur, Andromède… Enfin, last but not least, l’apothéose de cette quête des trous noirs a été atteinte lorsque le 10 avril 2019, lors d’une conférence de presse mondiale, le réseau international de radiotélescopes EHT (Event Horizon Telescope) a dévoilé « l’ombre » du trou noir géant de la radio-galaxie M87, enrobée de son disque d’accrétion, tel qu’il avait été modélisé presque quarante ans plus tôt par un astronome français, Jean-Pierre Luminet… 44. Le bulbe est la région renflée centrale, très importante dans les galaxies elliptiques, plus petite dans les galaxies spirales. 113
Les trous noirs géants, mythes ou réalités ?
Terminons par une remarque. Les quasars ont été découverts sans qu’on les ait prévus – contrairement aux pulsars dont la théorie était déjà toute prête. On peut donc dire qu’ils ont été trouvés trop tôt, et que c’est la raison pour laquelle on a eu tant de mal à identifier le phénomène permettant de les expliquer. Les aurait-on découverts dix ans plus tard, après les pulsars, les choses se seraient mises en place bien plus rapidement, et probablement les grandes controverses qu’ils ont déclenchées n’auraient-elles pas eu lieu.
114
Grandes controverses en astrophysique
LE CHAUFFAGE DE LA COURONNE SOLAIRE
DÉCOUVERTE D’UN ÉLÉMENT INCONNU SUR TERRE Une éclipse totale de Soleil, c’est un spectacle de deux à six minutes dont on ne se lasse pas. J’en ai vu quatre ou cinq réussies, et chaque fois la même magie opère. La Lune qui mange lentement le Soleil, le froid qui tombe tandis que les oiseaux se taisent et que la nuit envahit la Terre, puis la splendeur de la couronne solaire, auréole lumineuse qui étend ses bras irréguliers autour du cercle noir… Dans le passé, les éclipses étaient des moments d’une valeur scientifique incomparable, car c’était le seul moyen pour étudier la couronne qui entoure le Soleil. Maintenant, bien sûr, le coronographe* inventé par Bernard Lyot, initialement une construction en bois qui trône encore dans le château de l’Observatoire de Meudon, a permis de prolonger ces moments autant qu’on le désirait, et depuis une vingtaine d’années, des satellites artificiels comme Soho fournissent une éclipse permanente dont les films en accéléré nous ébahissent. Durant une éclipse totale de Soleil en août 1869, deux astronomes découvrent une raie faible dans le spectre* de la couronne. On l’appelle « la raie verte », car elle est située dans la partie verte du spectre. On l’interprète d’abord comme une raie de l’atome de fer. Mais il est très étrange qu’elle apparaisse seule, alors que cet atome possède des 115
Le chauffage de la couronne solaire
milliers de transitions. Puis, lors d’une éclipse ultérieure, en 1898, on s’aperçoit que la raie se trouve à une longueur d’onde de 530,3 nm (nanomètres), alors que la raie supposée de l’atome de fer a une longueur d’onde de 532 nm. En 1887, un chimiste tchèque propose de baptiser l’élément du nom de « coronium ». On découvre ensuite plusieurs autres raies de ce fameux coronium. Enfin, on réalise que la présence du coronium n’est pas limitée à la seule couronne solaire, car on en trouve également dans des novae* et des supernovae*. Cette affaire ressemble à la découverte des raies de l’hélium dans le spectre solaire, mais l’hélium avait rapidement été repéré sur Terre, ce qui n’est pas le cas avec le coronium. De plus, ces raies n’existent pas non plus dans le spectre du Soleil lui-même. On se déchire alors sur la nature de la raie coronale. Certains pensent qu’il s’agit d’une raie semblable à celle des aurores boréales, d’autres qu’elle est due à un élément plus léger que l’hydrogène. Certains croient l’identifier sur Terre dans les solfatares du Vésuve. L’histoire se répéterait-elle, ou bégaierait-elle, comme disait Karl Marx ? Elle rappelle en effet celle d’un autre élément découvert quelques années plus tôt dans la nébuleuse NGC 6543, qu’on appelle maintenant « l’œil du chat ». Le 29 août 1864, Sir William Huggins, un amateur fort riche qui avait investi tous ses efforts et sa fortune dans l’astronomie, pointe pour la première fois son télescope muni d’un spectroscope* sur cette nébuleuse et, à sa grande surprise, découvre trois raies brillantes inconnues se détachant sur un continu quasiment nul. Quelques années plus tard, Camille Flammarion dira de ces raies : « La raie moyenne du groupe des trois lignes qui forment le spectre de la nébuleuse n’a son identique dans aucune des raies intenses des spectres des éléments terrestres connus. » La raie moyenne se trouve à 500 nanomètres, on montrera par la suite qu’elle est en fait constituée de deux raies, l’une à 496 nm, l’autre à 501 nm. Il s’agit donc d’un nouvel élément, inconnu sur Terre, que Margaret Huggins, l’épouse de William, propose d’appeler « nébulium ». 116
Grandes controverses en astrophysique
Le chauffage de la couronne solaire
Donc en 1870, la famille des éléments s’était agrandie du nébulium et du coronium qu’on n’appelait pas encore de ce nom. Or, en 1869, était survenue une découverte qui eut une influence considérable pour la chimie et la physique, et qui compta aussi beaucoup pour les étoiles : c’est la classification périodique des éléments, également appelée « table de Mendeleïev », proposée par le russe Dimitri Mendeleïev. Dans cette table, les éléments chimiques sont arrangés selon un modèle qui permet de prévoir les propriétés de ceux qui ne sont pas encore découverts. La table périodique comprend 118 éléments parmi lesquels on sait maintenant que 94 se trouvent naturellement sur Terre. Où se plaçaient le nébulium et le coronium ? Au début du e xx siècle, on avait fait suffisamment de progrès dans la classification périodique pour s’apercevoir qu’il n’y avait plus beaucoup de place pour de nouveaux éléments. On commença alors à s’intéresser à ces raies brillantes dans les spectres des nébuleuses. Entre-temps, on en avait découvert de nombreuses autres, dont à peine la moitié pouvaient être identifiées par des mesures de laboratoire. Et surtout pas les deux plus intenses ! Ce qui conduisit l’astronome américain Henry Norris Russell (celui du « diagramme Hertzsprung-Russell* ») à conclure qu’elles « sont dues à un élément connu mais qu’elles sont produites dans des conditions n’existant pas sur Terre ». Mais quelles conditions ? Il faudra encore attendre vingt ans pour le comprendre. En 1928, le physicien américain Ira Bowen montra que les deux raies intenses dans les spectres des nébuleuses sont dues à des transitions entre des niveaux de l’atome d’oxygène deux fois ionisé (c’est‑à-dire qui a perdu deux de ses huit électrons). Elles sont en fait « interdites » par les règles de sélection de la mécanique quantique et ne peuvent être émises que dans des conditions irréalisables en laboratoire : il faut une densité un million de milliards de fois plus faible que celle de l’atmosphère terrestre ! Ce qui prouve que le gaz dans les nébuleuses est incroyablement dilué. Par la même occasion, Bowen montra que 117
Le chauffage de la couronne solaire
les autres raies non identifiées sont elles aussi des raies interdites, dues à d’autres éléments tout à fait habituels comme le carbone, l’azote, le soufre, le néon, etc. Exit le nébulium ! Et le coronium ? On pensa immédiatement qu’il s’agissait également de raies interdites. En fait, elles le sont effectivement, mais beaucoup moins que les raies des nébuleuses, et ce n’est pas ce qui empêcha de les identifier pendant encore vingt ans. Dans les années 1930, on avait réussi à dénombrer 24 raies coronales. Le mystère s’était encore épaissi, car Bernard Lyot avait mesuré les largeurs de ces raies, et elles étaient énormes. Ce qui signifiait qu’elles devaient être émises par un gaz très chaud, d’au moins 100 000 degrés. Mais Lyot disait lui-même : « Une telle température paraît difficile à expliquer et même à concevoir. Il ne s’agit donc pas ici d’un simple phénomène thermique. » Deux groupes s’opposèrent alors : ceux qui cherchaient à identifier les raies à des atomes d’hélium pouvant être élargies par le champ électrique (on pensait qu’il était intense à certains endroits dans la couronne, et c’est bien le cas), et ceux qui croyaient qu’il s’agissait d’atomes fortement ionisés dans un gaz très chaud. LA SOLUTION DU MYSTÈRE… En 1939, les spectroscopistes allemand Walter Grotrian et suédois Bengt Edlén montrèrent que la raie verte est émise par des atomes de fer ayant perdu 13 électrons (c’est‑à-dire « ionisés » 13 fois). D’autres raies observées dans la couronne furent identifiées plus tard par Edlén comme étant celles d’atomes fortement ionisés comme le carbone ionisé 14 fois, ou encore le fer ionisé 9, 10, ou 12 fois. Mais pour que les atomes soient tellement ionisés, il fallait que la couronne solaire ait une température de plusieurs millions de degrés. Or le rayonnement de la couronne que nous dévoilent les éclipses dans le domaine visible est dû à la diffusion de la lumière du Soleil, et correspond à une température de 6 000 degrés ! Comment expliquer ce désaccord ? Ce n’est qu’après la deuxième guerre mondiale 118
Grandes controverses en astrophysique
Le chauffage de la couronne solaire
que l’on détecta pour la première fois des rayons X en provenance de la couronne solaire, qui prouvèrent que sa température atteint des millions de degrés. UN NOUVEAU PROBLÈME ÉTAIT NÉ, ET UNE NOUVELLE CONTROVERSE ! On sait maintenant grâce en particulier aux satellites solaires que le gaz coronal est confiné principalement dans des « tubes magnétiques » et qu’il a une structure extrêmement complexe, comprenant des petits points brillants en rayons X, jusqu’à d’immenses « arches coronales ». Si l’on comprend assez bien comment l’atmosphère du Soleil réussit à envoyer du gaz dans la couronne, on n’a pas encore résolu le problème du chauffage de ce gaz. Il comprend trois étapes : la génération d’énergie, le transport d’énergie depuis le lieu où elle est générée jusqu’à la couronne, et la dissipation de cette énergie dans des structures, magnétiques ou non. Les deux premières étapes sont relativement faciles à résoudre. La génération est certainement due à la zone convective45 qui se trouve juste sous la surface du Soleil. Le problème du transport est également assez simple, par exemple au moyen des « spicules » connus depuis longtemps, qui sont des jets de gaz s’élevant très rapidement depuis l’atmosphère du Soleil jusqu’à la couronne. Cependant, depuis 70 ans, deux écoles principales s’affrontent sur le mécanisme de dissipation. D’un côté, on trouve les partisans d’un mécanisme hydrodynamique, par exemple sous forme d’ondes acoustiques devenant des ondes de choc à mesure qu’elles se propagent dans la couronne de plus en plus ténue et y déposent leur énergie (comme les vagues arrivant sur une plage). De l’autre côté, les partisans d’un chauffage magnétique. Et de fait, on sait que la couronne est fortement magnétisée, et que le champ magnétique est 45. Dans cette région, l’énergie est principalement transportée par convection contrairement à la zone radiative où l’énergie est transportée par rayonnement et par conduction. Il s’agit donc d’un mouvement de masse à l’intérieur de l’étoile, qui ressemble à celui d’une casserole d’eau en train de chauffer. 119
Le chauffage de la couronne solaire
ancré dans la photosphère, d’où partent les éruptions spectaculaires observées sur le limbe… La controverse continue, et ne sera probablement pas résolue avant longtemps, à moins que la sonde Parker Solar Probe lancée en 2018 et qui va plonger à quelques rayons solaires dans la couronne n’aide à résoudre le problème comme on l’espère !
120
Grandes controverses en astrophysique
L’AFFAIRE GEMINGA
Le 11 octobre 1983, le journal Le Monde publiait en manchette sur sa première page : « Une découverte majeure en astronomie confirmant la théorie d’Einstein ». Il s’agissait de l’annonce par Philippe Delache, un physicien solaire français, proposant que le cœur du Soleil était frappé par une onde gravitationnelle* (celles prédites par Einstein qui ont été découvertes en 2015, voir le chapitre sur les ondes gravitationnelles) en provenance d’une source de rayonnement gamma*, Geminga. Le 20 octobre 1983, la célèbre revue Nature publiait un résumé de la réunion de l’ESA, l’Agence spatiale européenne, qui s’était tenue le 11 octobre précédent à Frascati en Italie. Elle avait été « enlivened » (animée) grâce à une présentation impromptue de cinq minutes de Philippe Delache, qui « annonça la découverte d’ondes gravitationnelles absorbées par le Soleil ». L’ESA discutait ce jour-là des satellites qui seraient recommandés pour les prochaines missions spatiales, dont la mission SOHO destinée à mesurer les oscillations solaires. À la question de l’auteur de l’article de Nature : « Est-ce que cette annonce a influencé la décision du Comité ? », un membre du comité de l’ESA répondit que « cela avait aidé, mais n’avait pas été décisif », la mission ayant déjà de bonnes chances d’être programmée. L’intégrité du comité était donc sauve ! 121
L’affaire Geminga
Que s’était-il passé ? On commençait à cette époque à étudier le Soleil grâce à l’héliosismologie46 qui se mettait en place. Elle montrait que le Soleil semblait présenter une oscillation inexpliquée de 160 minutes. Par ailleurs, le satellite Cos B lancé en 1975 par l’ESA, dont Jacques Paul du CEA de Saclay était le responsable scientifique, étudiait le ciel en rayons gamma* et avait détecté une source mystérieuse dont on ne parvenait pas à trouver une contrepartie dans le domaine des rayons X. D’où le nom que lui donna l’équipe milanaise dirigée par Giovanni Bignami du Centre national de la recherche italienne qui cherchait cette contrepartie : Geminga, contraction de gamma et de Gémeaux (la constellation où se trouve cette source), une expression milanaise qui se traduit en français par « il n’y a rien » ! Enfin, en septembre 1979 et en mars 1981, un satellite appelé Einstein (ça ne s’invente pas !) était pointé vers Geminga et détectait une source de rayons X variable. On en déduisit que Geminga était un système double contenant deux étoiles très compactes – étoiles à neutrons* ou trous noirs* –, donc susceptible d’émettre des ondes gravitationnelles*. De plus, le système devait être proche du Soleil, à moins de 500 années-lumière, étant donné l’absence d’absorption des rayons X. Ces deux faits pouvaient-ils constituer deux pièces d’un même puzzle ? Quelques mois plus tôt, le Britannique George Isaak avait fait une suggestion intéressante : le Soleil pouvait servir de résonateur à une onde gravitationnelle qui l’atteindrait. Isaak supposait que si le Système solaire était plongé dans des ondes gravitationnelles provenant d’un système proche, elles exciteraient le cœur du Soleil. En se propageant vers l’extérieur, ces ondes pourraient s’amplifier jusqu’à 100 000 fois à cause de la diminution de densité du centre jusqu’à 46. L’héliosismologie étudie les modes de vibration du Soleil. Elle est complétée depuis une dizaine d’années par l’astérosismologie. Les oscillations de la surface du Soleil dépendent des variations des conditions physiques et des mouvements de l’intérieur, donc la sismologie solaire et stellaire permet de sonder le Soleil ou une étoile, de la même manière que les séismes renseignent les géophysiciens sur la structure du globe terrestre. 122
Grandes controverses en astrophysique
L’affaire Geminga
la surface. L’oscillation de 160 minutes du Soleil pouvait-elle être expliquée ainsi, et Geminga en être la cause ? Pour répondre à cette question, il fallait trouver une oscillation de 160 minutes dans les rayons gamma que Geminga nous envoyait. Philippe Delache se mit au travail avec Jacques Paul et Giovanni Bignami. Ce n’était pas simple. Ils disposaient en tout de 913 photons* gamma recueillis en sept ans d’observation. Il fallait pour trouver un signal le chercher à une période imposée préalablement. En analysant les données de Cos B, les trois scientifiques détectèrent un signal périodique de 160 minutes. Enfin, pas exactement de 160 minutes, mais un peu moins, ce qui était normal car il fallait tenir compte de la rotation de la Terre autour du Soleil. C’était en quelque sorte, comme le proposa un scientifique, un effet « Phileas Fogg » qui raccourcit la période observée dans le rapport 160 minutes divisé par un an. C’est ainsi qu’un communiqué du Centre national de la recherche scientifique annonça que pour la première fois, une relation causale entre un émetteur et un récepteur venait confirmer la théorie d’Einstein de la relativité générale. Les ondes gravitationnelles étaient alors très à la mode. En effet, on était au moment où Joseph Weber annonçait qu’il en avait détectées dans son laboratoire, ce qui s’est révélé plus tard inexact (voir le chapitre sur les ondes gravitationnelles). Elles pouvaient être émises par Geminga, quoique Weber lui-même pensât plutôt qu’elles provenaient du centre de la Voie lactée. Dès l’annonce de la découverte du signal de Geminga, les critiques affluèrent. Un numéro de la revue Nature ouvrit le bal en étant consacré à l’acte d’accusation. L’année suivante, Nathalie Deruelle, une spécialiste française de relativité générale, publia un article résumant la situation, et il était loin d’être concluant. S’il est une chose que personne ne mit en doute (hélas !), c’est la période de 160 minutes du Soleil. Quant à celle de Geminga, la période trouvée était de 159,9588 minutes, avec une probabilité pour qu’elle soit due au hasard de 5/10 000. Cependant elle fut remise en cause par 123
L’affaire Geminga
Figure 5 | L’affaire Geminga.
les collaborateurs même de Jacques Paul et de Giovanni Bignami, qui affirmèrent le 16 février 1983, également dans la revue Nature, « qu’ils ne trouvaient pas le résultat significatif statistiquement ». Mais les problèmes les plus importants étaient d’ordre théorique. Ils furent présentés par une pléiade de spécialistes, S. Bonazzola, B. Carter, J. Heyvaerts et J.-P. Lasota de l’Observatoire de Meudon, P. Tourrenc de l’Institut Henri Poincaré, J. Fabian et D. Gough de l’université de Cambridge. Si le système double Geminga émettait bien des ondes gravitationnelles, cela signifiait qu’il perdait de l’énergie, donc que la fréquence des ondes devait diminuer. Pour que le Soleil et Geminga restent en phase, il fallait que Geminga… appartînt au Système solaire ! Il y avait aussi d’autres problèmes, dont le plus important était celui de l’amplification que devait subir l’onde gravitationnelle à l’intérieur du Soleil. En effet, pour être amplifié, il fallait que le signal se propageât comme une « onde acoustique ». Or 124
Grandes controverses en astrophysique
L’affaire Geminga
ce n’est pas le cas, car il s’agissait d’un mode non acoustique qui ne pouvait pas être amplifié. En 1996, finalement, Geminga fut reconnue comme un pulsar* simple et non un système double, grâce à de nouvelles mesures dans le domaine des rayons X, ce qui excluait la production d’ondes gravitationnelles périodiques. Enfin, dernier argument et non le moindre (mais il ne fut pas connu avant le début des années 2000, lorsque le satellite SOHO commença à fournir des résultats sur les oscillations solaires, et qu’un réseau d’observatoires solaires au sol placés autour de la Terre devint opérationnel) : la période de 160 minutes du Soleil n’existe tout simplement pas… Cette histoire prouve qu’en science, il ne faut pas vouloir aller plus vite que la musique, et qu’il ne faut pas se dépêcher de trouver des théories exotiques pour expliquer des observations fausses…
125
WEBER : LA SAGA DES ONDES GRAVITATIONNELLES
On se souvient de cette déclaration faite aux médias du monde entier le 11 février 2016 : une salve d’ondes gravitationnelles avait traversé la Terre le 14 septembre 2015 à 11 h 51, impactant simultanément deux observatoires (en fait deux interféromètres* laser géants), l’un situé en Louisiane, l’autre à 3 000 kilomètres dans l’État de Washington. Il avait fallu plusieurs mois pour que les chercheurs et les ingénieurs soient convaincus de la réalité de l’observation, mais le bruit circulait déjà depuis plusieurs semaines sous le manteau que nous allions entendre une telle annonce. C’était une confirmation éclatante de la validité de la théorie de la relativité générale et de l’une de ses prédictions les plus révolutionnaires, faite par Einstein presque exactement cent ans auparavant. C’était aussi une incroyable prouesse technique qui avait débuté trente ans plus tôt, après déjà trente ans de recherches infructueuses par une autre technique. D’après la théorie de la relativité générale, tout objet massif déforme l’espace-temps, et, ces déformations se propagent à la vitesse de la lumière, comme lorsqu’on envoie dans un étang un caillou qui crée des ondes à la surface de l’eau. Mais seuls des événements très violents sont capables de produire des ondes 127
Weber : la saga des ondes gravitationnelles
suffisamment puissantes pour être détectables, par exemple lorsque deux trous noirs tournant l’un autour de l’autre se rapprochent et finissent par fusionner47. C’est précisément ce qui s’était passé le 14 septembre 2015, ou plutôt, qui s’était passé 1,3 milliard d’années plus tôt, le temps que nous parvienne ce train d’ondes qui venaient de très loin ! En fait Einstein ne croyait pas à la détection possible de ces ondes car elles devaient être trop faibles, et même il finit par ne plus y croire du tout. Il avait soumis en 1936 à la Physical Review un article montrant qu’elles n’existaient pas. Or l’article avait été refusé car il contenait une erreur. Einstein, dont l’ego n’était pas mince48, s’était violemment insurgé, car, écrivait-il à l’éditeur : « Je ne vous ai pas autorisé à montrer cet article à un spécialiste avant publication », ce qui était pourtant l’habitude de tous les bons journaux scientifiques. Néanmoins il corrigea la faute, mais le débat continua pendant quelque temps entre les spécialistes pour savoir si ces ondes existaient ou non. C’est le grand physicien Richard Feynman lors d’une conférence en 1957, qui déclencha toute l’affaire, lorsqu’il imagina une façon de détecter les ondes gravitationnelles, au moyen d’une barre de métal entourée de colliers de perles qui devraient se mettre à vibrer et chauffer la barre lors du passage de l’onde. Il avait seulement oublié de calculer la quantité d’énergie émise pendant cet événement. Parmi le public, se trouvait un jeune ingénieur très 47. Lorsqu’ils sont très proches l’un de l’autre, ils perdent très rapidement leur énergie à cause de l’émission des ondes gravitationnelles, ce qui les conduit à se rapprocher jusqu’à fusionner. 48. Sa première épouse, Mileva, ne revendiqua jamais avoir pris part aux grandes découvertes d’Einstein. Néanmoins elle essaya une seule fois de demander que soit reconnu qu’ils avaient travaillé ensemble au début de leur vie commune lorsque Albert publiait sous son seul nom. Elle se vit rétorquer dans une lettre d’Albert : « T’est-il jamais venu à l’esprit que personne ne prêterait la moindre attention à tes salades… Quand une personne est quelqu’un de complètement insignifiant, il n’y a rien d’autre à dire à cette personne que de rester modeste et de se taire. » Notons que Mileva avait été la seule femme admise dans le cursus de physique à l’École polytechnique de Zurich en 1897, année où elle y rencontra Albert. 128
Grandes controverses en astrophysique
Weber : la saga des ondes gravitationnelles
talentueux, Joseph Weber. Les paroles de Feynman ne tombèrent pas dans l’oreille d’un sourd… Joseph Weber était né en 1919 à Patterson dans le New Jersey, dans une famille de juifs immigrés parlant le yiddish. Il fut nommé Joseph lorsqu’il entra à l’école. Le nom de Weber était celui du passeport que ses parents avaient obtenu lors de leur immigration aux États-Unis. De ce fait, Weber eut quelques difficultés pendant le maccarthisme à prouver le bien-fondé de son identité. Il fut admis à faire ses études dans l’Académie navale pour éviter que celles-ci soient payées par ses parents, et par la suite fut ingénieur de l’armée navale pendant toute la seconde guerre mondiale. Il devint ensuite enseignant à l’université de Maryland, en même temps qu’il préparait pendant la nuit un doctorat sur les émissions dans le domaine des ondes millimétriques, ce qui le conduisit à s’intéresser aux masers (équivalents des lasers dans le domaine optique, pas encore découverts). Ce furent trois de ses collègues qui obtinrent en 1964 le prix Nobel pour avoir mis au point les premiers prototypes des masers et des lasers. Par ailleurs, Weber avait proposé sans succès dans les années 1950 de réaliser une expérience pour détecter le rayonnement fossile* cosmologique, celui qui fut découvert par hasard en 1965 par Penzias et Wilson, qui reçurent le prix Nobel. Weber l’aurait-il lui-même détecté s’il avait pu construire son expérience ? Ce n’est pas évident. On peut imaginer en tout cas qu’il conçut une certaine amertume de tout cela. Entre-temps, il avait commencé à s’intéresser à ces ondes gravitationnelles dont avait parlé Feynman dans sa conférence. Il profita d’une année sabbatique49 pour aller étudier la relativité à Princeton avec l’un des meilleurs spécialistes de cette discipline, John Archibald Wheeler. À son retour au Maryland, il se lança dans la fabrication de détecteurs d’ondes gravitationnelles du type de ceux imaginés par 49. C’est un congé de six mois ou d’une année, durant lequel le contrat de travail d’un salarié est suspendu, mais il a l’assurance de le retrouver à son retour. En général, les enseignants et les chercheurs peuvent trouver des financements dans les universités où ils se rendent pendant cette année. 129
Weber : la saga des ondes gravitationnelles
Feynman. Il acheta six énormes cylindres métalliques d’une tonne et demie dont il couvrit la surface, non par des colliers de perles métalliques, mais par des détecteurs piézo-électriques, qui ont la propriété de se polariser électriquement si on leur applique une contrainte mécanique. Il les suspendit par des câbles (certainement costaux !) et ils devaient résonner comme des cloches chaque fois qu’ils étaient traversés par une onde gravitationnelle. Il installa même l’un d’eux à Chicago, à mille kilomètres de son laboratoire, pour vérifier qu’il vibrait en même temps que ses camarades au Maryland, ce qui était une excellente idée. Et il commença en 1960 à enregistrer les « ondes » qui traversaient ces cylindres. Malheureusement, ce qu’il enregistrait, c’était avant tout du « bruit » provenant du métro, des camions qui passaient à proximité, des ondes sismiques terrestres, et d’autres sources. Une escouade de jeunes étudiants était chargée de nettoyer ce bruit. Enfin, en 1969, Weber annonça qu’il avait détecté en même temps une onde à Chicago et dans son laboratoire. C’était la gloire ! En 1972, la Nasa accepta d’ajouter un « gravimètre » dans le vol Apollo 17 pour la Lune. Et surtout, une douzaine de laboratoires dans le monde se lancèrent aussi dans la détection des ondes gravitationnelles, avec des « barres de Weber », c’est‑à-dire avec d’énormes cylindres de métal. L’un de mes collègues à l’Observatoire de Meudon, Silvano Bonnazzola, un jeune physicien italien qui venait de s’installer en France, décida d’y implanter un détecteur d’ondes gravitationnelles. Un cylindre d’aluminium fut donc installé donc une pièce entière au rez-de-chaussée de mon bâtiment, pratiquement au-dessous de mon bureau. Il y resta de nombreuses années à détecter tranquillement le RER voisin, les camions pénétrant dans l’Observatoire, le vent ou les orages. Il avait pourtant une sensibilité meilleure que celle de Weber, qui était d’ailleurs venu le visiter. Mais peu à peu, il fallut se rendre à l’évidence, les ondes gravitationnelles n’étaient pas détectables par ce moyen. À Meudon, les mesures furent arrêtées définitivement au bout de trois ans, mais le cylindre resta encore de nombreuses années dans sa chambre-tombeau, où nous 130
Grandes controverses en astrophysique
Weber : la saga des ondes gravitationnelles
Figure 6 | La saga des ondes gravitationnelles.
pouvions l’apercevoir tout étincelant à travers la fenêtre. Nous l’avons beaucoup regretté lorsqu’il est parti… C’est alors que se déclencha une véritable bagarre entre Weber et le reste du monde. Lui demeura convaincu qu’il avait capté des ondes, et il le resta jusqu’à sa mort. Il tenta de publier articles sur articles, il injuria ses adversaires (qui le lui rendirent bien !). On détecta différentes fautes dans ses calculs. Un physicien, Richard Garmin, qui avait construit aussi un cylindre et n’avait détecté que du bruit, écrivit : « le modèle de Weber est insensé (insane), parce que si on détectait ce que Joe Weber détecte, cela signifierait que l’Univers convertirait toute son énergie en rayonnement gravitationnel en cinquante millions d’années ! ». C’était la vérité… La fin de la vie de Weber fut assez triste. Il annonça avoir capté une onde lors de l’explosion de la fameuse supernova de 1987, puis une autre dix ans plus tard provenant d’un « Gamma-Ray Burst* », 131
Weber : la saga des ondes gravitationnelles
un événement très énergétique mais très court. Je pense que par pitié, on lui accorda le bénéfice du doute, et il put publier ces résultats auxquels personne ne croyait plus. En 1972, au faîte de sa gloire, Weber, qui venait de perdre sa première épouse, a rencontré une astrophysicienne récemment promue professeur à Caltech. On raconte qu’ils se sont mariés onze jours après leur rencontre. Cette jeune femme, Virginia Trimble, je l’ai croisée à de nombreuses reprises, sans que nous soyons devenues de véritables amies. Elle avait passé en 1968 son doctorat au California Intitute of Technology (Caltech) qui à cette époque n’acceptait les femmes que « dans des circonstances exceptionnelles ». Par la suite, je l’ai entendue prononcer les conférences de clôture des congrès auxquels elle assistait. C’est à mon avis une tâche très ingrate, car non seulement cela nécessite d’écouter les débats avec la plus grande attention, mais de savoir les synthétiser et en extraire la substantifique moelle. Virginia accomplissait ce travail à la perfection, de même qu’elle publiait chaque année des articles de revue sur les sujets les plus complexes, qu’elle expliquait d’une façon extraordinairement claire. John Archibald Wheeler, le pape de la relativité, a écrit à propos de Joseph Weber : « En fait, il mérite le crédit d’avoir ouvert le chemin. Personne d’autre n’a eu le courage de chercher les ondes gravitationnelles jusqu’à ce que Weber ait montré que c’était de l’ordre du possible. » Les ondes gravitationnelles sont devenues depuis trente ans l’objet d’une autre aventure, encore plus incroyable que celle de Weber et de ses cylindres, qui fut source également de discordes et de controverses. Elle trouva son dénouement avec l’observation d’une onde gravitationnelle en août 2015, dont la réalité ne fit aucun doute pour personne. Entre-temps, s’était produite une incroyable odyssée technique, mais ceci est une autre histoire, trop longue pour être racontée ici…
132
Grandes controverses en astrophysique
LES NEUTRINOS SOLAIRES : JOHN BAHCALL ET LES PHYSICIENS
Lorsqu’en 1969, l’expérience de Ray Davis Junior commence à donner ses premiers résultats, une conclusion s’impose : construit pour détecter les neutrinos* solaires, elle en trouve environ trois fois moins que ne le prédisent les modèles. Ce résultat est accueilli avec stupeur. Que se passe-t-il ? C’est l’Autrichien Wolfgang Pauli qui, pour satisfaire à des principes de conservation d’énergie, postula en 1930 l’existence d’une particule de charge électrique nulle qui, contrairement au neutron* découvert deux ans plus tard, devait avoir une masse minuscule, peut-être même nulle. Cette particule, le neutrino, serait produite par les réactions nucléaires dans le Soleil et les étoiles, où deux d’entre eux sont créés lors de la transformation de quatre noyaux d’hydrogène en un noyau d’hélium. Mais ces particules sont difficiles à détecter, car elles interagissent très faiblement avec la matière, au point d’être capables de traverser la Terre entière sans rien ressentir 50 ! Il ne fallut 50. D’ailleurs le plus grand détecteur actuel de neutrinos, Ice Cube, qui comme son nom l’indique est un cube de glace de 1 kilomètre de côté, est implanté sous le pôle Sud. Il détecte les neutrinos provenant de l’hémisphère nord, c’est‑à-dire arrivant par le bas et non par le haut, ce qui permet d’éliminer les autres particules ! 133
Les neutrinos solaires : John Bahcall et les physiciens
Figure 7 | Les neutrinos.
pas moins qu’un réacteur nucléaire pour en détecter enfin, en 195651. Pourtant les neutrinos sont extraordinairement nombreux, puisque des centaines de milliards traversent notre corps chaque seconde ! John Bahcall est au départ un étudiant en philosophie, champion de tennis, qui se met à étudier la physique dans le cursus de rabbin. Il devient spécialiste de physique nucléaire. Il élabore un modèle de structure interne du Soleil, dans lequel il prédit le nombre de neutrinos solaires qui doivent être émis, en fonction de leur énergie. Il demande à son ami Ray Davis de construire une expérience pour vérifier ses calculs. Davis s’exécute, et met au point un détecteur dans la mine d’or de Homestake, au Dakota du Sud, sous 1 400 mètres de terre et de roche. Il espère attraper quelques neutrinos solaires par an. 51. En fait ce sont des anti-neutrinos que l’on détecte ainsi. 134
Grandes controverses en astrophysique
Les neutrinos solaires : John Bahcall et les physiciens
Son détecteur est une cuve de 400 tonnes de solvant industriel à base de chlore. À la suite d’une collision avec un neutrino, un atome de chlore se transforme en un isotope* radioactif de l’argon. Les atomes d’argon sont extraits et comptés chaque semaine. Les premiers résultats de l’expérience sont annoncés en 1968. C’est la consternation : le Soleil émet trois fois moins de neutrinos que prévu ! Cela devient Le mystère des neutrinos manquants. Naturellement la première réaction de la communauté scientifique est de penser que, soit Bahcall, soit Davis, a commis une erreur. Bahcall s’acharne alors pendant plusieurs années à vérifier ses calculs et à en augmenter la précision, sans trouver d’erreurs, aussi bien concernant la physique solaire que le nombre de particules d’argon susceptibles d’être créés dans la cuve. Davis revérifie son expérience sans trouver aucune anomalie. Elle fournit le même résultat pendant les vingt ans qui suivent. Aucun des deux ne semble donc coupable. Les physiciens considèrent à l’époque que les astrophysiciens sont des petits plaisantins avec leurs méthodes un peu archaïques, ne sachant pas manier de grandes bases de données, comme eux avaient appris à le faire dans leurs chambres à étincelles. D’ailleurs les astrophysiciens eux-mêmes le pensent aussi. Les physiciens ont les méthodes mais pas les sujets, tandis que les astrophysiciens débordent de problèmes à résoudre mais n’ont pas les bonnes méthodes, dit-on dans les laboratoires… Les premières collaborations entre les deux communautés commencent dans les années 1970 sous ces auspices bizarres avec la recherche de la matière noire* sous des formes diverses. L’idée dominante subsiste donc pendant longtemps qu’il y a une erreur dans les calculs de la structure interne du Soleil. Pour preuve ce qu’écrivait en 1967 un grand physicien, Bruno Pontecorvo : « Malheureusement l’influence des différentes réactions thermonucléaires dans le Soleil, ainsi que la température centrale du Soleil, ne sont pas assez bien connues pour permettre une comparaison 135
Les neutrinos solaires : John Bahcall et les physiciens
sérieuse entre les neutrinos solaires attendus et ceux observés. » On ne saurait être plus méprisant… Puis on s’aperçoit qu’il existe trois sortes de neutrinos, les électroniques, les muoniques, les tauiques. Peut-être cela pourrait-il arranger les choses. Et s’il en existait même une quatrième sorte ? Hélas, en 1989, le CERN confirme qu’il n’existe que ces trois familles de neutrinos. Il faut faire avec. En 1989 également, une expérience américano-japonaise est lancée à Kamiokande au Japon, utilisant cette fois un détecteur d’eau pure, sensible essentiellement aux neutrinos électroniques de grande énergie. Elle montre une déficience de seulement un facteur deux par rapport aux prédictions de Bahcall. C’est un progrès par rapport à l’expérience de Davis, mais ce n’est pas suffisant. Plusieurs autres expériences sont montées, mais elles ne font qu’augmenter le mystère, bien que sensibles à des neutrinos moins énergétiques. Et surtout un détecteur plus puissant que Kamiokande, Super-Kamiokande, confirme encore ces résultats. Ce détecteur contient un véritable lac intérieur de 18 000 tonnes d’eau, en plus des 32 000 tonnes entourant le détecteur pour arrêter les autres particules. Une photo célèbre montre une barque se promenant à la surface du lac pour vérifier le bon fonctionnement des 11 000 photomultiplicateurs implantés autour. On rêverait de se baigner dans une telle piscine d’eau parfaitement pure ! Ce n’est qu’en 2001 que la solution arrive enfin, et elle est là où on ne l’attendait pas, bien que certains physiciens aient commencé à tirer la sonnette d’alarme depuis quelques années : du côté de la physique et non de l’astrophysique ! Un nouveau détecteur, appelé SNO (pour Solar Neutrino Observatory), enterré dans une mine de nickel à Sudbury au Canada, vient de donner des résultats. Étant constitué d’eau lourde, il est sensible aux neutrinos de grande énergie comme Super-Kamiokande. Il devrait donner le même résultat concernant les neutrinos électroniques. Or ce n’est pas le cas ! Les neutrinos manquants ont bien été créés dans le Soleil sous forme de 136
Grandes controverses en astrophysique
Les neutrinos solaires : John Bahcall et les physiciens
neutrinos électroniques, mais ils ont été transformés pendant leur voyage entre le Soleil et la Terre en neutrinos muoniques et tauiques qui ne sont pas détectés par Kamiokande et Super-Kamiokande. Cette « oscillation » des neutrinos entre les différentes espèces implique que certains neutrinos ont une masse (je n’explique pas pourquoi, de nombreux traités le montrent). C’EST DONC LE MODÈLE STANDARD DE LA PHYSIQUE QUI DOIT ÊTRE RÉVISÉ… On a donc mis trente ans à trouver la solution après la découverte des neutrinos manquants du Soleil. On peut se demander pourquoi ce processus a été si long. J’ai cité la phrase de Pontecorvo en 1967. Encore en 1990, deux physiciens connus commençaient ainsi un article sur le problème des neutrinos : « Très probablement, le problème des neutrinos n’a rien à voir avec la physique des particules. Et c’est un grand triomphe que les astrophysiciens soient capables de prédire le nombre de neutrinos issus du Bore 8 à un facteur deux ou trois près » !!! Et quelques jours après la remise du prix Nobel de physique à Ray Davis et Masatoshi Koshiba pour la première détection de neutrinos (respectivement pour le détecteur de Homestake et pour Super-Kamiokande), le physicien C.N. Yang disait : « Je ne crois pas aux oscillations des neutrinos, même après le travail rigoureux de Davis et l’analyse soigneuse de Bahcall. » Et un autre physicien confiait à Bahcall qu’à cause des succès rencontrés par le modèle standard de la physique des particules, il était très difficile de l’abandonner… On peut se demander finalement pourquoi John Bahcall n’a pas reçu le prix Nobel en 2002, en même temps que Ray Davis et Masatoshi Koshiba. Une fois de plus, j’y vois le désintérêt des membres du comité Nobel pour la théorie… Peut-être l’aurait-il obtenu s’il avait vécu jusqu’à plus de 80 ans (comme Jim Peebles ou Kip Thorne qui ont obtenu le prix Nobel à ces âges avancés), lorsqu’un autre prix Nobel a été décerné en 2015 pour des découvertes concernant les neutrinos. Mais Bahcall mourut à 71 ans en 2005, et c’était bien trop 137
Les neutrinos solaires : John Bahcall et les physiciens
tôt pour obtenir le Nobel… pour un théoricien. Heureusement il a au moins vécu assez longtemps pour assister au triomphe de ses idées ! John Bahcall conclut ainsi un article sur l’histoire des neutrinos : « Je suis surpris lorsque je regarde en arrière ce qui a été accompli dans le domaine des neutrinos solaires pendant les quatre dernières décennies. En travaillant ensemble, une communauté internationale ’ingénieurs, de milliers de physiciens, de chimistes, d’astronomes, et d a montré que de compter les atomes radioactifs dans une piscine pleine de liquide au fond d’une mine, pouvait nous dire des choses importantes concernant le Soleil et les propriétés de particules exotiques appelées neutrinos. Si je n’avais pas vécu moi-même cette saga, je n’aurais pas cru qu’elle était possible. »
138
Grandes controverses en astrophysique
LES GRB (GAMMA-RAY BURST)
Les GRB sont passés en quelques décennies du statut d’objets terrestres à celui d’objets les plus distants de l’Univers. Mais ce ne fut pas sans mal ! Les Américains découvrent le premier sursaut en ondes Gamma* en juillet 1967, alors qu’ils cherchent à détecter dans le cadre de la guerre froide des satellites soviétiques espions ou des explosions thermonucléaires. En fait, ils vont jusqu’à penser que les Russes lâchent des bombes nucléaires expérimentales sur la face cachée de la Lune ! Le Laboratoire national de Los Alamos aux États-Unis, celui qui avait développé pendant la deuxième guerre mondiale le projet Manhattan de bombe atomique, est chargé de surveiller les satellites soviétiques. Stirling Colgate52, qui devint par la suite un expert des explosions de supernovae*, doit concevoir des satellites capables de détecter des explosions nucléaires sur la Lune. Pour les identifier, les satellites américains vont disposer de détecteurs de rayons X et de rayons gamma, et c’est ainsi qu’ils observent le premier sursaut gamma. Les 52. Étant en partie possesseur des usines de fabrication du dentifrice du même nom, il était immensément riche, et il venait souvent aux congrès d’astrophysique dans son avion personnel, où il proposait d’amener des amis (souvent des amiEs) admirer les paysages vus du ciel… 139
Les GRB (Gamma-Ray Burst)
ingénieurs constatent d’abord qu’aucune tempête solaire ni aucune supernova n’est en cours à ce moment-là. S’agit-il alors de l’une de ces fameuses explosions nucléaires soviétiques ? On en observe bientôt de nombreuses autres venant de toutes les régions du ciel. Elles se produisent approximativement une fois par jour et proviennent de directions aléatoires. Leur durée va d’une fraction de seconde à des milliers de secondes. La découverte de ces signaux mystérieux est rendue publique en 1973. Le phénomène est baptisé « sursaut gamma » ou GRB (Gamma-Ray Burst). Pendant plus de vingt ans, les choses n’évoluent pas, les observations sont disparates, on ne peut pas les réaliser depuis la Terre car les rayons gamma sont en partie absorbés par l’atmosphère, et les instruments sur les satellites sont très peu performants. Finalement, la Nasa lance en 1991 un véritable observatoire spatial pour les rayons gamma, et là les choses vont changer du tout au tout. D’abord on réalise une première classification des GRB. Ils se répartissent en deux groupes distincts. Les sursauts courts, dont la durée est typiquement de quelques dixièmes de secondes et le maximum d’émission est à très haute énergie, vers 100 MeV* ; et les sursauts longs qui peuvent durer quelques secondes, voire quelques minutes et qui ont un maximum à plus basse énergie, typiquement vers 100 keV*. Que traduisent ces différences ? Ensuite, on découvre que les sources se répartissent de façon isotrope53 sur le ciel. Logiquement, cela exclut que les sursauts gamma se produisent dans la Voie lactée, car ils devraient alors être concentrés dans la direction du centre galactique, étant donné la position excentrée du Système solaire. Mais s’ils se produisent loin de la Voie lactée, cela signifie qu’ils sont très puissants. Donc le mystère s’épaissit encore ! Or depuis plusieurs années, un chercheur polonais, Bohdan Paczyński, plaidait pour une origine très lointaine (extragalactique) des sursauts gamma. Il affirmait sur la base de statistiques qu’ils ne 53. C’est-à-dire de la même façon dans toutes les directions. 140
Grandes controverses en astrophysique
Les GRB (Gamma-Ray Burst)
peuvent provenir de la Voie lactée. Presque personne ne le prenait au sérieux, car cela aurait signifié que ces sources sont incroyablement puissantes. Mais Paczyński ne se découragea pas et continua à les étudier. Il était soutenu par le Britannique Martin Rees, celui qui avait élucidé le mystère des quasars* (voir le chapitre sur les trous noirs géants). Il avait montré également que les vitesses de certains d’entre eux ne sont pas supérieures à celle de la lumière comme il semblait, et qu’ils peuvent émettre beaucoup moins d’énergie qu’on ne le pense s’ils se déplacent dans notre direction avec une vitesse proche de celle de la lumière. La controverse devint particulièrement virulente en 1995. Lors du 75e anniversaire du Grand Débat entre Heber Curtis et Harlow Shapley sur la nature des nébuleuses (voir le chapitre sur le Grand Débat), fut organisé dans la même salle du Musée national d’histoire naturelle de Washington un débat sur la nature des sursauts gamma et leur distance, entre Bohdan Paczyński et Donald Lamb, un farouche partisan de l’hypothèse des sursauts proches. Le débat était animé par Martin Rees. Comme pour le Grand Débat de 1920, le résultat fut un match nul. Et comme pour le Grand Débat de 1920, la vérité fut découverte presque immédiatement après. Et c’est Paczyński qui avait raison ! En effet, le 28 février 1997, 25 ans après leur découverte, on réussit pour la première fois à associer une contrepartie optique à un GRB grâce à un satellite italo-néerlandais, BeppoSAX : il détecta à la position du sursaut une source de rayons X, qui se trouvait elle-même dans une galaxie lointaine. La preuve était donc enfin là, les GRB sont des phénomènes très distants ! Comme le dira plus tard Paczyński : « Je pense que ce jour a été le plus heureux de ma vie professionnelle, car j’ai soudain réalisé que j’avais gagné un pari très risqué, qui aurait très bien pu tourner mal pour moi ! » Ce résultat eut pour effet de plonger momentanément la science dans le chaos. Car si les sursauts gamma provenaient de loin, ils devaient être causés par un phénomène plus énergétique que ce que les astrophysiciens avaient jamais envisagé. 141
Les GRB (Gamma-Ray Burst)
On a maintenant résolu le problème. Les sursauts gamma font effectivement partie des événements les plus énergétiques observés dans la nature. Ils émettent typiquement autant d’énergie en quelques secondes que le Soleil pendant les 10 milliards d’années de sa vie. De plus, on a compris l’origine des deux types de sursauts. Les GRBs longs sont produits par l’effondrement du cœur d’étoiles massives. Les GRBs courts sont dus à la fusion de deux étoiles à neutrons*, et peut-être aussi (mais cela n’a pas encore été observé directement) à la fusion d’une étoile à neutrons* et d’un trou noir*. En effet, le signal d’ondes gravitationnelles* GW170817 détecté le 17 août 2017 est le premier attribué sans conteste à la fusion de deux étoiles à neutrons, comme l’indiquent les masses des deux objets en jeu. Or il a été accompagné d’une panoplie de détections dans toutes les bandes de longueurs d’onde, depuis la radio jusqu’aux rayons X et gamma, exactement comme le prédisaient les modèles de sursauts gamma ! Il est d’ailleurs possible qu’un sursaut gamma ait été la cause de l’extinction massive sur Terre ayant eu lieu il y a 445 millions d’années. Si un sursaut gamma survenait dans un rayon de quelques milliers d’années-lumière de la Terre, il causerait en effet des dégâts irréparables avec un appauvrissement de la couche d’ozone et un refroidissement climatique. Quand on parle de GRB, on pense immédiatement aux FRB (ou Fast Radio Bursts, sursauts radio rapides), qui, eux, se manifestent seulement dans le domaine radio. Je ne développerai pas ici le sujet, car c’est un problème loin d’être résolu, et chaque mois on voit paraître un article proposant un nouveau modèle pour les expliquer. Ils n’ont peut-être rien à voir avec les GRB, bien que certains proviennent également de régions très éloignées de l’Univers. Une seule source de FRB a été bien identifiée jusqu’à maintenant. Ils provenaient du four à micro-onde de la cantine de l’Observatoire de Parkes en Australie. Lorsqu’on ouvrait la porte du four alors qu’il fonctionnait, il émettait avant de s’éteindre un flash de rayonnement en direction du radiotélescope*… 142
Grandes controverses en astrophysique
LA GRANDE ILLUSION : LES CANAUX DE MARS
Si une controverse a soulevé beaucoup de passions dans le public, c’est bien celle-là, et pendant plusieurs siècles. Pour le comprendre, il faut remonter avant les débuts de l’astrophysique. En fait, des esprits éclairés lancent dès le xviie siècle l’idée de l’existence d’autres mondes habités, tel Bernard Le Bouyer de Fontenelle, un savant respecté, avec ses Entretiens sur la pluralité des mondes parus en 1686. C’est un véritable « best-seller » où il écrit dans l’introduction : « Il semble que rien ne devrait nous intéresser davantage, que de savoir comment est fait le Monde que l’on habite, s’il y a d’autres Mondes qui lui soient semblables, et qui soient habités aussi bien que lui. ». Également au xviie siècle, le grand savant hollandais Christian Huygens croit que Saturne est habité, et il écrit aussi sur la pluralité des mondes. Emmanuel Kant, au xviiie siècle, préfère Jupiter. Puis au début du xixe siècle, William Herschel, qu’on voit dans un autre chapitre découvrir des nébuleuses avec sa sœur Caroline, y va de son couplet : « le Soleil n’est pas autre chose qu’une très grosse planète lumineuse », qui est « très probablement habitée, comme le reste des planètes, par des êtres vivants dont les organes sont adaptés aux circonstances particulières de ce vaste globe ». Apparemment, l’idée qu’il existe d’autres mondes habités ne choque plus l’Église comme elle l’avait fait trois siècles plus tôt avec 143
La grande illusion : les canaux de Mars
Giordano Bruno, qui avait payé de sa vie cette idée alors iconoclaste. Car c’est le jésuite Angelo Secchi qui s’attaque sérieusement le premier à l’étude de Mars dans son Observatoire du Vatican, et qui y détecte en 1858 ce qu’il appelle des « canali54 », bandes sombres qui semblent séparer des continents. Le terme va faire florès dans les années suivantes. Et c’est le jeune Camille Flammarion qui va lancer réellement le débat sur Mars, avec un livre intitulé aussi La pluralité des mondes habités, qui a beaucoup de succès auprès du grand public. Flammarion, qui a été renvoyé de l’Observatoire de Paris, se prétend professeur d’Astronomie et va devenir le plus célèbre vulgarisateur de la fin du xixe siècle et du début du xxe. Il publie ensuite sa fameuse Astronomie populaire. Ses livres ont tant de succès que les droits d’auteur lui permettent d’acquérir en région parisienne à Juvisy son propre observatoire, qui sera ensuite légué par sa veuve à la Société astronomique de France, qu’il a fondée. Adepte de l’ésotérisme et des tables tournantes, il a fait naître beaucoup de vocations astronomiques, mais il n’était pas lui-même un grand astronome ; et sur plusieurs questions importantes, il n’a pas choisi la bonne option (par exemple sur la question de la taille de l’Univers). En fait, peu de grands chercheurs sont de très bons vulgarisateurs – et réciproquement – et c’est à mon avis un problème majeur pour la diffusion des connaissances scientifiques. À partir de 1877, le directeur de l’Observatoire de Brera près de Milan, Giovanni Schiaparelli, devient l’expert de la planète Mars. Il confirme l’existence des « canaux », et il affirme que certains sont doubles, preuve qu’ils sont l’œuvre d’une société intelligente (plus tard, un de ses opposants, Eugène Antoniadi, dira que Schiaparelli les croyait doubles parce qu’il n’y voyait pas bien !). Puis il obtient pour son observatoire une lunette de 49 centimètres de diamètre qui 54. En fait, il y a un problème de traduction, car « canal » en italien ne veut pas dire « canal » en français mais « chenal » comme celui qui sépare la France de l’Angleterre (channel en anglais). 144
Grandes controverses en astrophysique
La grande illusion : les canaux de Mars
Figure 8 | Les canaux de Mars.
lui permet de publier en 1890 de grandes cartes géométriques des canaux, obtenues par des mesures effectuées avec un micromètre, ce que Flammarion qualifie de « méthode rigoureuse ». Personne ne peut alors ne pas croire que les canaux n’aient pas été creusés par des êtres intelligents. Un autre grand expert en canaux se déclare bientôt : c’est Percival Lowell, un riche mécène qui a financé l’Observatoire qui porte son nom à Flagstaff aux États-Unis. Doué d’une imagination sans borne, il trouve qu’une bande de végétation d’une trentaine de kilomètres borde chaque canal sur toute sa longueur. Selon lui, les taches que l’on peut observer à l’intersection des canaux sont des lacs et des oasis. Il va jusqu’à annoncer en 1911 qu’il a la preuve qu’en deux ans, les ingénieurs martiens ont construit deux immenses canaux supplémentaires et il en produit le dessin (car Lowell ne croit pas à la photographie, qui ne montre pas ce que l’on désire…), publié immédiatement dans le New York Times ! Cinquante ans plus tard, le célèbre astronome et vulgarisateur Carl Sagan dira de Lowell qu’il « a sans doute été le pire artiste à s’asseoir derrière un télescope ». 145
La grande illusion : les canaux de Mars
Après Flammarion, les Français ne veulent pas être en reste et décident de se lancer dans la bagarre. Une nouvelle preuve des canaux martiens viendra de Henri Perrotin et Louis Thollon. En 1886, ils découvrent les canaux à la lunette de 38 centimètres de l’Observatoire de Nice, exactement tels qu’ils sont représentés par Schiaparelli. Deux années plus tard, ils utilisent la nouvelle lunette de 76 centimètres de l’Observatoire de Nice, et confirment leurs conclusions. C’est alors qu’apparaissent les premiers avis divergents. Le monde se partage entre « canalistes », de loin les plus nombreux, et « non canalistes ». Les observations des deux Français sont contestées par des astronomes américains travaillant avec une lunette plus puissante à l’Observatoire Lick au mont Hamilton (États-Unis). Asaph Hall qui a découvert les lunes de Mars ne parvient pas non plus à observer le moindre canal rectiligne. En 1877, un dessinateur professionnel anglais, Nathaniel Green, dessine sa propre carte de Mars, qui ne montre aucun canal. Il accuse les canalistes de dessiner des choses qu’ils ne voient pas (on appellerait maintenant cela de l’autosuggestion). Les canalistes rétorquent que ceux qui doutent de la réalité des canaux sont simplement de mauvais observateurs. Puis deux grands astronomes, l’Anglais Edward Maunder (il est connu pour avoir détecté sur les taches solaires le « minimum de Maunder » qui a coïncidé avec une période très froide au xviie siècle) et l’Américain Edward Barnard (grand photographe et découvreur entre autres de « l’étoile de Barnard »), ne voient pas de canaux même dans les meilleures conditions d’observation, et concluent qu’ils n’existent pas. Barnard écrit : « Je vois des détails là où certains canaux se trouvent, mais ce ne sont pas du tout des lignes droites. Quand on les voit le mieux, ces détails sont très irréguliers et fragmentés. Je crois sincèrement que les canaux décrits par Schiaparelli sont des illusions, et que l’avenir le confirmera. » Il leur faudra du courage pour publier leurs conclusions, car on aurait pu les accuser d’être de mauvais observateurs puisqu’ils ne détectent pas ce que les autres voient ! 146
Grandes controverses en astrophysique
La grande illusion : les canaux de Mars
Alfred Russel Wallace, qui a proposé en même temps que Darwin une théorie de l’évolution des espèces, attaque bille en tête les élucubrations de Lowell dans son livre Est-ce que Mars est habitable ?. Il remarque que la surface martienne doit être gelée et désertique, et que « essayer de faire voyager ce maigre surplus [d’eau] dans des canaux toujours pleins, de l’autre côté de l’équateur dans l’hémisphère opposé, à travers de terribles déserts et sous un ciel sans nuage, comme M. Lowell nous le décrit, serait plutôt l’œuvre de fous que d’êtres intelligents ». En effet, l’avenir va confirmer l’absence de canaux, grâce aux observations de Gaston Millochau et Eugène Antoniadi avec la grande lunette de Meudon. Antoniadi avait établi à Juvisy avec Flammarion une carte de Mars montrant de nombreux canaux. Mais il avait constaté qu’il ne les trouvait que lorsqu’il savait où il devait les chercher grâce aux cartes de Schiaparelli. Lors de l’opposition de Mars en septembre 1909, dans des conditions idéales d’observation (les meilleures, dit-il, de toute sa carrière), il ne vit aucun canal. De même qu’il n’en vit aucun dans les photographies prises par Lowell à Flagstaff contrairement à ce que prétendait leur auteur. Il réalisa lui-même des dessins en couleur de la planète et la meilleure carte de Mars à cette époque55. Il est maintenant clair que les canaux sont des illusions d’optique : l’œil a tendance à trouver des alignements dans des structures fluctuantes en raison de la turbulence de l’atmosphère terrestre. Puis en 1933, des spectres* à haute résolution montrèrent que l’atmosphère de Mars contenait une toute petite quantité d’oxygène qui provenait de la décomposition du gaz carbonique de l’atmosphère ténue, et non de la Vie. Mais le public, plus sensible à la poésie des légendes qu’à la rigueur scientifique, continua d’adhérer à l’idée d’une planète habitée, au point de se laisser abuser par la célèbre émission d’Orson Wells à la télévision américaine en 1938 et de croire à l’invasion par 55. En fait, il a inventé lui-même des structures qui n’ont pas été observées ultérieurement… 147
La grande illusion : les canaux de Mars
les Martiens56 ! Et c’est seulement trente ans plus tard, le 15 juillet 1965, que la sonde Mariner 4 survola Mars et prouva de manière définitive que les canaux n’existent pas. Quant aux autres planètes, hélas aucune ne convient ! Les mesures de température montrent que Mercure est trop chaud et les grosses planètes gazeuses trop froides pour abriter la vie. Il en est de même des satellites de ces planètes, qui, à l’exception de Titan, n’ont guère d’atmosphère. Il reste Vénus, dont l’atmosphère a une température vraiment excessive pour la vie (450 degrés !), mais on ne le savait pas encore au début des années 195057. Ce qui permit à l’Américain George Adamski de publier en 1953 un livre intitulé Les soucoupes volantes ont atterri, dans lequel il raconta comment il avait rencontré un très beau vénusien (!) qui lui avait révélé ses secrets. Ce livre eut un succès phénoménal, et Adamski devint célèbre dans le monde entier car cette rencontre se renouvela plusieurs fois, et il en profita pour publier plusieurs autres livres du même acabit. Tel est l’engouement pour cette fable que beaucoup d’« ufologues »58 croient encore maintenant à l’existence des « petits hommes verts », ou plutôt « gris », d’après les récits qu’en ont fait aussi deux Américains qui ont visité leur soucoupe… Le mythe de la visite des extraterrestres est toujours vivant ! Et nous verrons dans le chapitre sur les extraterrestres qu’il continue à alimenter les médias et le public qui se précipitent avec voracité sur toutes les informations pouvant les conforter dans cette opinion. Mais la question a pris un aspect nouveau et plus scientifique au début du xxie siècle. D’abord, avec l’envoi des sondes spatiales, on a 56. Il y avait sans doute dans cette histoire beaucoup de « communication » comme on dirait maintenant. 57. On a entendu ces derniers mois une annonce prématurée qui a fait grand bruit, de la présence dans l’atmosphère de Vénus de phosphine ou hydrure d’hydrogène, qui pourrait être liée à l’existence de Vie. Non seulement cette dernière hypothèse est absolument gratuite, mais même la présence de phosphine n’a pas été confirmée. 58. Ufologue : personne qui étudie les OVNI (Unidentified Flying Objetcs), et y croit en général. 148
Grandes controverses en astrophysique
La grande illusion : les canaux de Mars
commencé à penser que de l’eau (donc de la Vie) pourrait se cacher en profondeur dans certains satellites de Jupiter et de Saturne, et qu’elle avait été présente dans le passé sur Mars. Cette idée a donné naissance à une autre belle controverse, celle de « la météorite martienne », qui est racontée dans le prochain chapitre. Mais par ailleurs, on a découvert depuis 1995 l’existence de milliers de planètes hors du Système solaire, les fameuses « exoplanètes* » ; il en existe dans la Voie lactée probablement des milliards, voire des centaines de milliards. Beaucoup pourraient abriter la vie, mais on ne pourra pas en être certain avant longtemps, car elle n’est pas facile à déceler contrairement à ce que laissent parfois penser les médias. Quant à imaginer qu’il existe sur ces exoplanètes d’autres civilisations avancées comme la nôtre, ou même plus avancées, c’est possible, mais les hommes ne sont pas près d’aller les voir sur place…
149
CONTROVERSE SUR LA MÉTÉORITE MARTIENNE
Ce chapitre ne sera pas long, car la controverse n’a duré que peu de temps, bien qu’elle n’ait jamais été conclue définitivement. Mais elle vaut la peine d’être racontée pour le rôle que la Nasa et les médias y ont joué. Le chapitre est documenté à partir des articles du journaliste Sylvestre Huet qui s’est rendu célèbre entre autres pour avoir réussi à dégonfler des annonces soi-disant scientifiques (comme les erreurs dans un livre du ministre climato-sceptique Claude Allègre, ou les découvertes majeures sur le Big Bang des frères Bogdanov, voir le chapitre sur les fausses controverses). Le 7 août 1996, la Nasa annonçait dans un grand spectacle dont elle est coutumière que huit scientifiques avaient obtenu un « faisceau d’indices » en faveur d’une « vie martienne » détectée sur une météorite martienne. Qu’est-ce qu’une météorite martienne ? C’est une météorite retrouvée sur la Terre, mais qui a été éjectée de Mars, probablement par suite de l’impact avec un autre corps céleste. Ces météorites sont relativement rares. Celle dont il est question ici s’appelle ALH84001, du nom des montagnes Allan Hills où on en a découvert de semblables. Elle pèse environ deux kilos, a été expulsée de Mars il y a 16 millions d’années, et est tombée il y a 13 000 ans sur le glacier de l’Antarctique 151
Controverse sur la météorite martienne
où elle a été découverte en 1984. Jusque-là rien d’étrange, on reconstitue en général ces histoires avec précision grâce aux datations et à l’étude de la composition chimique. Mais dans ce cas il y avait un problème : c’est que la surface de cette météorite montrait des structures tubulaires ressemblant à de microscopiques vers de terre, ceci dans un contexte minéral d’acides aminés, qui sont considérés comme des marqueurs biologiques. D’étranges faits vinrent rapidement jeter le doute sur cette affaire. D’abord l’article rendant compte de cette étude publiée sous la direction de David MacKay dans la revue Science de l’Académie des sciences américaine ne semblait pas être passé par la moulinette des rapporteurs, comme c’est toujours le cas pour les articles scientifiques. Ensuite, c’était l’époque où le budget de la Nasa devait être discuté au Congrès, et il est bien connu que la Nasa a toujours agi dans ce cas en amplifiant les découvertes qu’elle pouvait en tirer ou qu’elle avait déjà effectuées. Cette nouvelle, immédiatement relayée par les médias, fit grand bruit, car il faut dire que si elle était vraie, c’était une découverte extraordinaire. Voilà enfin un indice de l’existence des petits hommes verts, dans un état très précoce, mais tout de même ! Comme j’organisais à l’époque les séminaires de l’Observatoire de Meudon, je pris mon téléphone et j’appelais un copain, Michel Maurette, géophysicien spécialiste des météorites, en particulier de celles trouvées dans l’Antarctique, pour lui demander à la fois ce qu’il en pensait et de nous faire un séminaire sur la question à l’Observatoire. À ma grande surprise, je ne le trouvai pas enthousiaste, et en tout cas, il n’était pas prêt à donner un séminaire avant d’avoir obtenu plus d’informations. Il semblait par exemple que la Nasa conservait cette météorite au Lyndon Johnson Space Center de Houston, alors qu’elle aurait déjà dû être donnée comme ses semblables au Smithsonian Institute de Washington ; et que la Nasa en prêtait difficilement des morceaux, contrairement à la coutume, et seulement à des laboratoires « bien choisis ». Mais ce n’était pas 152
Grandes controverses en astrophysique
Controverse sur la météorite martienne
l’avis de Jean-Pierre Bibring, de l’Institut d’astrophysique spatiale d’Orsay, qui affirmait que « 80 % des exobiologistes59 sont convaincus par MacKay, et 80 % des spécialistes des météorites persuadés du contraire ». Il s’agirait donc essentiellement d’une querelle de spécialistes jaloux de leurs prérogatives. Pourtant pas moins d’une année après l’annonce et de nombreux articles publiés sur la question, deux études montraient que les molécules soufrées de la météorite ne pouvaient pas provenir d’une activité biologique, et même que les carbonates d’ALH84001 avaient été formés à 650 °C et non à basse température. Difficile d’imaginer qu’elle ait pu donner naissance à la Vie dans ces conditions ! Mais bien sûr c’étaient encore des spéculations, et parmi la quinzaine d’autres articles publiés pendant cette année, aucun n’était vraiment concluant… Cependant, il faut noter que des nanostructures semblables à celles de la ALH84001 ont été trouvées dans d’autres météorites dont on sait qu’elles avaient été contaminées après leur chute par des bactéries extrêmophiles du désert… Depuis cette époque, l’affaire a disparu des tabloïds sans que jamais aucune conclusion définitive n’ait été donnée. Mais elle est reparue sous une forme différente en 2010, avec une nouvelle lancée également par la Nasa. Il s’agissait de la découverte d’une bactérie étrange trouvée dans le lac Mono près de la Vallée de la Mort en Californie. Le phosphore des molécules y aurait été remplacé par de l’arsenic, ce qui est tout à fait inhabituel. Ces bactéries proviendraient de l’espace. Or une mission robotisée devait partir vers Mars en 2011. Il est bon de maintenir la pression sur le public… Nous verrons dans le chapitre sur les extraterrestres que des annonces similaires continuent à irriguer en permanence le public et les médias.
59. Scientifiques qui s’occupent de l’existence de vie sur les autres planètes. 153
LA BATAILLE DE PLUTON
J’étais présente à l’Assemblée générale de l’Union astronomique internationale (UAI) qui se tint à Prague en 2006, et je ne m’attendais pas à assister à la dispute mémorable qui eut lieu concernant la planète Pluton. Ces assemblées se tiennent tous les trois ans, chaque fois dans un pays différent, et j’étais venue à Prague pour participer à un atelier sur mon sujet de recherche et assister à des conférences concernant les plus importantes découvertes de ces trois dernières années. Or une partie du temps fut monopolisée pour décider si Pluton continuait ou non à faire partie des planètes du Système solaire ! Je dois avouer que je connaissais très peu cette planète, qui pour moi n’était qu’une lointaine boule de glace aux confins du Système solaire, la neuvième planète comme je l’avais appris à l’école, et je ne pensais pas qu’elle pouvait déclencher des passions. Mais il y allait de la fierté nationale américaine, car c’était la seule planète découverte par un Américain. En effet, à part les cinq connues depuis l’Antiquité (j’exclus la Terre), Uranus avait été découverte par le Britannique William Herschel et Neptune par l’Allemand Johann Galle après que le Français Urbain Le Verrier en ait déterminé la position. Pluton a été en effet découverte en 1930 par un jeune Américain âgé de 24 ans, Clyde Tombaugh, qui à l’époque n’avait pas encore 155
La bataille de Pluton
effectué sa thèse et même pas encore fait des études d’astronomie. Il fut engagé à l’Observatoire Lowell près de Flagstaff pour rechercher une planète dont l’existence avait été prédite par Percival Lowell, le fondateur de cet observatoire (il est question de lui dans d’autres chapitres de ce livre, en particulier c’était un ardent défenseur des canaux de Mars !). Lowell pensait que, comme Neptune qui avait été découverte par Le Verrier parce qu’elle perturbait la trajectoire d’Uranus, il allait trouver une planète expliquant les perturbations de Neptune (il ignorait même si ces perturbations existaient !). Tombaugh découvrit une nouvelle planète par hasard grâce à une méthode de comparaison des clichés photographiques qu’il avait mis au point. C’était Pluton. Mais la nouvelle venue était petite et ne pouvait avoir aucune influence sur Neptune. Petite histoire pas très édifiante : Vesto Slipher, le directeur de l’Observatoire, était tellement furieux de n’avoir pas fait lui-même cette découverte qu’il licencia le jeune homme ! (Pourtant lui-même avait souffert du mépris de ses collègues lorsque, jeune astronome, il avait découvert que les galaxies s’éloignaient de nous à grande vitesse !) Ceci n’empêcha d’ailleurs pas Tombaugh de devenir célèbre dans toute l’Amérique. Donc Pluton devint la neuvième planète du Système solaire. Une fillette de onze ans passionnée de mythologie proposa de la nommer ainsi, parce que Pluton est le dieu romain des enfers, et que, comme lui, la planète est plongée dans le noir. Mais Tombaugh apprécia aussi le nom car il commence par les initiales de Percival Lowell. Le rayon de Pluton n’est que 20 % de celui de la Terre, ce qui lui confère une masse d’environ 1/500e de celle de la Terre et d’un cinquième de celle de la Lune. C’est donc un tout petit objet. Mais à mesure que les technologies évoluèrent, on découvrit d’autres petits astres lointains : par exemple, en 1978, un satellite de Pluton qu’on appela Charon (c’est le pilote de la barque des enfers dans la mythologie grecque). Et surtout, depuis 1995, la population des objets dits « transneptuniens » s’agrandit considérablement. Ce qui conduisit 156
Grandes controverses en astrophysique
La bataille de Pluton
les astronomes à se demander ce qu’il fallait faire de cette population envahissante de petites planètes : il devenait clair que ces astres ne pouvaient pas tous être définis comme étant des planètes. Et on en arriva ainsi à la réunion de l’UAI en 2006. Avant l’Assemblée générale, il y avait eu le vote d’un comité d’experts dirigé par un professeur d’Harvard. Ceux-ci avaient proposé que les planètes satisfassent deux conditions : être en orbite autour d’une étoile sans toutefois être une étoile, et être suffisamment massives pour que l’effet de leur propre gravité leur confère une forme sphérique. Pluton satisfaisait ces deux conditions, ainsi que trois autres objets : Charon, Cérès et Xena. Donc le Système solaire devait contenir non pas 9, mais 12 planètes, en attendant les autres qui ne tarderaient sûrement pas à être découvertes. Mais cette proposition fut rejetée par 70 % des 2 500 participants, après une réunion très houleuse, où les Français, en particulier l’équipe de mécanique céleste de l’Observatoire de Paris, jouèrent un rôle important. Il était clair que l’on avait affaire à un bloc européen contre un bloc américain. C’est la première fois que je voyais moimême à l’œuvre un pareil clivage dans le milieu scientifique. Les Européens proposèrent trois conditions à satisfaire : que les corps soient en orbite autour d’une étoile sans toutefois être une étoile ; qu’ils soient suffisamment massifs pour que l’effet de leur propre gravité leur confère une forme sphérique ; enfin qu’ils soient suffisamment massifs pour dominer leur environnement et aient « dégagé le voisinage autour de leur orbite ». À l’issue d’un vote à main levée, cette définition fut adoptée. Pluton satisfaisait aux deux premières conditions, mais pas à la troisième. Elle a une orbite exceptionnelle, très elliptique, et surtout très inclinée par rapport au plan de l’écliptique. On pouvait accepter cela à la rigueur. Par contre, sa masse est trop petite « pour nettoyer son voisinage ». Donc on créa une nouvelle catégorie de corps que l’on nomma « planètes naines », dont feraient désormais partie Pluton et les trois autres petites planètes. 157
La bataille de Pluton
Figure 9 | La bataille de Pluton.
Une autre résolution également adoptée définissait les notions de « planètes classiques », de « planètes naines » (les objets correspondant aux deux premiers critères mais non au troisième, et n’étant pas des satellites), et les « petits corps du Système solaire » (les objets ne rentrant pas dans les deux premières catégories). Pluton fut donc rétrogradée au rang de planète naine. Mais le problème n’était pas résolu pour autant. D’une part, le vote à main levée fut récusé, ce qui paraît normal étant donné l’enjeu et la violence des discussions. D’autre part, le vote ayant eu lieu en fin de réunion, il ne rassemblait pas le quorum. Donc il fallut revoter, ce qui fut fait par correspondance, après un échange de beaucoup de noms d’oiseaux. Le public américain envoya de nombreux mails pour fustiger les Européens qui avaient éliminé LEUR Pluton du cortège planétaire. Malgré tout, la proposition « européenne » fut adoptée. Mais il n’est pas impossible que la discussion reprenne un jour. Certains astronomes font en effet remarquer que la Terre non plus ne satisfait pas à la troisième condition ! Car elle est proche d’une dizaine de milliers d’astéroïdes qu’elle n’arrive ni à éloigner ni à attirer. Wait and see, comme on dit… 158
Grandes controverses en astrophysique
LE PRINCIPE ANTHROPIQUE
Lorsque Brandon Carter introduisit en 1973 le terme de « principe anthropique », il ne s’attendait pas à la levée de boucliers qu’il allait déclencher. Parti des idées de Paul Dirac en 1937, de celles de Fred Hoyle et d’Herman Bondi dans les années 1950, le sens de ce principe fut complètement dévoyé, et en général mal compris même par les scientifiques qui pensent qu’il doit rester du domaine de la métaphysique. Il a été l’objet de nombreuses interprétations plus ou moins spiritualistes et utilisé par les créationnistes pour conforter leur thèse sur la création du monde. Il est actuellement plus discuté que jamais. CES NOMBRES BIZARRES QUI CARACTÉRISENT L’UNIVERS Qu’est-ce que c’est que ce « principe anthropique » ? D’emblée, il faut préciser que ce n’est pas un « principe » mais simplement une constatation de faits, et qu’il n’est pas non plus réellement « anthropique », car il ne s’agit pas de l’homme à proprement parler mais plutôt de la Vie sous toutes ses formes. Carter, qui l’a inventé, était un jeune physicien australien travaillant à Cambridge (Angleterre) qui a ensuite vécu en France et a travaillé toute sa vie à l’Observatoire de Paris-Meudon. Il l’avait proposé au cours d’un colloque en Pologne 159
Le principe anthropique
célébrant le 500e anniversaire de la naissance de Copernic, dans le but de faire réfléchir à la validité de ce que l’on a appelé « le principe copernicien ». Celui-ci signifie que nous ne sommes pas au centre de l’Univers mais dans une position tout à fait quelconque, l’Univers luimême étant en moyenne identique en tout lieu (bien sûr, la matière est rassemblée en étoiles, en galaxies et en amas de galaxies, mais on peut parler d’homogénéité à plus grande échelle). Carter contestait ce principe, à cause de la présence des hommes. Depuis des décennies, les physiciens de Cambridge avaient l’habitude de se poser des questions sur les paramètres de l’Univers. Après Arthur Eddington, le physicien Paul Dirac qui a prédit l’existence du positron60 et est à l’origine de la découverte de l’antimatière, s’interrogeait dans les années 1930 sur d’étranges coïncidences qu’il trouvait entre les valeurs de différentes constantes physiques, et il les interprétait en émettant l’hypothèse qu’elles variaient au cours du temps61. Peu de scientifiques y attachèrent de l’importance, et la plupart accusèrent Dirac de faire de la numérologie (ils allèrent jusqu’à dire que son remariage l’avait rendu un peu fou !). L’ÂGE DE L’UNIVERS, PAS SI NATUREL Mais le ver était dans le fruit. La réponse à Dirac fut donnée en 1961 par le physicien Robert Dicke62. Il souligna que ces coïncidences impliquaient que l’âge de l’Univers « n’est pas une valeur aléatoire parmi une large gamme de valeurs possibles, elle est limitée par les 60. Le positron est l’anti-particule de l’électron. Il lui est identique, mais possède une charge électrique positive au lieu d’être négative. 61. On a appelé cela « l’hypothèse des grands nombres de Dirac ». Dirac montrait par exemple que le rapport entre la taille de l’Univers observable et celle d’une particule quantique est égal à 10 à la puissance 39, et qu’il est égal au rapport entre la force électromagnétique et la force gravitationnelle exercée par un proton sur un électron. 62. Celui-là même qui, ayant construit quelques années plus tard un appareil pour détecter le rayonnement fossile du ciel prédit dans le cadre du Big Bang, rata de peu sa découverte : elle valut le prix Nobel aux deux ingénieurs qui le découvrirent par hasard. 160
Grandes controverses en astrophysique
Le principe anthropique
critères rendant possible l’existence de physiciens ». Cette phrase, que l’on prend souvent pour une galéjade, a pourtant un sens profond. Dans les années 1950, un groupe de quatre astrophysiciens (dont trois de Cambridge) se posait la question de l’origine des différents éléments constituant l’Univers et montrait qu’ils devaient être synthétisés au cœur des étoiles par des réactions nucléaires : par exemple, un noyau de carbone se forme lorsqu’un noyau de béryllium, lui-même formé de deux noyaux d’hélium, rencontre un noyau d’hélium. Parmi eux, se trouvait un scientifique remarquable aux idées souvent frondeuses, Fred Hoyle, auquel est consacré un autre chapitre de ce livre. Hoyle remarqua qu’il fallait pour cela qu’il existe un niveau du noyau de carbone ayant une énergie très précise, sinon la formation du carbone aurait pris un temps bien supérieur à la durée de vie de l’Univers63. Hoyle demanda à William Fowler, expérimentateur en physique nucléaire, de rechercher ce niveau et Fowler le découvrit presque immédiatement. À propos de cette « prédiction », Hoyle écrivit cette phrase en 1957 : « la position de ce niveau signifie que des créatures vivantes comme nous ne peuvent exister que dans une portion de l’Univers où cette résonance existe ». Encore une idée bizarre ! Mais ce n’était pas tout. Cela signifiait que la Vie, qui nécessite la présence de carbone ou d’éléments plus lourds capables de fabriquer des molécules complexes, ne pouvait se développer avant que ces éléments aient été synthétisés dans les étoiles. Or pour ceux qui croyaient au Big Bang (à cette époque on n’avait pas encore découvert le rayonnement fossile* qui en donna une preuve presque irréfutable), l’Univers avait un âge fini et les étoiles n’avaient pas existé de tout temps. La présence de la Vie exigeait donc que l’âge de l’Univers fût supérieur à des centaines de millions, voire des milliards d’années, 63. De même que les atomes ont des niveaux d’énergie quantifiés qui sont à l’origine des raies spectrales, les noyaux ont des niveaux d’énergie également quantifiés. Dans le cas présent, c’est parce qu’un niveau du noyau de carbone a une énergie exactement égale à la somme de l’énergie du béryllium et de l’hélium que la réaction a lieu : c’est ce que l’on nomme une « résonance ». 161
Le principe anthropique
le temps pour les étoiles de se former et d’arriver à fabriquer ces éléments, car ceux-ci sont synthétisés dans des étoiles relativement peu massives comme le Soleil qui évoluent lentement. Par exemple le Soleil, qui s’est formé neuf milliards d’années après le Big Bang, commencera à fabriquer du carbone et de l’oxygène dans environ quatre milliards d’années. Il projettera dans l’espace des vents puissants contenant ce carbone et cet oxygène, qui seront alors disponibles pour fabriquer les indispensables molécules. Dicke allait même plus loin en prédisant que dans quelques dizaines de milliards d’années la plupart des étoiles seraient « mortes » par manque de combustible nucléaire et que la Vie disparaîtrait alors de l’Univers. Il en déduisait donc que l’âge de l’Univers ne pouvait avoir d’autre valeur que comprise entre dix et vingt milliards d’années, car sinon nous ne serions pas là pour en débattre ! Nous savons maintenant que l’Univers est âgé d’environ 14 milliards d’années. PRINCIPE ANTHROPIQUE ET BIG BANG En 1973 donc, Brandon Carter invitait les astronomes à méditer sur ces idées, en énonçant deux formes de ce qu’il appela le principe anthropique : • Le principe faible (WAP, pour Weak Anthropic Principle) : « Les conditions que nous observons autour de nous sont nécessaires à notre existence. » Il fut qualifié aussitôt de tautologie. Ce n’est pourtant pas de cas. • Le principe fort (SAP, pour Strong Anthropic Principle) : « Les paramètres fondamentaux caractéristiques de l’Univers doivent être tels qu’ils ont permis l’émergence d’observateurs à une certaine étape de son évolution. » Cette formulation a été mal comprise, à cause du terme « doivent » (« must » en anglais) et a été interprétée comme « l’Univers a été conçu dans le but de générer des observateurs », ce qui n’était pas du tout l’idée de Carter64. Comme Carter avait un 64. Carter croit à la théorie des « mondes multiples » fondée sur la mécanique quantique, proposée par le physicien Hugh Everett en 1957. 162
Grandes controverses en astrophysique
Le principe anthropique
bureau proche du mien à l’Observatoire de Meudon, j’en ai discuté avec lui et je connais bien son opinion sur le sujet. Cet énoncé suscita une énorme controverse. Deux opinions s’opposaient. D’un côté, ceux qui approuvaient le principe fort ou l’amendaient légèrement. On vit ainsi de nombreux colloques pseudo-scientifiques fleurir sur le sujet. Des livres furent publiés, dont le plus approfondi, en 1986, fut celui de Barrow et Tipler, The Anthropic Cosmological Principle. Ils y définissaient en particulier un nouveau principe, le FAF (pour Final Anthropic Principle) : « À partir du moment où l’intelligence a émergé, elle subsistera indéfiniment. » D’un autre côté, la majeure partie des scientifiques s’en moquaient, l’un d’eux allant jusqu’à proposer le concept de « CRAP », pour Completely Ridiculous Anthropic Principle (il faut savoir que « crap » est un mot très inconvenant en anglais !). Par ailleurs une découverte des années 1970 allait révolutionner en même temps la cosmologie et la physique des particules : on s’aperçut que ces deux domaines, celui de l’infiniment grand et celui de l’infiniment petit, étaient fondamentalement liés. C’est en effet pendant les trois premières minutes après le Big Bang que se fabriquèrent les noyaux d’hydrogène et d’hélium qui allaient, des milliards d’années plus tard, se souder dans le cœur des étoiles pour donner le carbone et l’oxygène, et faire de nous des « poussières d’étoiles ». Certains cosmologistes se posèrent alors la question : mais que se serait-il passé si les particules et les forces avaient été différentes de ce qu’elles sont ? Les étoiles auraient-elles synthétisé du carbone et de l’oxygène ? Auraient-elles vécu suffisamment longtemps pour permettre aux planètes comme la Terre d’engendrer la Vie ? LES FORCES ET LES CONSTANTES QUI RÉGISSENT L’UNIVERS On connaît (pour le moment !) quatre forces ou « interactions » dans la nature : la force électromagnétique qui s’exerce sur les particules chargées électriquement et qui se fait sentir à l’échelle des atomes ; la force nucléaire faible, responsable d’une partie de la 163
Le principe anthropique
radioactivité* ; l’interaction nucléaire forte qui maintient les particules comme les quarks à l’intérieur d’un noyau. La quatrième est la force gravitationnelle, et c’est celle qui nous paraît la plus grande puisqu’elle nous maintient à la surface de la Terre. Paradoxalement, cette force est de loin la plus faible, de très loin même puisque la force électromagnétique par exemple est 10 à la puissance 39 fois plus grande ! Et c’est justement parce que la force gravitationnelle est aussi faible que les étoiles peuvent rayonner pendant suffisamment longtemps pour permettre à la Vie de naître sur les planètes. Si elle était cent fois plus forte, les planètes seraient de simples astéroïdes, seules des mini-étoiles se formeraient, et elles vivraient cent fois moins longtemps. Clairement la Vie ne pourrait se développer. On peut raisonner de la même façon pour les autres interactions. Si la force nucléaire forte était plus grande de 2 %, l’hydrogène disparaîtrait en quelques minutes, il n’y aurait pas d’éléments plus légers que le fer. Si elle était plus petite, aucun élément plus lourd que l’hydrogène et l’hélium ne se formerait. Dans les deux cas, aucune molécule ne pourrait se former. Si la force électromagnétique était un peu plus grande, les électrons repousseraient les atomes. Si elle était plus petite de quelques pourcents, ils ne seraient pas maintenus dans leur atome. Encore une fois, dans les deux cas il n’y aurait pas de molécule. Du côté des constantes de la physique, c’est le même constat. Il en existe une vingtaine, dont les valeurs sont déterminées expérimentalement avec une très grande précision, comme la vitesse de la lumière, la constante de la gravitation, la masse de l’électron, etc., mais nous ignorons pourquoi elles ont ces valeurs. Si elles en avaient différé par des quantités minimes, l’Univers aurait subi une autre évolution et il n’y aurait pas eu de vie non plus. Par exemple la formation du deutérium* dépend crucialement de la différence des masses entre les neutrons* et les protons, or le deutérium est indispensable à la formation de l’hélium, lui-même indispensable à la formation du carbone. Mais est-il raisonnable de supposer qu’une seule constante pourrait être différente, les autres restant égales par ailleurs ? Pour 164
Grandes controverses en astrophysique
Le principe anthropique
répondre à cette question, des physiciens essayent de coupler les constantes au moyen de théories « non standards » de la physique, et montrent que les contraintes sont alors moins fortes. Certains vont même jusqu’à affirmer qu’un Univers auquel manquerait l’une des interactions (la « faible ») pourrait néanmoins produire la Vie. Et dans un cas précis où il a été possible de « faire varier » deux constantes, on constate que l’intervalle anthropique est beaucoup plus vaste. On peut donc conclure que, certes, les valeurs des constantes sont contraintes, mais pas d’une façon « incroyablement précise », comme l’affirme l’astrophysicien Trin X. Thuan65 dans son livre La mélodie secrète et les suivants. De cette affirmation est née une deuxième controverse, encore plus violente que la première. D’un côté, quasiment tous les spécialistes de cosmologie, d’un autre, un large public, conquis par les livres de Thuan et d’autres. L’idée de Thuan est que l’Univers a été réglé d’une façon incroyablement précise dans le but de permettre l’émergence de la Vie. Cette version biaisée du principe anthropique fort a été utilisée pour asseoir ce que l’on a appelé « le Grand Dessein » ou « le Dessein Intelligent », prônant qu’une intelligence supérieure (un « Grand Architecte ») a créé l’Univers dans le but d’y accueillir les hommes. Elle est très populaire aux ÉtatsUnis dans les milieux religieux où elle a été utilisée pour justifier « scientifiquement » le créationnisme. Un exemple : la fondation nord-américaine Templeton distribue des prix somptueux aux scientifiques qui tentent de faire le lien entre la science et la foi par le biais du Grand Dessein66. En France, où la croyance au créationnisme est moins développée qu’aux États-Unis, le Grand Dessein commence cependant à faire des émules. 65. J’ai eu l’occasion de le rencontrer souvent lorsqu’il vivait en France, fuyant le Vietnam avec ses parents, et nous sommes devenus amis. Mais je n’adhère pas du tout aux thèses qu’il a développées ensuite. 66. Elle en distribue aussi à d’autres célébrités qui ne sont pas impliquées dans le Grand Dessein, comme le Dalaï-Lama ou Soljenitsyne, mais on ne peut pas dire que ce soit de grands rationalistes… 165
Le principe anthropique
UN GRAND ARCHITECTE N’EST PAS FORCÉMENT NÉCESSAIRE ! Comme je l’ai dit plus haut, les scientifiques sont souvent opposés au principe anthropique. Ils trouvent en particulier qu’il n’a pas les capacités prédictives que doit avoir toute théorie scientifique car il n’est pas « falsifiable », c’est‑à-dire réfutable, comme le prône le philosophe des sciences Karl Popper. Ce n’est pas tout à fait vrai. D’abord, on peut envisager des empreintes dans le rayonnement cosmologique de phénomènes comme la collision de deux Univers. Le physicien américain et Prix Nobel Steven Weinberg avait aussi spéculé il y a plus de trente ans sur le fait que la constante cosmologique* (ou, si on préfère, l’énergie sombre) devait avoir une valeur faible car si elle était plus grande, l’Univers n’aurait pas pu produire d’étoiles ou de galaxies, donc la Vie. Il déduisait une valeur très proche de celle que l’on a observée quinze ans plus tard ! On peut donc considérer que c’était une véritable « prédiction anthropique ». Quelles explications les scientifiques proposent-ils alors au principe anthropique ? La plus répandue est qu’il s’agit d’un simple hasard, de même qu’un jet de deux dés produirait un double six, sur 36 possibilités, si tant est que l’homme puisse se considérer comme un double six… Ou bien que la Vie pourrait prendre des formes beaucoup plus variées qu’on ne l’imagine. Une autre est que l’on pourra un jour expliquer la valeur des forces et des constantes à l’aide d’une théorie unique, la « Théorie du Tout », prônée par quelqu’un comme Stephen Hawking. Mais outre le fait qu’elle semble encore bien éloignée, elle ne me paraît pas résoudre le problème, qu’elle repousse seulement à un niveau plus profond. Une troisième interprétation est celle du « multivers ». Elle est à la mode parmi les cosmologistes travaillant sur la théorie des « supercordes », celle qui cherche à unifier la gravité avec les autres interactions. En effet toute tentative pour comprendre l’origine de l’Univers butte dans le passé sur le moment où il avait une densité si gigantesque que la gravité elle-même était un phénomène quantique. La théorie des supercordes prédit qu’il devrait alors exister non pas UN Univers, mais 166
Grandes controverses en astrophysique
Le principe anthropique
Figure 10 | Les multivers.
un très grand nombre, chacun correspondant à un Big Bang différent, avec ses propres constantes. La plupart de ces Univers n’auraient pas les bonnes constantes mais un certain nombre d’entre eux seraient « habitables », et le nôtre en ferait partie. Cette idée se situe dans la continuité d’une progression historique : au xvie siècle, le géocentrisme est abandonné, au xixe siècle le Soleil devient une étoile parmi des centaines de milliards d’autres, au xxe siècle, la Voie Lactée devient une galaxie parmi des centaines de milliards d’autres, alors pourquoi notre Univers ne serait-il pas un Univers parmi des milliards d’autres ? Une variante de l’idée de multivers est fondée sur la théorie concurrente, la « gravité quantique à boucle », qui prédit, elle, un univers ayant rebondi après sa contraction au lieu d’une multiplicité d’Univers. Cette théorie pourrait correspondre en fait à un Univers cyclique dont les caractéristiques varieraient à chaque cycle. Nous serions dans un « bon » cycle. Le problème est qu’aucune de ces deux théories n’est encore aboutie à l’heure actuelle et n’a débouché sur une prédiction observable. Pourtant il n’est pas exclu que la présence d’autres Univers ou d’un rebond ayant précédé le Big Bang puisse se traduire un jour par des observations. 167
Le principe anthropique
Une dernière interprétation, à mon avis la plus révolutionnaire et qui commence à monter en puissance, est celle de « l’émergence ». Elle remet en cause le raisonnement scientifique habituel, fondé sur le réductionnisme. L’émergence se caractérise par l’apparition de lois qui ne peuvent être déduites de principes physiques plus fondamentaux. Comme on a l’habitude de le dire : « L’ensemble fait plus que la somme de ses parties. » Les lois émergeraient lorsqu’un niveau de complexité est franchi, sans pouvoir être prédites à partir du niveau précédent. Ainsi les lois qui gouvernent la biologie ne sont pas réductibles à la chimie moléculaire, ni la chimie moléculaire à la physique. Mais où s’arrêter ? Certains pensent par exemple qu’une force aussi fondamentale que la gravitation serait elle aussi émergente. Allant encore plus loin, d’autres (et non des moindres) proposent de se poser la question d’un évolutionnisme en cosmologie comparable au néodarwinisme en biologie. DES DISPUTES FÉCONDES Évidemment tout cela donne l’impression d’une énorme cacophonie. Et l’on a beau jeu de crier haro sur la science qui se permet de dire n’importe quoi et son contraire, oubliant que c’est précisément parce qu’elle se cherche qu’elle emprunte de nombreux chemins, et que c’est une preuve de vitalité que de discuter et de chercher la faille dans la théorie du voisin. À mon avis, le principe anthropique mérite l’attention parce qu’il a montré sa vitalité en stimulant de nombreuses discussions, et qu’il pourra peut-être permettre un jour de discriminer entre différents modèles cosmologiques. Ce chapitre est en partie tiré de mon article dans la revue Science & pseudosciences.
168
Grandes controverses en astrophysique
LES FAUSSES CONTROVERSES
LES SCIENTIFIQUES QUI CRÉENT LA CONTROVERSE Certaines polémiques sont déclenchées par les scientifiques euxmêmes, parfois même par de très bons scientifiques. Après s’être consacrés à un sujet qu’ils ont réussi à faire progresser mais qui n’est pas aussi grandiose que la relativité générale, ils se retournent sur leur recherche et la jugent triste et indigne d’eux. Ils décident alors de se lancer dans un nouveau domaine et d’attaquer un grand sujet, parfois à la frontière de la philosophie et de la science, qu’ils s’imaginent être capables de révolutionner, bien que n’y ayant aucune expertise ! Combien j’en ai entendu, de ces phrases : « Les referees (rapporteurs) ne comprennent rien à ce que je fais. Ils empêchent les francs-tireurs comme moi de s’exprimer. » Mais non ! La science accepte les idées révolutionnaires à condition qu’elles ne soient en contradiction ni avec les lois physiques, ni avec les faits, et qu’elles les expliquent ! Elle n’a pas hésité à se remettre en cause profondément à plusieurs reprises au cours du siècle dernier. Comme disait l’astrophysicien et vulgarisateur américain Carl Sagan : « Pour de grandes découvertes, il faut de grandes preuves. » Et un grand astrophysicien britannique, Martin Rees (maintenant « Lord Rees »…), ajoutait : « Avant de chercher à expliquer un phénomène 169
Les fausses controverses
par des lois nouvelles, il faut avoir fait le tour de celles que l’on connaît. » Certains scientifiques présentent donc une vision biaisée de la science en oubliant volontairement de tenir compte des faits qui permettent d’établir une hiérarchie entre différentes théories. Ces scientifiques en mal de reconnaissance sont en général étrangers au domaine qu’ils abordent, mais ils séduisent par leur style souvent excellent et par leur profession de foi anti-orthodoxe. Cette tromperie est difficile à dénoncer, car il faut argumenter pied à pied pour en démonter le mécanisme. Ils parviennent à tromper un public instruit mais non scientifique, et même un public scientifique mais non spécialisé, en prétendant qu’il existe une « science officielle » dissimulant ses imperfections sous le manteau d’une Vérité majuscule dont elle serait seule détentrice. Ils sont mus apparemment par la plus grande honnêteté, et veulent montrer que les autres scientifiques mentent sciemment, soit pour cacher leurs carences et leur incompréhension des phénomènes, soit pour interdire à des idées alternatives d’émerger, alors que toutes devraient être mises au même niveau d’après eux. Cette attitude s’apparente à une théorie du complot et séduit jusqu’aux esprits les plus éclairés, d’autant que cette littérature est souvent enrobée de considérations historiques et philosophiques savantes et bien documentées. Le lecteur est conquis, il a l’impression d’avoir réussi à pénétrer dans les arcanes de la découverte, celles qui sont cachées volontairement par les scientifiques eux-mêmes. Et il est très difficile de démontrer l’imposture car elle est subtile, à moins de prendre le temps d’exposer les failles aussi bien sur le plan des détails (le diable est souvent dans les détails, comme on dit) que sur le plan général de l’éthique et de la démarche scientifique. Les exemples abondent dans l’étude du cosmos ou dans celle de la Vie, deux sujets qui interpellent le public à cause de leurs relations réelles ou supposées avec la métaphysique. Prenons comme exemple un livre qui a eu un grand succès, et je peux en témoigner puisque je connais plusieurs astronomes 170
Grandes controverses en astrophysique
Les fausses controverses
amateurs ayant une bonne formation scientifique qu’il a complètement conquis. C’est Le théorème du Jardin, de Christian Magnan67, dans lequel il affirme que « depuis une cinquantaine d’années, la science ne produit plus aucun savoir ». Il base ses propositions sur la cosmologie, qu’il connaît, ou qu’il croit connaître, car on peut douter qu’il ait lu depuis des décennies un seul des centaines d’articles sur lesquels se fondent les découvertes. Il dénonce l’amateurisme et l’absence de vérifications, affirme que les simulations numériques n’ont aucun sens parce que les utilisateurs de logiciels ignorent ce qu’il y a dedans, et que l’on cache au public l’incertitude sur les observations. Il dénie entre autres la moindre réalité aux observations de la matière noire* et de l’énergie sombre* (quoi qu’elles représentent) sans en donner la moindre démonstration. Or à l’heure actuelle en cosmologie, toutes les données sont décortiquées avec une rigueur et une précision incroyables, les simulations sont longuement analysées, y compris par ceux qui ont fabriqué les logiciels de calcul. Notre auteur prétend même que les cosmologistes « ont remis au goût du jour l’idée selon laquelle l’Univers aurait été fait pour l’homme ». Or, tout au contraire, la plupart d’entre eux se battent comme de beaux diables pour récuser cette idée, tout en constatant certaines coïncidences troublantes (mais pas celles que mentionne notre auteur) qu’ils cherchent à expliquer sans faire intervenir nécessairement une finalité (voir le chapitre sur le principe anthropique). Christian Magnan avec qui j’ai partagé un bureau à l’Institut d’Astrophysique pendant plusieurs années avait été dans sa jeunesse un jeune chercheur très précoce à qui l’on prédisait un brillant avenir. Il avait écrit alors plusieurs articles scientifiques importants. Puis il s’était mis à prôner des théories qui avaient dû être abandonnées devant les résultats d’observation. Il n’avait par conséquent pas grimpé les échelons comme le laissaient espérer ses débuts remarqués. Était-ce la cause de la haine qu’il vouait à toute la profession astronomique, ou bien y avait-il d’autres raisons, d’ordre personnel ? Il s’était 67. Décédé en 2018. 171
Les fausses controverses
alors tourné vers l’écriture qu’il avait très belle, et avait acquis une certaine notoriété dans le public pour ses idées non conventionnelles. Son cas n’est pas isolé, hélas ! LES FRÈRES BOGDANOV : UNE IMPOSTURE MÉDIATIQUE Logiquement, il ne devrait pas être question de cette affaire dans un livre « sérieux » sur les controverses scientifiques, car ces deux personnages ne sont pas des scientifiques, en tout cas pas des chercheurs comme ils veulent le faire croire. Mais comme la controverse a été fortement médiatisée, et que le public boit leurs paroles comme du petit-lait depuis trente ans, j’estime qu’il faut en parler. Les frères Bogdanov commencent par la science-fiction et y font d’ailleurs merveille à la télévision dans les années 1980. Après un certain nombre de romans, ils publient en 1991 un essai philosophico-scientifique, Dieu et la Science, avec le philosophe catholique Jean Guitton, best-seller où ils prétendent réconcilier la science et la religion. Le problème est que sur la jaquette de ce livre ils sont présentés comme « docteurs en astrophysique et en physique théorique », alors qu’ils ne le sont pas, ce que notent immédiatement quelques esprits chagrins. Il leur faut passer des thèses d’urgence. Qu’à cela ne tienne ! Ils se mettent en congé de télévision et de littérature et ils partent à la chasse au directeur de thèse. Ils contactent un certain nombre de chercheurs ou d’enseignants, en particulier dans mon département de l’Observatoire de Paris qui compte plusieurs personnes assez renommées pour leurs travaux en cosmologie et en relativité. Sans complexes et sûrs de leur génie, ils proposent de passer des thèses très rapidement sans avoir la préparation nécessaire, tel un Diplôme d’études approfondies (DEA) dans la discipline correspondante. Ils finissent par trouver à l’université de Bordeaux un directeur de thèse, qui d’ailleurs cède rapidement la place à un autre, de l’université de Bourgogne. Mais il est très difficile de devenir docteur en physique ou en mathématiques lorsque l’on a de ces disciplines des notions très approximatives. Car ce sont 172
Grandes controverses en astrophysique
Les fausses controverses
des « sciences exactes », elles ont un langage précis dont le flou est totalement proscrit. Par conséquent, ce travail leur prend beaucoup plus que les quelques mois qu’ils escomptaient, et même que les trois ans habituels pour une thèse scientifique : huit ans pour Grichka, onze ans pour Igor dont la thèse a même été ajournée la première fois, ce qui explique la longue interruption dans leur production littéraire et télévisuelle. Ils obtiennent d’ailleurs leurs thèses avec la plus mauvaise mention qui existe à cette époque, la mention « honorable » qu’on réserve aux personnes dont on ne pense pas qu’elles puissent devenir chercheurs par la suite. Personnellement je n’ai vu que très rarement décerner la mention « honorable » à une thèse (c’est la mention « très honorable » qui est courante, à laquelle il est parfois ajouté pour les thèses exceptionnelles – mais cela n’a plus de valeur officielle – « avec les félicitations du jury »), et je n’en ai jamais vue aucune être refusée à la soutenance, ou même être simplement « ajournée », comme celle d’Igor. Naturellement, les frères prétendent qu’on leur a donné ces « mauvaises » mentions par jalousie à cause de leur renommée… Quoi qu’il en soit, ils reviennent alors sur le devant de la scène en 2004 avec le livre Avant le Big Bang, dans lequel ils vulgarisent leurs thèses sur l’origine de l’Univers (rien de moins…). Dans le prologue, ils sont salués par Luc Ferry, philosophe et ministre de l’Éducation nationale, comme « les plus grands esprits de notre époque » ! Ils sont également embauchés par la télévision pour une émission scientifique de deux minutes tous les soirs. Ils y acquièrent le statut de grands vulgarisateurs scientifiques. Effectivement, ils sont très bons dans cette prestation courte, et paraît-il, ils créent des vocations chez les jeunes. Cependant je me demande si ces jeunes sont allés plus tard jusqu’au bout de leurs envies et s’ils sont devenus des scientifiques pour autant, car je n’ai jamais vu parmi les multiples forums consacrés aux Bogdanov le moindre témoignage à ce sujet. J’ai au contraire l’impression qu’ils sont admirés de façon inversement proportionnelle aux connaissances scientifiques de leurs auditeurs et lecteurs, 173
Les fausses controverses
et que l’on trouve parmi leurs groupies essentiellement des littéraires ou des philosophes. LA TEMPÊTE MÉDIATIQUE Elle se déclenche sur Internet après leurs thèses, suite à une annonce publiée dans le New York Time et dans plusieurs autres journaux étrangers à grande diffusion, annonçant un canular de la part de deux Français. L’un des membres de leur jury pose alors la question : « Igor et Grichka étaient-ils la cible des services secrets américains à cause de leur découverte ? Y avait-il quelque chose dans leurs travaux que certaines « agences » avaient intérêt à étouffer à jamais ? » On est carrément dans la théorie du complot ! Les Bogdanov se défendent en notant que leur article principal n’a jamais été retiré du journal Classical and Quantum Gravity. Or, à la suite de la réunion annuelle de son comité éditorial, le journal a répondu par un courrier électronique publié dans la revue Nature, annonçant que l’article des Bogdanov « avait été discuté en détail par le Comité, qui est tombé d’accord qu’il n’aurait pas dû être publié, car il n’atteint pas le niveau nécessaire attendu dans le journal ». Ils ajoutent que « malheureusement, en dépit de tous les efforts, le processus de referee68 ne peut être efficace à 100 % ». On a beaucoup glosé aussi sur les rapports fournis lors de leurs soutenances de thèse, car certains ont été publiés par les frères euxmêmes (en principe ils ne sont pas destinés à être rendus publics). Il faut savoir que ces rapports se lisent entre les lignes, en creux si l’on peut dire : ce qui n’est pas dit est aussi important que ce qui l’est. On y trouve des phrases bateau du type « L’auteur développe ici une thèse intéressante » et la conclusion est toujours « Il mérite de recevoir le titre de docteur ». Certains rapporteurs ont protesté contre l’utilisation qui a été faite de leurs rapports, disant 68. Ou « rapporteurs ». Ce problème des referee est souvent posé, car il est difficile d’en trouver qui soient à la fois compétents et indépendants : ou ce sont des amis de l’auteur, ou bien des ennemis qui ont des théories opposées… 174
Grandes controverses en astrophysique
Les fausses controverses
qu’ils ont été mal traduits et toujours dans un sens avantageux : « interesting » a été traduit par « important », « une construction [mathématique] ébauchée » est devenue « la première construction [mathématique] », etc. Après leur livre Avant le Big Bang, les Bogdanov publient une bonne douzaine d’autres livres sur des sujets très voisins, truffés de fautes (je peux en témoigner pour les avoir lus presque tous), chacun d’eux bénéficiant d’une publicité de star et faisant un tabac dans le public (mais aucun article scientifique, notons-le). Il faut dire que leur langage manie avec virtuosité le clinquant, le sensationnel et le mystère, et que leurs ouvrages donnent un vernis de connaissances qui enivre le lecteur ou l’auditeur. Et comme ces livres sont de formidables outils d’autopromotion, le public est persuadé qu’ils sont de très grands savants, mais que les scientifiques ordinaires ne le reconnaissent pas parce que leurs idées sont trop originales et complexes, à l’instar de la relativité générale. Comme ils le prétendent eux-mêmes « sans aucune forme d’orgueil » : « nous faisons partie de la même famille qu’Einstein, lui aussi a été très discuté à son époque,
Figure 11 | Le mythe des frères Bogdanov.
175
Les fausses controverses
parce qu’il avançait des idées nouvelles, à contre-courant. » Or justement, Einstein a été immédiatement reconnu et compris par les grands scientifiques de l’époque – Eddington, Friedmann, Lemaître, Schwarzschild, Langevin… – et c’est par le public qu’il ne l’a pas été, contrairement aux Bogdanov ! Par ailleurs, les frères se parent sur les quatrièmes de couverture de leurs livres de plusieurs titres ronflants totalement fictifs, comme directeurs du Laboratoire de cosmologie de l’université Megatrend de Belgrade, laboratoire qui n’existe pas, ou plutôt dont ils sont avec leur préfacier les trois seuls membres. Ils se disent professeurs dans cette université, honneur qu’ils ont partagé par exemple avec Mouhammar Kadhafi. Précisons qu’il s’agit d’une université privée payante spécialisée dans le management, ce qui n’a a priori pas grandchose à voir avec la cosmologie. Lors de la sortie de Avant le Big Bang, les Bogdanov se présentaient aussi comme membres de « l’Institut international de Physique Mathématiques », lié à l’université de Hong Kong. Il s’agit d’une association loi 1901 créée par Igor lui-même en 2004 quelques semaines avant la sortie du livre… Et ainsi les Bogdanov ont pu continuer à promouvoir pendant des années leurs spéculations débridées sous le couvert de la science la plus sérieuse, apparaissant comme des savants incompris, détestés par des scientifiques besogneux. Sur le plan médiatique, ils représentent l’un des aspects les plus alarmants du niveau dramatique où est tombée la diffusion des connaissances, en particulier à la télévision – et même à la télévision publique – où on leur demande de commenter les grandes découvertes, comme le boson de Higgs ou les résultats du satellite Planck. Les médias et le public n’ont jamais pris à ce point des vessies pour des lanternes, confondant les artisans de la science avec ceux qui la racontent, d’ailleurs de façon discutable. J’ai eu le triste privilège d’assister il y a quelques années à un procès qu’ils avaient intenté au CNRS pour avoir laissé fuiter en 2004 un rapport très défavorable sur leurs thèses, au journal Marianne pour l’avoir publié en 2010, et au journaliste Sylvestre Huet pour les avoir 176
Grandes controverses en astrophysique
Les fausses controverses
« diffamés » sur Internet. J’y figurais en tant que témoin de la défense, avec Édouard Brezin, qui avait été directeur du CNRS dans les années où les thèses des Bogdanov faisaient polémique. Moi-même j’avais été proposée comme témoin pour avoir écrit plusieurs articles dénonçant leur imposture dans le domaine de la vulgarisation scientifique, et avoir même donné des conférences à ce sujet. Ils étaient défendus par un journaliste connu, historien et spécialiste de géopolitique, Alexandre Adler, dont l’argument fut de répéter que c’étaient les nouveaux Einstein. Il était certainement bien placé pour en juger… Le résultat du procès fut défavorable à Sylvestre Huet, mais je ne sais pas quel résultat il eut pour Marianne et pour le CNRS. Un dernier mot pour comprendre le succès des Bogdanov. Il faut se rappeler qu’il est de plus en plus essentiel maintenant dans une société où la communication est devenue un atout indispensable, de savoir dire au moins autant que de savoir faire. Dans le cas des Bogdanov, le savoir-dire est parvenu à un tel degré de perfection qu’il a totalement submergé le savoir-faire. Là réside la clef de leur succès.
177
LES EXTRATERRESTRES : OÙ SONT-ILS ?
Je me suis demandé si je devais écrire un chapitre sur cette question, probablement la plus rebattue de la littérature scientificophilosophico-littéraire, alors que des dizaines d’ouvrages lui ont été consacrés, qu’elle occupe tout un pan du cinéma de fiction, et qu’elle réunit des sujets dont chacun serait digne d’un développement à lui seul : l’équation de Drake, le projet SETI, le paradoxe de Fermi, les Ovnis, le « Grand Filtre », les trous de ver, les sphères de Dyson, etc. D’autant que la question de la vie extraterrestre est abordée dans d’autres chapitres de façon périphérique (les canaux de Mars, la météorite martienne, le principe anthropique…). Mais d’un autre côté, ne pas parler de ce problème qui est considéré par le public comme faisant partie intégrante de l’astronomie, serait probablement regardé comme une dérobade. Donc allons-y, je vais tenter de le prendre à bras-le-corps ! Il faut rappeler d’abord que le débat sur la vie extraterrestre remonte à l’Antiquité et que les plus grands philosophes y ont participé. Épicure pensait que l’Univers contenait une infinité de mondes vivants « comme un champ de blé ne contient pas qu’un seul brin », tandis qu’Aristote et Platon affirmaient au contraire que la Terre étant au centre de l’Univers, le monde sublunaire seul est imparfait et possède des êtres vivants. 179
Les extraterrestres : où sont-ils ?
C’est l’attitude qui a prévalu pendant quinze siècles, sous l’impulsion de saint Augustin puis de saint Thomas d’Aquin, qui ne concevaient pas que le Christ fût mort pour d’autres mondes que le nôtre, ni que Dieu en eût créé d’autres identiques. On sait que Giordano Bruno est monté sur le bûcher pour avoir affirmé le contraire, soixante ans après que Copernic ait révélé que la Terre n’est pas au centre de l’Univers. Et c’est à partir de cette époque que se sont développées les idées sur « la pluralité des mondes habités », qui ont débouché sur la possibilité que les « extraterrestres » viennent nous visiter sur Terre. CES « OBJETS VOLANTS NON IDENTIFIÉS » Les cas les plus « simples » pourrait-on dire, sont ceux où l’on voit directement des extraterrestres ou leurs manifestations. Il s’agit des Ovnis, phénomènes que l’on peut faire remonter précisément au mardi 24 juin 1947. Ce jour-là, le pilote américain Kenneth Arnold survole le Nouveau-Mexique et aperçoit une formation de neuf « objets » qu’il décrit comme des « ailes volantes », arrondies à l’avant et triangulaires à l’arrière, avançant d’après lui à deux fois la vitesse du son (à l’époque, aucun avion n’a encore franchi le mur du son). Notons que l’estimation correcte à l’œil des distances et des vitesses dans le ciel est chose quasi impossible. Arnold ajoute qu’ils se déplacent « comme des disques ricochant sur l’eau ». C’est l’expression de « disques » et non celle d’ailes volantes qui va être retenue, et le terme de « flying saucers » ou « soucoupes volantes » est inventé ! Il va faire florès, et on va en voir bientôt partout aux États-Unis, puis dans le monde entier, en leur attribuant une origine extraterrestre. Pourtant il faut dire qu’on était au début de la guerre froide, et qu’Arnold lui-même affirmait avoir vu probablement des engins expérimentaux américains ou des espions soviétiques. S’impose alors le terme de Unidentified Flying Objtect ou UFO en anglais, traduit en français par Ovni pour « Objet volant non identifié ». Et en découle « l’ufologie », qui consiste à recueillir, analyser et interpréter toutes les observations de ces objets. 180
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
Quelques jours après la découverte d’Arnold, un fermier de Roswell au Nouveau-Mexique découvre des débris dans son pré. Bien qu’un major de l’Air Force déclare ce même jour qu’il s’agit des débris d’un ballon-sonde destiné à espionner les expériences nucléaires militaires soviétiques, de nombreux journaux publient immédiatement des articles sur « la soucoupe volante extraterrestre », et personne ne vient les réfuter par la suite. C’est le début de « l’affaire de Roswell », qui ressurgira régulièrement pendant 70 ans, et sur laquelle plusieurs livres ont été publiés, suggérant que le gouvernement avait volontairement dissimulé la récupération d’un Ovni. Mieux encore – ou pire ! – la théorie du crash de l’Ovni débouche sur l’idée que des cadavres d’extraterrestres auraient été cachés et autopsiés. Un film diffusé dans 27 pays « montre » même ces autopsies ! TF1 en fait une édition spéciale très regardée en 1995. Le présentateur star de l’époque annonce à des millions de télé spectateurs la « plus bouleversante découverte de tous les temps ». L’ennui est que, le 7 avril 2007, la Warner Bros sort un reportage, « L’histoire d’une fausse autopsie », révélant qu’un spécialiste connu des effets spéciaux avait créé douze ans auparavant des créatures en latex remplies d’organes de mouton qui avaient servi pour ce film… Et il ne faut pas croire que l’histoire se termine là. En 2012, un journaliste fanatique d’extraterrestres reçoit deux photos étranges qu’il s’empresse de qualifier de photos d’un cadavre d’extraterrestre lié à l’affaire de Roswell. L’histoire enflamme les esprits et culmine en 2015. Mais l’enquête destinée à étayer ses allégations débouche sur une conclusion indiscutable : il s’agit d’une photo prise dans le Meza Archeological Museum du Colorado, et l’inscription qui l’accompagne mentionne que c’est « la momie d’un enfant de deux ans enveloppé dans un linceul de coton ». Si j’ai décrit cette affaire en détail c’est qu’elle est représentative de nombreuses autres, qui, bien que complètement démontées, ont continué à alimenter pendant des décennies les délires ufologiques. Par exemple, beaucoup d’ufologues croient encore que des 181
Les extraterrestres : où sont-ils ?
« petits hommes gris » ont invité un couple d’Américains à visiter leur soucoupe volante en 1960, bien que jamais la moindre preuve n’en ait été apportée. Il faut dire que de telles nouvelles sont parfois lancées par des plaisantins ou des humoristes « anti-soucoupes » et qu’elles défraient immédiatement la chronique. Le problème est que ces farceurs se dénoncent en général tardivement, lorsque la mayonnaise a déjà pris et qu’on ne peut plus la faire retomber ! Pourquoi attendent-ils longtemps avant d’avouer leur « faute » ? La plupart déclarent avoir fait un canular seulement pour tromper leurs collègues ou leurs amis, et ils ne s’attendaient pas à le voir prendre immédiatement de l’ampleur. Après, il est trop tard… Dans la grande période des Ovnis des années 1950, on s’arracha de nombreux livres sur les rencontres du premier, du deuxième ou même du troisième type. Je mentionne dans le chapitre sur les canaux martiens, les rencontres avec un beau Vénusien relatées dans plusieurs ouvrages d’un écrivain américain, Adamski, car on ignorait encore à l’époque qu’il faisait un peu chaud sur Vénus. Ces livres rapportèrent une véritable fortune à leur auteur. Pour mettre un peu d’ordre dans toutes ces histoires, le GEPAN (Groupe d’étude des phénomènes aérospatiaux non identifiés) fut créé en 1977 au sein du CNES (Centre national d’études spatiales). Il était chargé « d’élaborer des méthodes d’analyse scientifiques et de diffuser leurs résultats », avec si possible une explication des observations. Il a survécu à travers divers avatars pendant une quarantaine d’années. Collaborant avec la gendarmerie et de nombreux enquêteurs bénévoles, et avec des experts scientifiques également bénévoles (météo, photos, psychologie…), il a accumulé une somme colossale d’archives représentant plus de 100 000 pages numérisées qu’il a mises en 2015 à la disposition du public sur Internet après les avoir rendues anonymes. J’en conseille la lecture aux amateurs d’histoires insolites… L’analyse de ce matériel montre qu’environ 35 % des cas sont inexploitables par manque de données, et 60 % sont expliqués par 182
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
des méprises ou des erreurs de perception, ou même par les fameux canulars. On peut souvent interpréter les observations comme des phénomènes météorologiques ou astronomiques (de simples planètes comme Vénus ont été prises pour des ovnis), ou tout simplement dus à des engins humains (satellites artificiels, hélicoptères, avions, ballons…). Les lanternes thaïlandaises, sortes de petites montgolfières lancées à la fin d’un mariage ou d’une fête familiale, forment des grappes lumineuses se déplaçant mollement au gré des vents, qui sont couramment prises pour des ovnis. L’impression souvent mentionnée d’une très grande vitesse peut être due à des phénomènes de réflexion, ou à des images « fantômes » dans le ciel, liées par exemple à une inversion de température, images qui peuvent apparaître ou disparaître instantanément. De plus, il est bien connu que nos sens nous trompent facilement. On sait par exemple que l’estimation des vitesses, des distances et des tailles, est loin d’être fiable. De nombreuses personnes sont persuadées que la Lune est beaucoup plus grosse lorsqu’elle est près de l’horizon, alors que le changement de taille produit par la réfraction est très faible et à peine visible à l’œil (il tend d’ailleurs à la rétrécir et seulement dans le sens vertical). Il s’agit d’une illusion due au fait qu’on peut alors comparer la taille de la Lune à celle d’objets bien connus comme des arbres ou des collines. Certains amis m’ont soutenu la chose mordicus, et n’ont été convaincus que lorsque nous avons fait des mesures au compas ou même au sextant ! Si on sait compter, on voit qu’il reste cependant quelques pourcents de phénomènes réellement inexpliqués, ce qui est en fait énorme, puisqu’un seul cas avéré d’extraterrestres entraînerait à lui seul une révolution sur tous les plans, philosophique, scientifique, technique, sociologique, etc. Pour le moment, il faut se contenter de penser qu’avec les progrès des connaissances et la sophistication accrue des observations, on finira par comprendre un jour tous les cas. Par ailleurs, une idée qui gagne du terrain avec le développement des neurosciences est que ces observations sont liées à des 183
Les extraterrestres : où sont-ils ?
processus psychologiques, comme la reconstruction des souvenirs. Naturellement, il est difficile de faire admettre à quelqu’un qu’il n’a pas vécu un événement dont il se souvient parfaitement, et je crois que moi-même j’aurais du mal à l’admettre. C’est une cause de disputes mémorables qui peuvent détruire des amitiés et même démolir des familles. Combien d’ennemis me suis-je fait en proposant cette explication pour un phénomène céleste bizarre ! Car il est délicat de répondre que vous ne croyez pas à ce « que j’ai vu de mes propres yeux », quand ce n’est pas « des propres yeux des enfants de mes voisins ». Parlons aussi des Crops. « Crop » signifie « récolte » en anglais. Ce sont d’immenses dessins dans des champs de céréales, souvent à base de cercles, qui apparaissent au petit matin. Les premières fois, ils se produisirent au cours des années 1970 dans le Sud de l’Angleterre, près de sites néolithiques comme Stonehenge. Puis ils s’étendirent à l’Europe et au monde entier. Comme ils sont surtout visibles du ciel, on les attribua immédiatement à des extraterrestres. Et naturellement, de nombreux livres fleurirent sur le sujet. Mais en 1991, deux paysagistes retraités confessèrent qu’ils étaient les auteurs des premiers dessins en question : ils désiraient simplement créer des œuvres nouvelles et originales, et ils en révélèrent les secrets de fabrication. Cependant, beaucoup d’amateurs de complots continuent à croire qu’ils ont été faits par des extraterrestres ; j’en ai dans ma propre famille. De plus, les paysans victimes des « crop makers » ne tiennent pas du tout à ce que l’astuce soit révélée, car certains font payer des droits d’entrée dans leur champ ! Bref pour les Ovnis ou les Crops, comme pour l’astrologie, mieux vaut ne pas s’engager dans une discussion à moins d’avoir des heures devant soi, et des interlocuteurs ouverts à des arguments rationnels… À moins que vous n’éprouviez un besoin irrépressible d’étriper quelqu’un ou d’être vous-même étripé !
184
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
UNE ÉQUATION ULTRA-CÉLÈBRE, MAIS QUI NE SERT PAS À GRAND-CHOSE Un grand savant qui ne croyait certainement pas aux Ovnis, Enrico Fermi, a posé en 1950 lors d’un dîner avec des copains à Los Alamos sa fameuse question « mais où sont-ils ? ». Enfin, plus exactement, plusieurs scientifiques l’ont posée 25 ans plus tard, créant ce qui a été appelé « le paradoxe de Fermi », comme le grand vulgarisateur Carl Sagan, ou Michael Hart dans un livre publié en 1982. Peu de gens s’accordent sur ce qui a été réellement dit pendant ce fameux dîner. Il n’est pas nécessaire d’expliquer ce que signifie cette question, elle est suffisamment claire dans sa concision. L’hypothèse la plus naturelle, dans la ligne du principe copernicien, est en effet que nous ne sommes pas uniques dans l’Univers et même dans la Voie lactée en tant que civilisation technologiquement avancée. Il devrait même en exister de plus avancées que nous, pour lesquelles un voyage interstellaire est une broutille. Si nous ne les voyons pas, cela signifie que les extraterrestres n’aiment pas les voyages interstellaires, ou que s’ils nous rendent visite, ils s’arrangent pour que nous ne les détections pas. Mais il est peut-être possible que nous soyons seuls, ou à peu près seuls. Pour évaluer le nombre de civilisations extraterrestres, nous allons nous tourner vers l’équation de Frank Drake. On commençait à penser à la fin des années 1950 qu’un moyen de communiquer avec les extraterrestres était d’utiliser la fameuse raie à 21 cm* de l’hydrogène, largement répandue dans l’Univers. L’idée fut reprise par Frank Drake, jeune astronome qui venait d’être engagé au radiotélescope* de Green Bank aux États-Unis. Il tenta sans succès d’utiliser ce radiotélescope pour « écouter à 21 cm » deux étoiles proches. Puis lors d’une réunion en 1961, Drake proposa une équation qui deviendra ultra-célèbre, pour paramétrer la question de la communication interstellaire : N = R* × fp × ne × fl × fi × fc × L, où N est le nombre de civilisations communicantes dans la Voie 185
Les extraterrestres : où sont-ils ?
lactée, R* le taux de formation d’étoiles par an dans la galaxie, fp la fraction de ces étoiles comprenant un système planétaire, ne le nombre moyen de planètes par système planétaire où la vie peut se développer, fl la fraction de ces planètes sur lesquelles la vie s’est effectivement développée, fi la fraction où la vie a évolué vers une vie intelligente, fc la fraction qui a donné naissance à une civilisation capable de communiquer, et L la durée de vie moyenne d’une telle civilisation. On peut constater que seuls les trois premiers paramètres sont d’ordre astrophysique, les suivants étant biologiques. À l’époque, on ne connaissait encore rien sur les trois premiers, ni a fortiori sur les suivants, mais Drake conclut qu’il devait exister entre 1 000 et 10 000 civilisations dans la Voie lactée en mesure de communiquer. Plusieurs décennies après, nous avons considérablement progressé sur les trois premiers facteurs en particulier grâce à la découverte des « planètes extrasolaires ». Nous savons que R* est voisin de quelques étoiles par an, que probablement chaque étoile possède un système planétaire, et nous commençons à évaluer la proportion de planètes qui se trouvent dans une zone « habitable », c’est‑à-dire là où il y a, ou bien il y a eu, de l’eau sous forme liquide. En effet, nous pensons que c’est une condition sine qua non à la naissance de la vie. C’est faux, répondent certains, car c’est un raisonnement étroit limité par notre anthropocentrisme. Quant aux autres paramètres, les biologistes évaluent leurs valeurs entre zéro et un, ce qui laisse beaucoup de marge… Bref, en dépit de centaines d’ouvrages scientifiques, philosophiques, sociologiques, religieux, et surtout de science-fiction, qui ont été publiés sur le sujet, le débat est loin d’être clos. Je le reprends un peu plus loin. Dans les années 1960, on avait aussi placé des messages pour d’éventuels extraterrestres dans les sondes envoyées dans l’espace. Ces messages ne parviendront à leurs destinataires que dans des milliers ou des centaines de milliers d’années. Homo sapiens aura certainement disparu d’ici là, et sera peut-être remplacé par une race 186
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
d’hommes-cyborgs qui auront moins en commun avec nous que nous n’en avons avec les grands singes. Cela ne nous intéresse pas, car nous voulons communiquer tout de suite ou presque ! Mais alors, pensent ceux que taraude cette question, la meilleure solution n’est-elle pas de continuer comme l’a fait Drake à écouter attentivement les signaux venus de l’espace, qui traduiraient l’existence de civilisations techniquement évoluées ? Et c’est ainsi que naît le projet SETI. LE PROJET SETI Ce projet, acronyme de Search for Extra Terrestrial Intelligence, est maintenant connu du monde entier, mais au départ, il s’écrivait « CETI », pour Communication with Extra Terrestrial Intelligence. La nuance est intéressante… Ce sont les Soviétiques, sous l’impulsion du radioastronome Nicolaï Kardashev69, qui amorcent la pompe en réalisant dès le début des années 1960 des observations de grandes régions du ciel dans la raie à 21 cm de l’hydrogène. Puis Kardashev organise en 1964 en Arménie une conférence internationale pour discuter du projet « CETI », où ont été conviés les principaux intéressés. Il y expose sa vision de trois types de civilisations extraterrestres : celle de type I est capable d’accéder à l’intégralité de l’énergie de sa planète, celle de type II sait utiliser toute l’énergie de son étoile, quant à celle de type III, elle est capable de capter la totalité de l’énergie de sa galaxie. Inutile de dire que cette classification a suscité beaucoup de discussions et de controverses… qui ne sont pas terminées. SETI voit donc le jour initialement comme une entreprise de recherche par radiotélescope de signaux inexplicables dans un cadre purement astrophysique. Cette recherche a été étendue depuis aux « technosignatures non intentionnelles », par exemple des gaz industriels. 69. Bien qu’il soit connu surtout pour ses idées sur les extraterrestres, Kardashev a fait des travaux remarquables sur la matière interstellaire. 187
Les extraterrestres : où sont-ils ?
Les États-Unis entrent dans le jeu une décennie plus tard avec deux projets, l’un de recherche ciblée sur certaines étoiles, l’autre pour observer tout le ciel. SETI reste pendant encore dix ans sur le papier, avant le moindre commencement d’exécution, car il se heurte alors à l’opposition violente d’un sénateur qui en a assez d’entendre parler des petits hommes verts et qui réussit à convaincre le congrès d’en refuser le financement. Heureusement les mécènes répondent toujours présents aux États-Unis pour remplacer l’État lorsqu’il est déficient, et le projet redémarre finalement dans les années 1990. Des projets similaires voient le jour en Europe et en France. Les radioastronomes français Jean Heidmann et François Biraud s’impliquent fortement dans SETI : Heidmann se dépense pour faire progresser la discussion autour de la vie dans l’Univers, et Biraud entreprend à Nançay une écoute de quatre systèmes exoplanétaires. Les choses changent en effet considérablement à partir de la découverte des exoplanètes* en 1995, car désormais on sait qu’elles existent réellement et qu’elles sont au moins aussi nombreuses que les étoiles dans la Voie lactée. Sautons donc à pieds joints sur vingt années de recherche pour en arriver à l’époque actuelle. SETI subit actuellement un grand regain d’intérêt, et a vu se rallier celui qui était considéré comme l’une des plus grandes intelligences scientifiques de notre temps, Stephen Hawking. Des projets qui s’appellent tous « breakthrough-quelquechose »70 ont donc vu le jour, soutenus par Hawking avant sa mort, et financés par le milliardaire russe Yuri Milner. Breakthrough Starshot est un projet de système de propulsion par laser d’une voile solaire permettant d’envoyer vers l’étoile la plus proche, Proxima Centauri, des micro-sondes à 20 % de la vitesse de la lumière, ce qui réduirait le voyage à quelques dizaines d’années (on retrouvera plus loin l’un de ses promoteurs, Avi Loeb). Breakthrough Listen utilisera l’Observatoire VERITAS en Arizona pour détecter des flashs lumineux très courts, de l’ordre du milliardième de seconde, qu’une 70. Breakthrough = découverte capitale. 188
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
civilisation extraterrestre pourrait choisir pour communiquer. Il existe également Breakthrough Initiatives, Breakthrough Watch, Breakthrough Message… Mais l’idée à mon avis la plus intéressante, et certainement la moins onéreuse, a débuté en 1999. C’est SETI@home, l’un des plus grands projets de science citoyenne. L’objectif est la recherche de signaux en utilisant la puissance de centaines de milliers d’ordinateurs personnels de volontaires à travers le monde. Ce projet a généré nombre de pétabits de données optiques et radio, rendues accessibles au public (1 pétabit = 1 million de milliards de bits). Ces données concernent différents thèmes scientifiques, comme les prédictions climatiques ou la formation des protéines. Alors me direz-vous, on a dû découvrir nombre de signaux venant d’extraterrestres avec cette panoplie d’instruments ? Et bien non, malheureusement, sur le sujet principal du projet, rien n’a encore été découvert… En fait, lorsque je dis que l’on n’a rien trouvé, c’est faux, car un jeune astronome bénévole a détecté dans la nuit du 15 au 16 août 1977, au radiotélescope de l’université d’Ohio engagé dans SETI, un signal en provenance de la constellation du Sagittaire. C’est un énorme pic dans le bruit de fond, qui a duré 72 secondes, émis sur une étroite bande de fréquences très proche de la raie à 21 cm de l’hydrogène. On l’appelle « Wow », comme la remarque qu’il a inscrite en rouge sur l’enregistrement papier. Le signal Wow ne s’est jamais répété et n’a toujours pas été identifié, y compris dans l’hypothèse d’une source naturelle (passage de comètes) ou d’une source artificielle. Saurons-nous un jour ce qu’il était ? MAIS ALORS, OÙ SONT-ILS ? Reprenons la discussion que nous avons laissée de côté concernant cette question. Considérons d’abord une réponse simple : si nous ne voyons pas d’extraterrestres, c’est parce que nous sommes seuls. Pourquoi alors, 189
Les extraterrestres : où sont-ils ?
compte tenu de l’énorme nombre de planètes potentiellement habitables dont beaucoup sont plus vieilles que le Soleil, aucune n’aurait développé une vie intelligente ? C’est à cause du Grand Filtre. Le Grand Filtre serait essentiellement biologique, démontré par l’impossibilité de reproduire la vie en laboratoire, et par les centaines de millions d’années qu’il a fallu pour y parvenir sur Terre (il faut dire que les conditions devaient être pénibles !). Il peut aussi être dû à la difficulté de passer du règne des procaryotes aux noyaux des cellules (deux milliards d’années). On imagine alors que le Grand Filtre se situerait tôt dans le temps, et qu’il serait « derrière nous ». Peut-être serions-nous la première espèce à l’avoir traversé. Mais il pourrait aussi être devant, sous la forme de cataclysmes comme une supernova* explosant tout à côté de nous et nous enveloppant de rayons cosmiques. Et ce serait alors dramatique, car cela signifierait qu’il empêchera la Vie sur Terre d’évoluer jusqu’au type II ou même III de Kardashev, restreignant notre civilisation à nos pauvres cerveaux bornés, incapables de pomper l’énergie de toute notre étoile ou de toute notre Galaxie, et incapables d’entreprendre des voyages interstellaires lointains. Il en serait probablement de même pour toutes les autres civilisations, puisqu’elles subiraient à un moment ou à un autre le même sort. C’est ce qui a conduit un philosophe anglais, Nick Bostrom, à écrire qu’il souhaitait que l’on ne découvre aucune trace de vie sur Mars ou sur des satellites de Jupiter ou Saturne, car « no news is good news » ! Mais d’autres préfèrent une autre réponse : il n’y a pas de Grand Filtre, les civilisations intelligentes existent, elles sont partout dans la Voie lactée, cependant elles préfèrent ne pas nous rencontrer mais elles nous étudient, ou nous ne les intéressons pas (c’est vexant !), ou alors elles n’ont aucune envie de se déplacer car elles sont très bien dans leur Système planétaire, ou enfin elles sont ici mais nous sommes trop bêtes pour les voir (aie-aie-aie, ce sont peut-être les Ovnis !). Bref il y a pléthore d’explications pour cette deuxième réponse. Le débat n’est donc pas près d’être clos. 190
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
Figure 12 | Les extraterrestres : où sont-ils donc ?
Il serait possible de continuer cet exposé en abordant des dizaines d’autres problèmes liés aux extraterrestres, mais il faut bien arrêter quelque part. Résumons la situation. En ce qui concerne les valeurs des facteurs dans l’équation de Drake, elles fluctuent au gré des utilisateurs, pessimistes ou optimistes, et en suivant les nouvelles observations. Quant à SETI, il est peu probable qu’une recherche au hasard nous apporte des réponses dans un avenir proche. Ne vaut-il pas mieux alors, pour trouver de la vie extraterrestre, continuer à chercher le plus de planètes extrasolaires possibles, à déterminer leurs caractéristiques et à détecter les molécules qui s’y trouvent ? Puis envoyer vers les plus proches qui sont potentiellement « habitables » des sondes munies d’appareils de mesure, lorsque nous aurons les moyens de les faire voyager rapidement (ce qui peut prendre plusieurs siècles !) ? Il est impossible cependant de terminer ce chapitre sans mentionner un nom qui a fait les beaux jours des médias pendant que j’écrivais ce livre : ‘oumuamua. 191
Les extraterrestres : où sont-ils ?
‘Oumuamua, dont le nom hawaïen signifie « messager venu de loin », est un objet interstellaire qui s’est approché du Soleil en octobre 2017 jusqu’au quart de la distance Terre-Soleil, puis s’en est éloigné pour ne plus revenir. Sa forme, déduite de ses variations d’éclairement, est allongée ou bien au contraire aplatie (en forme de soucoupe !!). Tout le monde l’imagine en fait tel qu’il a été représenté par un artiste inspiré, une sorte de cigare qui fait irrémédiablement penser à un vaisseau spatial. Il est clair que l’objet provient de l’extérieur du Système solaire car sa trajectoire (hyperbolique) exclut l’hypothèse d’une orbite périodique. Sa forme est certes intrigante, mais on connaît des astéroïdes ou comètes aux formes étranges (rappelons-nous la sonde Rosetta partie à la rencontre de la comète Tchourioumov, laquelle ressemble à une sorte de haricot !) Ce qui est plus intrigant, c’est que ‘Oumuamua a subi un excès d’accélération en passant près du Soleil, comme le ferait une comète dont la queue serait poussée par la lumière solaire. Mais on ne voit pas de queue cométaire sur ‘Oumuamua. Et malheureusement l’objet s’est éclipsé trop rapidement pour qu’on ait eu le temps de l’observer correctement. Un astrophysicien connu, Avi Loeb, directeur de l’Observatoire de Harvard jusqu’en 2020 (je précise cela pour montrer que ce n’est pas n’importe qui !) vient de publier un livre où il fait l’hypothèse que ‘Oumuamua serait une sonde envoyée par des extraterrestres. Elle possèderait une voile solaire invisible très ténue qui lui aurait permis d’être poussée par le Soleil. Loeb lui-même, comme par hasard, s’intéresse depuis longtemps à la vie extraterrestre et a proposé avant la découverte de ‘Oumuamua ce système de propulsion pour des vaisseaux extraterrestres. On aura peut-être la réponse si une sonde ultra-rapide est envoyée par la NASA dans quelques dizaines d’années, rattrape ‘Oumuamua, et en prend des photos. Ce qui laisse donc encore pas mal de temps pour spéculer sur ces extraterrestres… D’ici là, on prévoit que plusieurs autres objets extrasolaires seront découverts avec l’augmentation des 192
Grandes controverses en astrophysique
Les extraterrestres : où sont-ils ?
performances des détecteurs (d’ailleurs au moins un autre est déjà venu se promener près de nous en 2019). Et on aura le temps de les étudier plus en détail. Si ‘Oumuamua est un objet artificiel envoyé par une civilisation extraterrestre, il doit en tout cas avoir été abandonné par ses habitants, ou ceux-ci sont morts, puisqu’on n’a détecté aucune émission provenant du « vaisseau », bien que de puissants radiotélescopes aient été pointés sur lui. À moins qu’ils aient éteint leurs ordinateurs et leur télévision ! En tout cas, comme dit Loeb « Si j’ai raison c’est la plus grande découverte de l’humanité ». En conclusion, ne peut-on dire que, quel que soit le cas de figure, que l’on soit seul dans l’Univers ou qu’il contienne de nombreuses autres civilisations avancées, nous vivons une aventure fabuleuse.
193
APPENDICE
REMARQUES SUR LE DÉVELOPPEMENT DE L’ASTROPHYSIQUE EN FRANCE Curieusement, l’astrophysique a eu du mal à s’imposer en France. Jules Janssen introduisit bien à la fin du xixe siècle l’étude du Soleil, qui prit toute son ampleur avec Bernard Lyot dans la première moitié du xxe siècle71. Mais on peut dire que cette ampleur fut démesurée, puisque les efforts des astrophysiciens français se concentrèrent pendant longtemps sur ce sujet, négligeant les domaines qui naissaient dans les autres nations, comme la physique stellaire, l’étude des galaxies et la cosmologie. Il y eut bien quelques avancées observationnelles importantes avant la deuxième guerre mondiale, comme le spectrohéliographe* de Deslandres, la détermination de la température des étoiles par Nordmann, l’utilisation de l’interféromètre* de Pérot-Fabry pour l’étude des mouvements dans les nébuleuses, la découverte par Jules Baillaud de la discontinuité de Balmer* dans les étoiles chaudes. C’est de là qu’est partie la classification des étoiles de Daniel Barbier, Daniel Chalonge et Lucienne Divan commencée dans les années 1930 (la classification 71. Ce serait aussi lui qui aurait détecté l’hélium dans le spectre solaire, mais cette découverte est controversée. 195
Appendice
BCD) qui, bien que prolongée presque jusqu’à la fin du xxe siècle, ne survécut pas à la classification des Américains bien plus facile à utiliser. Et ce fut seulement à partir des années 1950 avec Evry Schatzman et la physique stellaire, et avec Jean-Claude Pecker et la théorie des atmosphères stellaires, que l’astrophysique théorique française vit le jour72. L’astrophysique théorique fut donc précédée péniblement par l’astrophysique observationnelle. Évidemment, il n’y avait en France rien de comparable au télescope Hale de cinq mètres de diamètre du mont Palomar mis en service en 1948, mais il existait tout de même de bons sites comme l’Observatoire du Pic du Midi (avec l’une des meilleures qualités d’images au monde) et l’Observatoire de HauteProvence, et dès le début du xxe siècle de bons instruments comme la grande lunette de Meudon, puis le télescope de 1,93 mètre mis en service en 1958, plus quelques petits observatoires dédiés à des études spécifiques, comme la station du Jungfraujoch en Suisse qui fut consacrée à la classification BCD. C’étaient les récepteurs qui manquaient, limités pendant longtemps à la photographie, moins quantitative et moins fiable que les photomultiplicateurs qui se développèrent surtout aux États-Unis à partir des années 1950. Il y eut bien la célèbre caméra électronique d’André Lallemand dont la fabrication débuta en 1936 à l’Observatoire de Paris et qui ne cessa jamais d’être améliorée jusque dans les années 1980, mobilisant un bâtiment entier de l’Observatoire et beaucoup de monde. Mais sur le plan scientifique, qu’en a-t-on tiré ? À ma connaissance, seulement deux « premières » : en 1954, installée au foyer du télescope de 3 mètres de Lick, elle permit à l’astronome américain Gerard Walker de mesurer la rotation du noyau de la galaxie d’Andromède, et en 1974 au Français Gérard Wlérick de démontrer qu’un quasar* (il est plusieurs fois question des quasars dans ce livre) se trouve bien au centre d’une galaxie. Certes, la caméra électronique était une idée magnifique, et elle aurait pu être 72. On peut mentionner aussi la première tentative théorique par Vladimir Kourganof d’introduire la théorie du transfert du rayonnement. 196
Grandes controverses en astrophysique
Appendice
un précurseur à l’ère suivante73, si elle n’avait pas été une véritable usine à gaz très difficile à utiliser, malgré les efforts considérables développés pour la rendre plus maniable. Heureusement, quand arrivèrent sur le marché les premiers CCD* (Charge Coupled Devices) ces petits instruments que l’on trouve maintenant dans n’importe quel appareil photographique ou smartphone, les Français surent en prendre le virage. L’équipe de Lallemand a certes également fourni à de nombreux observatoires des centaines de photomultiplicateurs, mais ceux-ci ont été commercialisés ailleurs, en particulier au Japon. Ce problème typiquement français – une trop grande ambition des projets, consistant à chercher la perfection au détriment de la vitesse et de la simplicité – a été pendant longtemps la plaie de l’astrophysique observationnelle française. C’est d’ailleurs bien ce qui a tué la classification BCD, très précise mais trop longue à mettre en œuvre, car utilisant encore la photographie à une époque où les systèmes photoélectriques l’avaient largement supplantée dans les autres pays74. Un autre problème était qu’on rassemblait souvent un grand nombre de données sans but défini, en pensant sans doute qu’ils finiraient par être utiles dans l’avenir (ce qui s’est effectivement produit de rares fois). J’ai entendu un jour une journaliste scientifique, disparue depuis, parler à propos de l’astronomie française de « l’accumulation hystérique de données ». L’expression n’était pas très élégante, mais elle était applicable à certaines démarches. À cet égard, un exemple emblématique fut celui de l’amiral Ernest Mouchez, directeur de l’Observatoire de Paris à partir de 1878, pour avoir entre autres bien défendu le port du Havre pendant la guerre 73. Dans « Histoire et patrimoine », il est écrit sur le site de l’Observatoire de Paris que « la Caméra a marqué un véritable tournant dans l’histoire de l’astronomie ; c’est le tout premier détecteur astronomique utilisant l’effet photoélectrique et par ce fait le précurseur des détecteurs modernes. » Or des cellules photoélectriques étaient apparues dès 1910 en Allemagne et aux États-Unis. 74. D’ailleurs elle ne marchait bien que pour les étoiles chaudes, puisqu’elle utilisait surtout la partie bleue du spectre. 197
Appendice
de 1870 (j’exagère, il avait tout de même quelques connaissances en astronomie, ayant organisé l’observation du passage de Vénus devant le Soleil en décembre 187475, et il avait fondé une école pour apprendre l’astronomie aux marins). Il lança l’idée de la création d’une carte photographique couvrant tout le ciel par zones de 2 × 2 degrés, et, comme c’était un travail gigantesque, il proposa de le faire réaliser par plusieurs observatoires français et étrangers. Il devait être très convaincant (peut-être l’habitude d’emmener les bataillons à la guerre…) car, au cours d’une réunion à Paris, de nombreux directeurs d’observatoires s’entendirent pour choisir les stations d’observations et uniformiser leurs méthodes. Le ciel fut divisé en 18 zones à peu près égales, dont chacune fut attribuée à un observatoire. On créa dans chaque observatoire des « équipes de la Carte du ciel » pour mesurer les coordonnées des étoiles76. Comme on s’en doute, c’était une tâche à la fois précise et très fastidieuse, qui naturellement fut confiée à des équipes féminines, les seules qui acceptaient de pareilles conditions de travail. L’entreprise de la Carte du ciel dura des dizaines d’années, beaucoup plus longtemps que prévu, car on avait largement sous-estimé l’ampleur de la tâche. Elle ne fut jamais terminée, de nouvelles techniques astronomiques plus modernes et plus efficaces ayant été mises au point entre-temps. Le projet fut officiellement abandonné en 1974, presque un siècle après ses débuts ! Le grand œuvre de l’amiral Mouchez fut donc une débâcle, et il jugula toute créativité pendant des décennies dans plusieurs observatoires. 75. Un « transit » de Vénus se produit lors du passage de la planète Vénus entre la Terre et le Soleil : Vénus apparaît de la Terre comme un petit disque noir se déplaçant devant le Soleil. La durée de tels transits est en général de quelques heures. C’est un phénomène rare qui permet de déterminer la distance entre la Terre et le Soleil. Les transits se répètent suivant une séquence de 243 ans avec une paire de transits séparés de 8 ans suivis d’un intervalle de 121,5 ans, puis une autre paire de transits séparés de 8 ans et un intervalle de 105,5 ans. 76. Il fallait d’abord observer sur le ciel une douzaine d’étoiles qui serviraient de repère sur chaque plaque photographique, en mesurant à l’aide d’une lunette méridienne le moment où elles passaient au méridien et leur hauteur au-dessus de l’horizon à cet instant. Ensuite il fallait mesurer sur chaque cliché les positions relatives d’un millier d’étoiles par rapport à ces étoiles-repères (22 000 clichés étaient prévus !). 198
Grandes controverses en astrophysique
Appendice
Lorsque j’arrivai à l’Institut d’Astrophysique de Paris77 en 1960, il existait encore à l’Observatoire de Paris une « équipe de la Carte du ciel » d’une dizaine de personnes qui furent peu à peu distribuées dans d’autres services, où elles occupèrent des postes de secrétaires, d’administratrices ou de techniciennes. Au même moment à la fin du xixe siècle aux États-Unis, Edward Pickering organisait à l’Observatoire de Harvard une équipe de travailleuses féminines (le « harem Pickering », dont il est question à plusieurs reprises) qui mena à bien la difficile tâche d’établir une classification stellaire : elle est encore valable aujourd’hui. Et l’une de ces travailleuses y découvrit la loi qui permit à Hubble de déterminer les distances des galaxies… Les astronomes d’Harvard et de sa station d’Arequipa ont ainsi réalisé une cartographie partielle du ciel terminée en 1903, certes un peu moins profonde que la Carte du Ciel, mais aussi précise et immédiatement utilisable. Je dois avouer que j’ai souffert du même syndrome. Avec quelques collègues, nous avons travaillé pendant plusieurs années à constituer un catalogue de galaxies particulières qui devait nous servir pour des études statistiques. Ce catalogue est devenu obsolète avant que nous ayons pu l’utiliser, dès qu’ont été publiés les résultats d’observations de grands ensembles d’objets mesurés d’une façon parfaitement homogène. Telle est la recherche qui progresse sans cesse mais rend désuet ce qui a été accompli à grand-peine dans le passé. Un autre problème fut pendant longtemps la dispersion des efforts, consistant à développer les mêmes instruments de façon totalement indépendante dans plusieurs équipes (le domaine infrarouge en fut un exemple). Chaque directeur d’observatoire jouait ainsi pendant des 77. L’Institut d’Astrophysique de Paris (IAP) est un institut propre du CNRS (Centre national de la recherche scientifique) créé par le ministre de l’Éducation nationale Jean Zay en 1936 contre l’opinion du directeur de l’Observatoire de Paris (mais sa construction commença seulement en 1946), en vue de procéder au traitement des données recueillies par l’Observatoire de Haute-Provence créé à la même époque. L’IAP est situé sur le boulevard Arago, et a été implanté sur une partie du terrain de l’Observatoire, ce qui explique peut-être qu’une certaine inimitié règne entre les deux institutions… 199
Appendice
dizaines d’années sa partition personnelle à la façon de propriétaires dans leur pré carré. Et ce n’est qu’après les réformes consécutives à Mai 1968 que ce problème fut réglé : toute la profession fut transformée dans la foulée de la loi d’orientation d’Edgar Faure, et les directeurs à vie furent remplacés par des directeurs élus pouvant cumuler seulement deux ou trois mandats, tandis que les programmes étaient examinés par des instances démocratiques et un institut national pilotant les recherches en astronomie et en géophysique fut créé. Je m’aperçois qu’en définitive j’ai été très sévère, et j’ai l’air de penser qu’il n’y avait que du négatif dans les débuts de l’astrophysique française. J’ai dit que nous avions démarré trop tard et que nous avions continué trop longtemps, que nous avions été trop conservateurs. Je ne veux pas dire qu’il n’y avait pas en France d’astrophysiciens entreprenants et imaginatifs, mais ils eurent parfois de grosses difficultés à mettre en œuvre de nouvelles méthodes. Ainsi la France commença à s’imposer dans les années 1970 sur le plan observationnel, grâce aux efforts d’une petite équipe de radioastronomes issus de l’École normale supérieure, avec l’étude des galaxies et des molécules inter stellaires, où elle continue à faire figure de leader mondial. Un autre domaine où la France excella ensuite, héritière d’une tradition ancestrale, fut celui de l’optique. Elle fut à l’origine de l’interférométrie introduite par Antoine Labeyrie78 et de l’optique adaptative*, où elle devint également un leader mondial, et conduisit plusieurs observations ayant permis de résoudre des problèmes cruciaux. Je pense par ailleurs que la France, comme les autres pays latins, a souffert d’un déficit de reconnaissance de la part des pays anglosaxons. La langue en est responsable en partie, car les pays d’Europe du Nord dominaient jusqu’à récemment l’anglais bien mieux que nous. Mais il s’agit d’un phénomène plus général, dont j’ai pris conscience 78. Il occupa la chaire d’astrophysique observationnelle créée pour lui au Collège de France. Il était célèbre pour son mode de vie très écologique (utilisant le cheval par exemple) et pour les sphères de béton qu’il avait construites afin de tester l’inter férométrie optique, et qui demeurèrent pendant des années à l’Observatoire de la Côte d’Azur. 200
Grandes controverses en astrophysique
Appendice
en visitant des laboratoires étrangers, et en constatant que certains n’avaient même pas d’abonnement à la revue européenne Astronomy & Astrophysics. Je crois que ces problèmes sont résolus maintenant, en particulier depuis que les jeunes savent s’imposer dans les congrès et y parlent un anglais bien meilleur que celui qu’ânonnaient les gens de mon âge. D’un autre côté, je ne suis pas sûre que l’adoption de certaines méthodes de travail anglo-saxonnes (le publish or perish en particulier) soit bénéfique pour l’évolution de la science. C’est l’avenir qui le dira… Un point sur lequel la France suivit bien le mouvement international fut le calcul numérique et les ordinateurs. Comme je l’ai dit, l’astrophysique théorique s’est développée rapidement grâce à Schatzman et Pecker et à une politique de recrutement ambitieuse (celle des trente glorieuses et du général de Gaulle qui voulait que la recherche française retrouve son éclat des années 1930), et elle avait besoin de gros moyens de calcul. À mon arrivée à l’IAP, les chercheurs effectuaient des calculs numériques grâce au « bureau de calculs » créé par Henri Mineur après la guerre (il est question ailleurs dans le livre de ce personnage hors du commun). Dans ce bureau officiaient une quinzaine de « calculatrices » (apparemment ce n’était pas un travail pour les hommes, comme celui de la Carte du ciel…), assises chacune devant une grosse calculatrice, électrique cette fois, capable de faire seulement les quatre opérations. Je pense que cette méthode ressemblait comme deux gouttes d’eau à celle d’Urbain Le Verrier lorsqu’il avait déterminé un siècle plus tôt la position de Neptune, sauf qu’il n’avait pas de calculatrices électriques et avait fait les calculs lui-même à la main. Mais peut-être était-ce un bien pour lui, car elles faisaient un bruit d’enfer… Un ordinateur analogique* construit par un jeune chercheur, Michel Hénon, devenu par la suite un mathématicien connu, venait d’être achevé en 1960, mais il était déjà dépassé par l’arrivée dans les laboratoires des ordinateurs digitaux plus performants bien qu’encore très élémentaires. Dès le début des années 1960, l’Observatoire de Meudon s’était doté d’une 201
Appendice
IBM 650 qui servait à toute la région parisienne. C’était une grosse machine pour l’époque car elle occupait une très grande salle, mais elle avait seulement 2K de mémoire (oui, j’ai bien dit DEUX KILOOCTETS, le moindre téléphone portable en possède actuellement des centaines de millions !)79. Quoi qu’il en soit, les chercheurs se mirent à la programmation avec enthousiasme et rattrapèrent rapidement leurs collègues étrangers, surtout lorsque le CNRS tout entier se dota d’un centre de calcul électronique en 1979.
79. Une nuit où je travaillais sur cette machine, j’ai appuyé sur un bouton rouge au-dessus duquel il était marqué : ne pas toucher ! La seconde d’après, tout s’éteignait, et la machine resta quinze jours en panne… 202
Grandes controverses en astrophysique
GLOSSAIRE
Année-lumière. Distance parcourue par la lumière pendant une année (à la vitesse de 300 000 km/s). Une année-lumière correspond à peu près à 10 à la puissance 16 mètres, ou 10 000 milliards de kilomètres. On utilise aussi en astronomie le parsec (pc), qui est égal à 3 années-lumière environ, ou le mégaparsec (Mpc), soit un million de parsecs. Céphéides. Les Céphéides sont des étoiles variables géantes ou super géantes, une dizaine de fois plus massives que le Soleil et au moins 100 fois plus lumineuses, dont l’éclat varie périodiquement. Il existe une relation entre leur période et leur luminosité, découverte par Henrietta Leavitt, permettant de déterminer leur luminosité puis leur distance et de jalonner l’Univers jusqu’à une centaine de millions d’années-lumière. Constante cosmologique. La constante cosmologique est un paramètre, noté L (Lambda), qu’Einstein a ajouté aux équations de la relativité générale pour que l’Univers reste statique. En effet, cette constante joue le rôle d’une gravité négative, et Einstein lui avait donné une valeur telle qu’elle annulait exactement l’effet de la gravité. Depuis 1998, on sait qu’elle existe effectivement et qu’elle est responsable de l’accélération de l’expansion de l’Univers. 203
Glossaire
On l’appelle également « énergie sombre », on connaît sa valeur actuelle mais on ne sait pas si c’est une vraie constante, et on ignore encore complètement sa nature exacte. Coronographe. Le coronographe est un instrument qui permet de masquer le Soleil de façon que la couronne puisse apparaître, comme c’est le cas lors d’une éclipse totale par la Lune : la couronne n’est alors plus noyée par la lumière du disque. On utilise maintenant le coronographe sur des télescopes au sol et également sur des instruments spatiaux, aussi bien pour le Soleil que pour des étoiles dont on veut observer l’environnement immédiat, ce qui permet d’obtenir une éclipse permanente. Corps noir. Un corps noir désigne un objet idéal qui absorbe toute la lumière qu’il reçoit. Il émet un rayonnement thermique appelé rayonnement de corps noir, dont la distribution en fonction de la longueur d’onde est donnée par la « loi de Planck », qui ne dépend que de la température de l’objet. Courbe de rotation. La courbe de rotation d’une galaxie donne la vitesse orbitale des étoiles ou du gaz en fonction de leur distance au centre de la galaxie. Elle est mesurée par le décalage en longueur d’onde des raies spectrales dû à l’effet Doppler-Fizeau*. Décalage vers le rouge. Voir effet Doppler-Fizeau. Deutérium. Le deutérium, écrit 2H ou D, est un isotope* stable de l’hydrogène, formé d’un proton et d’un neutron*. Sa masse est donc égale à deux fois celle de l’hydrogène. Diagramme de Hertzsprung-Russell. Le diagramme de HertzsprungRussell, ou diagramme H-R, est un graphique dans lequel la luminosité des étoiles est portée en fonction de leur température de surface. Il en existe plusieurs variantes : par exemple, la luminosité peut être portée en fonction de la couleur. Il a été inventé autour de 1910 indépendamment par l’astronome amateur danois Ejnar Hertzsprung, et l’astronome américain Norris Russell. C’est ce diagramme qui a permis d’établir la théorie de l’évolution stellaire. 204
Grandes controverses en astrophysique
Glossaire
Effet Doppler-Fizeau. Le son émis par un objet en mouvement semble plus aigu lorsque l’objet s’approche et plus grave lorsqu’il s’éloigne. De même les ondes lumineuses sont décalées vers les courtes longueurs d’onde lorsqu’une source lumineuse se rapproche, et vers les grandes longueurs d’onde lorsqu’elle s’éloigne. Il suffit donc de mesurer les longueurs d’onde des raies spectrales pour déterminer la vitesse d’une source projetée sur la ligne de visée. Il ne faut pas confondre le décalage vers le rouge des galaxies dû à l’expansion de l’Univers avec l’effet Doppler-Fizeau, bien qu’il soit exprimé pratiquement de la même façon. Énergie sombre. Voir constante cosmologique. Étoile à neutrons. Une étoile à neutrons est un astre principalement composé de neutrons* qui sont pratiquement collés les uns aux autres. C’est le résidu de l’effondrement du cœur d’une étoile massive qui a épuisé son combustible nucléaire, et dont les couches extérieures ont explosé en supernova*. Le rayon d’une étoile à neutrons est de 10 à 20 km, et sa masse de 1,4 à 3 fois la masse du Soleil, ce qui lui confère une masse volumique extraordinairement élevée, de mille milliards de tonnes par litre. Sa rotation est très rapide au début de sa vie (voir pulsar). Exoplanète. Une exoplanète, ou planète extrasolaire, est une planète située en dehors du Système solaire. Gamma (rayonnement). Le rayonnement gamma est la composante du rayonnement électromagnétique dont l’énergie est supérieure à 1 MeV (million d’électronvolts), gamme typique de l’énergie des réactions nucléaires. Dans certains objets comme les quasars, elle peut dépasser le TeV (mille milliards d’électronvolts). L’origine du rayonnement d’une telle énergie n’est pas encore bien comprise. Gamma-Ray Burst, ou GRB. Les GRB (en français « sursauts gamma ») sont des bouffées de rayonnement gamma* qui apparaissent de manière aléatoire dans le ciel au rythme d’environ un par jour. Ils durent de quelques secondes à quelques minutes. Ils sont parfois prolongés à des longueurs d’onde plus grandes par une 205
Glossaire
émission qui peut durer plusieurs mois en s’affaiblissant progressivement. Les sursauts longs sont dus à l’effondrement d’une étoile géante aboutissant à la formation d’un trou noir* ou d’une étoile à neutrons*, tandis que les sursauts courts sont dus à la fusion d’un couple de deux étoiles à neutrons. Ils sont accompagnés d’un faisceau étroit de matière se déplaçant à des vitesses relativistes*. Ce sont les phénomènes les plus énergétiques de l’Univers. Interféromètre. Dans un interféromètre, le rayonnement provenant d’une source unique est divisé en deux faisceaux qui parcourent différents trajets optiques, puis sont combinés de nouveau pour produire une interférence. Les franges d’interférence résultantes donnent des informations sur la différence de longueur du chemin optique et permettent donc de déterminer la taille des objets observés. Il existe plusieurs variantes d’interféromètres. En astronomie, on utilise depuis plusieurs décennies des interféromètres dans le domaine radio, en particulier en faisant interférer le rayonnement reçu par des radiotélescopes très éloignés jusqu’à plusieurs milliers de kilomètres ; c’est « l’interférométrie à très longue base » (ou VLBI) qui permet d’accéder à une résolution spatiale très élevée (de l’ordre de quelques cent-millièmes de seconde de degré). Mais c’est seulement depuis quelques années qu’on utilise des interféromètres dans le domaine visible, entre autres à l’observatoire de l’ESO au Chili. L’un des types d’interféromètre les plus célèbres est l’interféromètre de Fabry Pérot, dont une variante a permis de détecter les ondes gravitationnelles*. Isotope. On appelle isotopes d’un élément chimique les noyaux possédant le même nombre de protons (caractéristique de cet élément), mais ayant un nombre de neutrons* différent. Par exemple le deutérium* est composé d’un proton et d’un neutron, c’est donc l’isotope de masse 2 de l’hydrogène. Le carbone 12 ordinaire possède 6 protons et 6 neutrons, tandis que son isotope, le carbone 14, possède 8 neutrons. Les isotopes instables se désintègrent et produisent la radioactivité. 206
Grandes controverses en astrophysique
Glossaire
keV, MeV. Dans le domaine des rayons X et gamma, l’énergie des photons est en général exprimée en millier ou en million d’électrons-volt, keV ou MeV, l’électron-volt eV étant l’énergie acquise par un électron plongé dans un champ électrique de 1 volt. Un astre ayant une température de 10 000 degrés émet du rayonnement dans le domaine visible vers 1 eV, un astre ayant une température de quelques millions de degrés émet dans le domaine X, au voisinage de 1 keV. Lentille gravitationnelle. Une lentille gravitationnelle est produite par la présence d’un corps céleste très massif comme un amas de galaxies, s’interposant entre un observateur et une source lumineuse lointaine. Le champ gravitationnel de l’amas dévie les rayons lumineux qui passent près de lui, déformant et amplifiant les images que reçoit l’observateur. La déformation crée un « mirage gravitationnel », et démultiplie les images de l’objet lointain. Une simple étoile peut aussi être une lentille gravitationnelle si elle s’interpose sur la ligne de visée d’une étoile plus lointaine. Loi de Hubble (maintenant loi de Hubble-Lemaître). C’est la loi énonçant que les galaxies s’éloignent les unes des autres avec une vitesse proportionnelle à leur distance. La constante de proportionnalité est appelée constante de Hubble H0. Cette proportionnalité n’est valable que jusqu’à une distance de quelques dizaines de millions d’années-lumière. Luminosité. La luminosité d’un astre est la quantité totale d’énergie électromagnétique qu’il émet par seconde dans toutes les directions. Matière noire. La matière noire (qui devrait plutôt être appelée matière transparente) est invoquée pour rendre compte du fait que la masse des galaxies et des amas de galaxies est plus grande que la masse de la matière visible observée. Elle représente environ 80 % de la masse de l’Univers, mais ne peut être constituée de matière ordinaire (ou baryonique), sinon on ne pourrait pas expliquer le nombre d’atomes formés après le Big Bang. La présence d’une importante quantité de matière noire permet d’expliquer la 207
Glossaire
formation des grandes structures de l’Univers. On ignore la nature de la matière noire, et bien qu’on invoque des particules participant d’une physique non standard, aucune n’a encore pu être détectée directement. Naine brune. Une naine brune a une masse comprise entre 13 et 75 fois la masse de Jupiter. Elle est trop massive pour être une planète géante et pas assez pour être une étoile. Elle rayonne par elle-même contrairement à une planète, mais tire sa lumière de la contraction gravitationnelle et non des réactions nucléaires comme une étoile. Naine blanche. Une naine blanche est le résidu d’une étoile de masse modeste qui a épuisé ses réserves nucléaires. Elle s’effondre alors pour donner une étoile ayant une taille comparable à la Terre, pour une masse voisine de celle du Soleil, ce qui lui confère une masse volumique élevée, de l’ordre d’une tonne par cm3 (énorme, mais beaucoup plus faible que celle d’une étoile à neutrons*). Elle est « blanche » car sa température est élevée, de l’ordre de 100 000 degrés, et elle se refroidit au cours du temps, mais très lentement à cause de sa petite surface. Neutrino. Le neutrino est une particule élémentaire de charge électrique nulle, qui a une masse très inférieure à une autre particule de charge électrique nulle, le neutron*. Il est produit par les réactions nucléaires dans les étoiles et dans le Soleil. Il interagit très peu avec la matière, au point qu’il peut traverser la Terre entière sans être absorbé, et il est par conséquent très difficile à détecter. Neutron. Les neutrons sont des particules de charge électrique nulle. Ils constituent les noyaux des atomes avec les protons chargés positivement, auxquels ils sont liés par l’interaction forte. Le nombre de protons dans le noyau détermine l’élément chimique, et le nombre de neutrons détermine son isotope*. Nova. Une nova est une étoile qui devient brutalement très brillante (parfois 10 000 fois plus brillante). Elle reprend son éclat initial au bout de quelques jours. Certaines novae sont récurrentes, et 208
Grandes controverses en astrophysique
Glossaire
ont subi plusieurs explosions depuis qu’elles ont été observées. La nova est une naine blanche* en couple avec une étoile géante dont elle attire la matière. Celle-ci devient très chaude en tombant sur la surface de la naine blanche et provoque une explosion thermonucléaire qui produit l’augmentation d’éclat de la naine blanche. Dans le passé, on confondait les novae et les supernovae*. Onde gravitationnelle. Une onde gravitationnelle est une oscillation de la courbure de l’espace-temps prédite par Einstein. Elle se propage à la vitesse de la lumière dans le vide. Des observatoires constitués de détecteurs interférométriques*, l’Européen Virgo en Italie et les deux Américains Ligo aux États-Unis, ont réussi à détecter depuis 2015 un certain nombre d’ondes gravitationnelles provenant de la fusion de deux trous noirs* ou de deux étoiles à neutrons* situés à grande distance. Plusieurs autres détecteurs sont en cours de construction actuellement. Optique adaptative. La turbulence atmosphérique due aux variations de l’indice optique en fonction de la température et de la pression des milieux traversés a pour effet de déformer le front d’onde provenant des étoiles. L’optique adaptative est une technique utilisée sur les grands télescopes au sol pour corriger en temps réel les déformations du front d’onde, grâce à un miroir déformable. Le miroir compense exactement les perturbations, et l’image peut alors atteindre une résolution spatiale presque égale à celle qu’elle aurait en l’absence d’atmosphère. Ordinateur analogique. Dans un calculateur analogique, on remplace l’étude d’un système physique par celle d’un autre système régi par les mêmes équations. Ainsi des modules électriques (condensateurs, résistances, transistors) ont permis dans les années 1950 de résoudre les équations régissant la physique interne des étoiles. Ce type d’ordinateur a été rendu caduc par les évolutions fulgurantes des ordinateurs digitaux où les informations sont représentées par des suites de nombres binaires qui sont traitées par des programmes. 209
Glossaire
Parallaxe, parallaxe statistique. La parallaxe est l’effet du changement de position d’un observateur sur ce qu’il perçoit. En astronomie, on l’utilise pour déterminer la distance d’étoiles proches. On observe le déplacement d’une étoile à 6 mois d’intervalle : l’étoile s’est alors déplacée sur le ciel par rapport aux astres beaucoup plus lointains d’un angle correspondant à 300 millions de kilomètres (le diamètre de l’orbite de la Terre) rapportée à sa propre distance. On utilise également les parallaxes obtenues pour un groupe d’étoiles : ce sont les « parallaxes statistiques ». La méthode des parallaxes a été profondément transformée par le satellite Hipparcos lancé par l’Agence spatiale européenne (ESA) en 1989, et maintenant par GAIA, lancé en 2013, qui permet d’observer les mouvements d’environ un milliard d’étoiles et de déterminer leur distance jusqu’aux confins de la Voie lactée et jusqu’aux Nuages de Magellan. Photon. La mécanique quantique a énoncé la « dualité onde- corpuscule » : le rayonnement électromagnétique est à la fois une onde, possédant une longueur d’onde λ, et un corpuscule, le photon, possédant une énergie égale à hν, où h est « la constante de Planck », et ν = c/λ est la fréquence, c étant la vitesse de la lumière. Proton. Voir neutron. Pulsar. Un pulsar est une étoile à neutrons* tournant très rapidement sur elle-même, avec une période de quelques millisecondes à quelques secondes. Elle émet du rayonnement radio dans l’axe de son champ magnétique, et comme celui-ci n’est pas aligné avec son axe de rotation, le faisceau balaie un cône au cours du temps. Un pulsar apparaît donc à un observateur distant sous la forme d’un signal radio périodique très régulier. Quasar. Un quasar est la région compacte entourant un trou noir* supermassif au centre d’une galaxie. Le trou noir attire la matière qui se trouve à proximité. Elle s’en approche en formant un « disque d’accrétion » qui émet un intense rayonnement ultra violet. Les quasars sont des objets éloignés, et leurs parents proches de nous mais moins lumineux sont les « galaxies à noyau actif ». 210
Grandes controverses en astrophysique
Glossaire
Radioactivité. La radioactivité est le phénomène conduisant les isotopes* instables à se désintégrer spontanément en émettant des particules (rayons α constitués de noyaux d’hélium et rayons β constitués d’électrons) et de l’énergie (rayons gamma*). Radio-galaxie. Une radio-galaxie est une galaxie dont le rayonnement radio est environ 10 000 fois plus grand que celui d’une galaxie normale, pour le même rayonnement visible. Radiotélescope, radioastronomie. La radioastronomie est née avec Karl Jansky dans les années 1930, mais c’est seulement depuis la deuxième guerre mondiale que les travaux sur les radars ont permis de développer les technologies des radiotélescopes. À partir des années 1950, des observatoires radioastronomiques sont construits dans tous les pays développés, et la radioastronomie devient une discipline majeure de l’astrophysique. Les radiotélescopes ont nécessairement de grandes dimensions pour permettre d’observer à des longueurs d’onde centimétriques ou métriques. L’un des premiers fut le radiotélescope d’Arecibo, de 300 mètres de diamètre, dont l’antenne vient malheureusement d’être détruite. Raie à 21 cm. La raie à 21 cm est une raie spectrale de longueur d’onde 21 cm, donc détectée dans le domaine radio, produite lors de la transition entre les deux sous-niveaux de structure fine de l’atome d’hydrogène. Comme l’hydrogène est l’élément le plus abondant de l’Univers, cette raie peut être observée partout. Raies de Balmer. Ce sont les raies spectrales* correspondant aux transitions entre le 2e niveau d’énergie de l’atome d’hydrogène et les niveaux plus élevés. Ainsi la raie H alpha correspond à la transition entre le niveau 2 et le niveau 3, la raie H bêta à celle entre le niveau 2 et le niveau 4, etc. Il existe aussi les raies de Paschen entre le niveau 3 et les niveaux plus élevés, les raies de Brakett entre le niveau 4 et les niveaux plus élevés, etc. Les raies de Balmer sont les plus connues, car elles se situent dans le domaine visible. 211
Glossaire
Raies spectrales. Les états que peut prendre un atome sont décrits en première approximation par les niveaux d’énergie quantifiés de ses couches électroniques. Les raies spectrales correspondent aux transitions entre ces niveaux. Un photon* est émis lorsqu’un atome passe d’un niveau d’énergie supérieur à un niveau d’énergie inférieur, et un photon de même énergie est absorbé pour passer du niveau inférieur au niveau supérieur. Rayonnement fossile. Il est appelé également « fond diffus cosmologique » (en anglais, Cosmic Microwave Background ou CMB). C’est un rayonnement très homogène observé dans toutes les directions du ciel, dont le pic d’émission se situe dans le domaine microonde. Son spectre est celui d’un corps noir* à 2,7 degrés absolus. Il a été émis 380 000 ans après le Big-Bang, lorsque l’Univers, qui avait alors une température de 3 000 degrés, est devenu transparent par suite de la recombinaison des protons et des électrons en atomes d’hydrogène. Depuis, il s’est refroidi à cause de l’expansion de l’Univers. Prédit dès les années 1940 et découvert en 1965, il a fourni la preuve de l’existence du Big Bang. Réfraction gravitationnelle. Voir lentille gravitationnelle. Relativiste, vitesse relativiste. Une vitesse relativiste est proche de celle de la lumière. Une particule se déplaçant à une vitesse relativiste est appelée « particule relativiste ». Il faut alors tenir compte des effets de la relativité restreinte, par exemple dans le décalage des raies spectrales qu’elle émet. Spectre, spectroscopie, spectrographe, spectromètre. Un spectre est la décomposition par un prisme, un réseau ou un interféromètre* de Fabry-Pérot, en fonction de la longueur d’onde ou de la fréquence, de la lumière émise ou absorbée par un objet. Le spectre contient en général des « raies spectrales » dues aux transitions quantifiées entre les niveaux d’énergie des atomes qui composent l’objet. Le spectre des étoiles montre le plus souvent des raies en absorption (sombres sur un fond brillant) et celui des nébuleuses des raies en émission (brillantes sur un fond plus sombre). La 212
Grandes controverses en astrophysique
Glossaire
spectroscopie, ou spectrométrie, est l’étude de ces spectres. On appelle spectromètre ou spectrographe (si le spectre est photographié) les instruments de mesure des spectres. Spectromètre de masse. La spectrométrie de masse est une technique permettant d’identifier des atomes et des molécules, de mesurer leur masse, et de caractériser leur structure chimique. Son principe réside dans la séparation par un champ magnétique de molécules ou d’atomes chargés électriquement en fonction du rapport entre la masse et la charge. Supernova. Une supernova est due à l’explosion des couches extérieures d’une étoile ayant épuisé ses réserves de combustible nucléaire. Elle correspond à une énorme augmentation de l’éclat de l’étoile, qui se prolonge pendant plusieurs mois. Deux mécanismes produisent une supernova : le premier, appelé supernova nucléaire, résulte de l’explosion thermonucléaire d’une naine blanche qui a trop grossi à la suite de l’accrétion de la matière arrachée à une autre étoile ; le second, appelé supernova à effondrement de cœur, accompagne l’implosion du cœur d’une étoile massive. Seules les supernovae dites de type Ia (SN Ia) sont thermonucléaires, toutes les autres étant dues à l’effondrement de cœur. Comme les SN Ia ont la même luminosité à leur maximum (moyennant certaines corrections), on peut déterminer leur distance et les utiliser pour jalonner l’Univers. La matière expulsée par l’explosion d’une supernova forme une nébuleuse appelée « reste de supernova ». Dans le passé, on confondait supernova et nova*. Trou noir. Un trou noir est un corps dont le champ de gravité est si élevé que ni la lumière ni la matière ne peuvent s’en échapper. Il attire la matière qui l’environne ; elle s’en approche en spiralant et en formant un « disque d’accrétion » tournant autour du trou noir en étant progressivement absorbé par lui, en produisant du rayonnement. Il existe deux sortes de trous noirs : les trous noirs « stellaires », correspondant à l’effondrement du cœur d’étoiles de grande masse ayant épuisé leurs réserves de combustible nucléaire 213
Glossaire
(voir supernova*), qui ont quelques masses solaires et un rayon de quelques kilomètres ; et les trous noirs supermassifs, qui ont plusieurs millions à plusieurs milliards de masses solaires et un rayon de centaines de millions de kilomètres ; ils se trouvent au cœur de pratiquement toutes les galaxies. La Voie lactée possède un tel trou noir, de 4 millions de masses solaires.
214
Grandes controverses en astrophysique