Des quasars aux trous noirs 9782759803347

Découverts par hasard au début des années soixante, les quasars sont les astres les plus lumineux et les plus distants d

277 28 17MB

French Pages 480 [479] Year 2009

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Des quasars aux trous noirs
 9782759803347

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Des quasars aux trous noirs

Suzy Collin-Zahn

17, avenue du Hoggar Parc d’activités de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France

Photo de couverture : Radio-galaxie NGC 1275. C’est la plus grosse galaxie de l’amas de Persée, lui-même l’un des amas les plus massifs de galaxies proches. On distingue bien le noyau très brillant : il contient un trou noir géant en pleine activité. Des filaments de gaz sont expulsés du noyau et sont visibles en rouge sur la photo prise dans une raie spectrale de l’hydrogène. Cette galaxie émet des ondes acoustiques qui remplissent et chauffent tout le gaz intergalactique présent dans l’amas de Persée, inhibant la chute de gaz. Ce phénomène est considéré comme la preuve que les trous noirs massifs ont une influence prépondérante sur l’évolution des galaxies elles-même. Crédit : C.J. Conselice (WIYN/NOAO/NSF).

Imprimé en France

ISBN : 978-2-7598-0377-4 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.

c 2009 EDP Sciences 

Quelques phrases pour résumer la recherche scientifique. . . Si nous ne faisions pas les choses dans la passion, nous ne ferions rien. Montherlant Vérité dans un temps, erreur dans un autre. Montesquieu Le vrai peut quelquefois n’être pas vraisemblable. Boileau La Science a un goût amer à ses débuts, mais après elle est douce comme le miel. Proverbe arabe

Ce livre est dédié à François-David et à Corinne dont l’enfance a pâti de ma passion pour mon travail. Que ceux qui ont accepté la tâche ingrate de relire le manuscrit de cet ouvrage et de me prodiguer leurs conseils éclairés pour l’améliorer trouvent ici l’expression de ma gratitude : Françoise Beck-Frehel, Monique Joly, James Lequeux, Philippe Véron et mon époux Jean-Paul Zahn.

This page intentionally left blank

Avertissement Je suis obligée dans ce livre de faire appel à des notions scientifiques qui ne sont pas familières à tous. Ceux qui n’ont aucune habitude de l’astrophysique auront intérêt à commencer par le petit précis à la fin de l’ouvrage (Annexe A) : « pour apprendre à parler astrophysicien ». Je m’efforcerai toujours de rappeler les méthodes ayant permis de faire une découverte et je donnerai dans les cas les plus simples des explications suffisantes pour comprendre les phénomènes décrits. Je ne le ferai pas pour des sujets compliqués demandant de longs développements et, de façon générale, je simplifierai les discussions théoriques nécessitant des connaissances de physique avancée, mais je renverrai à la fin du livre aux articles originaux cités (Notez que la plupart peuvent être consultés en ligne et extraits à l’adresse suivante : http://adsabs.harvard.edu/abstract_service.html). Je tenterai de donner pour ceux qui désirent comprendre de façon plus approfondie les phénomènes mentionnés des explications sous forme de notes et d’encadrés insérés, ou bien de renvois à un « dictionnaire » lorsqu’il s’agira de notions fondamentales utilisées à plusieurs reprises (un astérisque l’indiquera la première fois que le mot est mentionné). Enfin l’Annexe B est consacrée à introduire les processus physiques les plus souvent évoqués dans le livre (deux astérisques signaleront chaque fois que ces notions seront rencontrées). Toutes ces explications pourront parfaitement ne pas être lues. D’autre part, je mentionnerai, outre les noms importants dans le domaine – français ou étrangers – ceux de mes collègues les plus proches. Enfin, une liste non exhaustive de quelques livres pouvant compléter la lecture de celui-ci est donnée à la fin.

This page intentionally left blank

Sommaire Avertissement

v

Introduction

ix

1

2

3

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

1

Comment on faisait de la recherche dans les années soixante

21

Une découverte étrange qui nous fait remonter loin dans le passé

53

4

Regain d’intérêt pour des galaxies oubliées

101

5

La déferlante des « quasars » et la controverse des « décalages anormaux »

143

6

Les années soixante-dix : en marge de la Science

181

7

Les années soixante-dix : retour à la Science

199

8

Les années soixante-dix : fin d’une grande controverse

229

Le « Black Power » à l’œuvre dans les quasars

243

9

10 De l’importance du regard et de l’apparence

277

11 Le cœur bouillant des quasars

311

12 Des volcans éteints au cœur des galaxies

347

En guise de conclusion

387

viii

Des quasars aux trous noirs

Bibliographie

393

A Petit précis pour apprendre à « parler astrophysicien »

399

B Quelques théories physiques dont il est souvent question dans ce livre

415

Glossaire

445

Sigles utilisés fréquemment

449

Quelques livres récents pouvant être consultés

451

Crédit des figures

453

Introduction Quelques réflexions sur l’évolution de la Recherche, et pourquoi j’ai voulu écrire ce livre La Science, telle qu’on la présente en général dans les livres et les articles ou dans les émissions de radio et de télévision, est bien lisse, posée sur les certitudes acquises au fil des ans, édulcorée de ses discussions et de ses hésitations. On ne montre que le résultat et non la démarche. Pour le non-scientifique, ou plus exactement pour celui qui n’a pas lui-même goûté à la recherche, la Science donne l’impression d’une chose certes non achevée, mais en constante amélioration, procédant d’une évolution linéaire, allant toujours dans le bon sens, du plus approché au plus exact, du faux au vrai. Cette image est trompeuse. Car la Science hésite, s’enlise souvent dans des voies de garage et retourne parfois même en arrière. Mais ce qui est admirable c’est que malgré cette démarche cahoteuse et grâce à des bonds brutaux en avant elle finit toujours par progresser sur le long – parfois le très long – terme. Cela est vrai maintenant comme ce l’était dans le passé. Il suffit pour s’en convaincre de considérer l’histoire de l’astronomie au cours des siècles. En examinant les cosmogonies antiques, on est stupéfait des intuitions et des déductions des astronomes grecs. Par exemple, Eratosthène avait été capable de mesurer le diamètre de la Terre avec une grande précision alors que sa rotondité fut oubliée ensuite pendant plus de quinze siècles ! Aristarque de Samos, à la suite d’Héraclide, comprit dès le iiie siècle avant Jésus-Christ en étudiant les mouvements apparents des planètes que la Terre et les autres planètes tournaient autour du Soleil. Mais, le mince traité d’astronomie qui nous reste de lui fut rapidement oublié dans la période platonicienne. Et c’est la vision de Ptolémée, cent cinquante ans plus tard, qui nous est restée ensuite avec son monde géocentrique et ses planètes décrivant des épicycles de plus en plus compliqués au gré des nouvelles observations. Cette vision s’imposa jusqu’à Copernic. D’ailleurs, non seulement l’astronomie, mais toute la science antique fut mise sous le boisseau pendant quinze siècles et ne resurgit que grâce au prosélytisme des savants arabes. Et comme l’écrivit Arthur Koestler : « Il n’y a logiquement qu’un pas d’Aristarque à Copernic, qu’un pas d’Hippocrate à

x

Des quasars aux trous noirs

Paracelse, et qu’un pas d’Archimède à Galilée... Et pourtant, la continuité fut rompue pendant une époque presque aussi longue que celle qui nous sépare des débuts de l’ère chrétienne ». Ce recul de la Science était dû au refus du monde matériel en faveur de la vie spirituelle. La métaphysique fut préférée à la physique et la spéculation pure prévalut sur les faits même les plus évidents. Ce qui est remarquable en effet, c’est que les cosmogonies de Ptolémée et de Copernic, pourtant si différentes, ne sont à peine séparées que par quelques observations qui ne changent pas fondamentalement le problème. Car c’est bien à la faveur de l’évolution des consciences liée à tout le mouvement de la Renaissance, et non grâce à ces observations, que s’est effectuée la révolution copernicienne. Preuve que la Science n’est pas neutre et que les faits sont souvent interprétés à travers le prisme de notre subjectivité, ainsi qu’on le verra à plusieurs reprises dans ce livre. Ce n’est qu’en raison de la primauté redonnée à l’expérimentation et à l’observation que l’on put refonder la Science. De ce moment, l’Astronomie gagna la partie en moins d’un siècle. La « sphère des fixes » perdit son immuabilité lorsque Tycho Brahe observa la supernova de 1582. Copernic redécouvrit l’héliocentrisme puis, à l’aide des mesures rigoureuses de Tycho Brahe, Kepler posa les bases d’une astronomie mathématique fondée sur les observations des mouvements des astres ; et déjà au début du xviie siècle il abordait le problème de l’infinitude de l’Univers en énonçant le fameux paradoxe d’Olbers. Galilée observant la chute des corps révéla la notion de force et fit une série d’autres découvertes montrant l’unité profonde du monde céleste en même temps que sa diversité insoupçonnée. C’est sur son principe d’inertie que Newton posa les premières pierres de la théorie de la gravitation, unifiant dans une même loi la Terre et les corps célestes. Puis se développèrent les diverses branches de la science, chimie, biologie, physique, géologie. . . , chacune d’elles donnant bientôt naissance à de nouveaux rameaux. Un siècle plus tard, au début du xixe siècle, naissait ainsi l’astrophysique, avatar de l’astronomie et de la physique, qui allait changer radicalement notre vision des astres et du cosmos. Jaillissant comme un arbre de la terre au moment de la Renaissance, la Recherche scientifique – car c’est d’elle qu’il s’agit – a donc en quatre siècles produit une ramure gigantesque englobant tous les domaines de la connaissance. D’abstrait et ontologique, le savoir est devenu scientifique. Mais cette révision n’a pas été opérée sans déchirement car l’Homme a dû poser sur le monde un regard toujours plus critique par rapport à ses croyances ancestrales, faisant par exemple exploser l’espace et le temps pour devenir de plus en plus petit dans un Univers matériel de plus en plus démesuré et de moins en moins immuable. Le temps de stagnation d’une discipline est évidemment bien moins long actuellement que dans le passé et l’on ne peut plus imaginer quinze siècles, ni même un seul, sans un progrès scientifique fondamental. À l’inverse cependant, il est faux de croire que la science est en constante accélération, comme la technologie. Ce qui augmente dans la science, c’est le nombre de branches, mais chacune continue à se développer au même rythme. Car pour assimiler une grande découverte il faut un temps aussi long maintenant qu’il y a dix siècles, c’est-à-dire au moins une génération. Croit-on, par exemple, que la relativité ou la mécanique quantique aient pu s’imposer d’emblée, même aux scientifiques, lorsqu’elles ont été énoncées ? Ce sont évidemment des exemples extrêmes, mais nous constaterons dans cet ouvrage que de nombreuses découvertes importantes ont mis environ une trentaine d’années à être acceptées et à devenir indiscutables. Et bien des questions posées il y a une trentaine d’années ou plus, sur lesquelles travaillent assidûment de nombreux chercheurs, n’ont pas encore reçu de réponses.

Introduction

xi

Puisque la Science est de plus en plus riche, il lui faut pour continuer à progresser un nombre de chercheurs et un nombre d’expérimentations de plus en plus grand. Et c’est bien ce à quoi l’on a assisté au cours du siècle dernier. Avant, la recherche était pratiquée essentiellement par quelques esprits éclairés travaillant isolément. C’étaient des intellectuels disposant d’une fortune assez considérable pour en vivre et pour entreprendre eux-mêmes des expériences coûteuses. Les scientifiques d’alors étaient des savants capables d’appréhender presque toutes les disciplines, car chacune était encore peu développée. Ce n’est plus le cas. Maintenant la recherche est devenue un métier à part entière. Depuis le début du xxe siècle, un petit nombre de chercheurs commencèrent à être payés pour « chercher » et les gouvernements leur allouèrent des fonds pour leurs expérimentations1 . Puis le mouvement s’accéléra après la Seconde Guerre mondiale. Ainsi, le nombre de chercheurs en astronomie a-t-il décuplé au cours de ces cinquante dernières années dans le monde occidental. En France, cette augmentation s’est d’ailleurs produite en seulement quinze ans, entre les années soixante et soixante-quinze, puis le rythme de croissance s’est ralenti. De ce fait, un astrophysicien pouvait connaître à peu près toute l’astrophysique de l’époque il y a seulement cinquante ans, alors que c’est devenu totalement impossible à présent. Un autre aspect du problème est que la science a besoin pour progresser de l’apport de l’expérience, de l’observation dans le cas de l’astronomie, et donc de la technique. Pas d’observations, pas d’astronomie. Les plus grands scientifiques l’ont compris et ce n’est pas un hasard si ce sont Galilée et Newton qui ont adapté la lunette et le télescope aux études astronomiques, et si le premier en a tiré profit pour découvrir les taches solaires, les satellites de Jupiter et les cratères lunaires. L’astronomie est donc une science coûteuse, car beaucoup de ses progrès sont dus à l’invention de nouveaux moyens d’observation ou à l’amélioration des moyens existants. Les quasars, les pulsars, le rayonnement fossile de l’Univers, l’existence de molécules complexes dans les espaces intersidéraux, ont été découverts grâce à la mise en service de grands radiotélescopes consécutive à l’invention des radars. Les très grands télescopes optiques ont permis l’exploration de l’Univers lointain. Tout ceci est rendu possible par l’utilisation de nouveaux matériaux et par les progrès de l’informatique et de l’électronique. Cette évolution des techniques est elle-même une mise en œuvre des concepts développés dans d’autres sciences et ne peut se concevoir sans un développement scientifique global. Les instruments au sol sont chers, mais l’espace l’est encore plus. C’est un reproche que l’on adresse souvent aux astronomes. On se demande s’il n’y a pas des priorités à respecter dans un monde où la famine et les maladies nouvelles déciment une grande partie des populations, et si tous les efforts de recherche ne devraient pas se focaliser sur ces seuls points. Il est, en effet, difficile de fonder l’exploration spatiale sur la seule nécessité d’aller chercher de nouvelles terres pour que l’humanité survive, car cet enjeu est illusoire, au moins à échéance de quelques décennies, et même de plusieurs siècles. Pourtant, les retombées économiques de l’exploration spatiale ne doivent pas être négligées : développement de matériaux et de hautes technologies, prévisions météorologiques, réseau hertzien. . . 1 Le corps des astronomes fut créé par le Bureau des longitudes à la Révolution, mais il était essentiellement destiné à accomplir des « tâches de service », comme effectuer des observations de routine ou maintenir les instruments en état de marche.

xii

Des quasars aux trous noirs

Mais ce n’est pas là qu’il faut chercher la justification de la recherche spatiale. Elle est essentielle pour l’astronomie qui dépend crucialement du besoin de s’affranchir de l’atmosphère terrestre pour bien observer le ciel. De nombreuses découvertes n’auraient pu être réalisées sans les satellites artificiels, devenus de véritables observatoires. Si l’on a pris conscience des propriétés étonnantes de certains astres, c’est essentiellement par les études qu’on en a effectuées dans le domaine des radiations dures, ultraviolettes, X et même gamma, impossibles à recevoir au sol. Les sondes spatiales nous ont dévoilé l’extraordinaire variété du système solaire. L’exploration des planètes, l’étude comparative de leur constitution et de leur climat seront d’ailleurs essentielles pour la connaissance de la Terre. Le télescope spatial Hubble a livré une moisson de découvertes plus surprenantes et inattendues les unes que les autres, nous révélant les secrets de l’Univers lointain ou nous dévoilant des cocons d’étoiles en train de naître près de nous. On aurait pu évidemment s’en passer, comme on aurait pu se passer du fait que Galilée découvrît les satellites de Jupiter ou la rotation du Soleil. Mais, si faire progresser la connaissance constitue l’une des finalités – si ce n’est la principale – de l’existence de l’Homme, la recherche spatiale en est l’un des pans incontournables. Ce formidable développement instrumental a entraîné un changement fondamental du processus de recherche. La programmation à long terme des opérations scientifiques est en effet devenue une condition impérative à son bon fonctionnement. Les chercheurs doivent définir leurs projets, en demander le financement auprès de divers organismes et, lorsqu’ils l’ont obtenu, s’en tenir à ce projet même s’il se produit entre temps une découverte sensationnelle sur laquelle ils désireraient travailler. La durée de cette démarche est longue ; il se passe typiquement une vingtaine d’années entre le moment où est conçue une grande opération comme une mission spatiale, et celui où elle devient opérationnelle. La recherche y a certes gagné en efficacité, mais elle y a nécessairement perdu en créativité et en originalité. Heureusement, nous verrons que ces grandes opérations ont permis de faire souvent des découvertes imprévues, ce qui préserve malgré tout une part de surprise dans la recherche actuelle ! D’autre part, la progression foisonnante de la science et l’augmentation du nombre de chercheurs a entraîné une mutation complète de ce métier au cours de ces dernières décennies. Ce que l’on effectuait auparavant en de nombreuses semaines et avec peu de moyens, on le fait maintenant en quelques heures ou en quelques minutes, mais avec à notre service une quantité impressionnante d’appareils sophistiqués, télescopes au sol ou satellisés, récepteurs variés, ordinateurs, etc. Cette technologie lourde contraint souvent les chercheurs à se transformer en ingénieurs pour concevoir des instruments, en informaticiens pour développer les logiciels destinés à les faire marcher, en statisticiens pour traiter les données, en archivistes pour les stocker ; et ils disposent par conséquent de moins en moins de temps pour la réflexion sur les résultats eux-mêmes et sur les théories sous-tendues par les observations. Je me pose souvent la question de savoir si la recherche fonctionne mieux maintenant qu’il y a cinquante ans. L’astrophysique était alors une science presque neuve, et chaque avancée, aussi petite fût-elle, avait son importance. Ma tendance naturelle me pousserait donc à penser qu’elle allait mieux dans le passé. Mais sans doute suis-je simplement victime du vieillissement où « les temps anciens » paraissent toujours plus beaux que le présent. Et si je ne me reconnais plus dans la recherche actuelle, c’est pour ne pas vouloir participer à une marche en avant trop rapide, et pour résister au changement nécessaire des méthodes et au gigantisme des opérations. Peut-être – je l’espère – le lecteur aura-t-il une opinion différente lorsqu’il sera parvenu à la fin de ce livre. En effet, on verra que cette recherche nouvelle a conduit à des

Introduction

xiii

résultats remarquables que l’on n’aurait même pas imaginés il y a seulement une vingtaine d’années. Car mon intention ici est de porter témoignage de la progression de la connaissance telle que je l’ai vécue de l’intérieur. J’aimerais montrer l’évolution des idées, les errances de la pensée jugulées par la rigueur de la démarche scientifique, l’émergence des concepts puis leur validation par la puissance du raisonnement appuyé sur des expériences ou des observations. Je voudrais aussi exposer, avec une perception féminine probablement différente de celle des hommes, ce qu’est le métier de chercheur, ses joies et ses difficultés, et comment il s’est transformé au cours de ces cinquante dernières années. J’ai été jeune chercheuse à une période où la recherche scientifique se développait à un rythme rapide sous l’impulsion de De Gaulle, où la compétition n’était pas aussi effrénée qu’elle l’est en ce moment, car nous étions peu à travailler sur un sujet donné et il y avait beaucoup à explorer. De nombreux postes étaient créés chaque année. On était recruté immédiatement après la fin des études et les promotions étaient relativement aisées. Et l’on pouvait donner libre cours à son imagination sans être contraint de marcher dans les rails définis par les « thèmes prioritaires » et les grands projets qui les accompagnent. La recherche ne peut se faire que dans la passion. Prométhées enchaînés à elle, nous sommes dévorés en permanence par cette passion. Nous doutons souvent. Nous traversons des périodes d’abattement lorsque que nous piétinons. Conscients de nos faiblesses et reconnaissant les limites et les incertitudes de notre travail, nous pouvons en être affectés au point de sombrer dans une grave dépression. Nous nous posons souvent la question de la pertinence de notre travail dans un monde qui requerrait de mobiliser toutes nos forces pour lutter contre la misère2 . Il faut alors se convaincre que l’on aide à faire progresser la connaissance, même à une très petite échelle, et que c’est de ce progrès que l’humanité peut tirer une raison d’être. Dans ces périodes de déprime, l’enseignement apparaît comme une planche de salut et une justification valable. La recherche nous imprègne sans cesse, souvent au détriment de notre vie familiale. Elle est cause d’un sentiment de frustration et de culpabilité peut-être encore plus grand chez une femme que chez un homme : on faillit à ses devoirs, on passe à côté des choses importantes, on n’accorde pas assez d’attention à ses enfants lorsqu’on en a. On décide alors de « décrocher » un peu et de consacrer plus de temps à sa famille. Puis on se trouve des excuses en se disant que l’intensité de l’amour qu’on lui porte compense le manque de temps qu’on peut lui consacrer, qu’une vraie recherche passe nécessairement par une mobilisation complète de l’esprit, au moins pendant un certain temps. Bref, on se sent constamment fautif. Cela a été mon cas et ce l’est encore plus en ce moment, bien après que le temps d’élever les enfants soit passé, car le remords est resté. Mais si elle est parfois cause de grands désespoirs, la recherche est aussi source de grandes joies. Elle conduit à une exaltation grisante lorsqu’une solution se présente enfin. Et il est rare que nous ne nous rendions pas le matin à notre travail avec impatience et que nous ne le quittions pas le soir à regret. J’ai souvent entendu dire que nous autres chercheurs, heureux mortels que nous sommes, nous avons un « métier ludique ». C’est en partie vrai, car on peut parfois percevoir la recherche comme un roman policier, un bon vieux polar 2

Sauf, bien entendu, si la recherche, médicale par exemple, peut conduire directement à l’amélioration de la société, ou s’il s’agit de « recherche appliquée » dont les résultats amènent des innovations techniques immédiates.

xiv

Des quasars aux trous noirs

où il faut résoudre une énigme, débusquer le coupable parmi de nombreux suspects, où les situations sont plusieurs fois complètement retournées, où l’on est conduit sans cesse sur de fausses pistes, et où l’on essaye de deviner le dénouement grâce aux indices égrenés çà et là par l’auteur, négligeant les manifestations spectaculaires destinées uniquement à égarer le lecteur. Dans la littérature policière, il faut connaître la « manière » de l’auteur, son éthique, ses choix politiques, ses personnages favoris. De même, en recherche il faut se fabriquer une intuition fondée sur la connaissance du sujet et sur des analogies, des comparaisons et des retours en arrière. Certaines hypothèses paraissent bientôt plus plausibles que d’autres. On les vérifie en les confrontant à des expériences ou, dans le cas de l’astronomie, à des observations. Et l’on continue jusqu’à avoir amassé un faisceau suffisant de preuves pour être en mesure de présenter un scénario et le défendre devant le tribunal de ses pairs. En ce sens, on peut effectivement comparer la recherche à un jeu amusant et excitant3 . Mais c’est un jeu cruel s’il se prolonge sans résultat pendant des années, et l’erreur n’y est permise qu’à condition de savoir la reconnaître à temps. Et puis, si l’on peut se féliciter en lisant un roman policier parce qu’on a en trouvé la bonne solution avant la fin, il est rare que l’on se réjouisse totalement en recherche où le résultat n’est jamais complètement acquis ; il reste toujours un zeste de doute et la peur au ventre que quelqu’un vienne démolir la théorie que l’on a si bien agencée. Car il faut être prêt à abandonner nos idées si elles viennent à être contredites par les faits. C’est peut-être le plus difficile dans notre métier. Combien j’en connais de ces scientifiques, parfois très brillants, qui s’y sont refusés pour ne pas renier les efforts de plusieurs années ou par simple amour-propre, en s’obstinant, quelquefois leur vie durant, envers et contre tous à rester dans des voies clairement sans issue. Loin d’être des êtres désincarnés, des professeurs Tournesol seulement préoccupés de leur travail comme on les imagine parfois (et conformément aux idées que véhiculent les médias et souvent les chercheurs eux-mêmes), les chercheurs ont donc leurs faiblesses et peut-être sontelles plus grandes que dans d’autres métiers, à cause des difficultés à produire des résultats tangibles. Les chercheurs sont mus par les mêmes moteurs que tous les humains : sexe, soif de pouvoir, désir de réussite. On sait que certains savants (l’astronome Le Verrier par exemple) ne brillaient pas par leurs qualités humaines ; même le grand Pasteur volait les découvertes de ses subordonnés, dit-on. Je ne crois pas que la soif de pouvoir soit réservée aux hommes, mais il me semble toutefois qu’elle y est plus grande et plus partagée que chez les femmes. Pour le moment. Dans notre métier, le pouvoir est en principe réservé aux plus intelligents, capables de comprendre ce que font les autres chercheurs, et si l’intelligence n’est pas suffisamment au rendez-vous, il faut savoir se pousser du col. Pour les femmes, il fallait dans le passé être belles pour plaire, maintenant il faut être les plus intelligentes et aussi les plus travailleuses pour accéder au pouvoir (c’est souvent sur le plan du travail que les femmes arrivent à battre les hommes). Cependant le désir de beauté n’a pas disparu – car les hommes y sont toujours sensibles – ne nous voilons pas la face ! Mais il ne se traduit pas par les habits ou le maquillage, curieusement chez les chercheurs la beauté semble d’autant plus valorisée qu’elle est sans fard et l’habillement simple. 3

Cet aspect ne concerne d’ailleurs peut-être que quelques types de recherche particuliers, comme l’astrophysique, où l’on a souvent un grand choix d’hypothèses.

Introduction

xv

Tous ces défauts existent évidemment chez nous comme dans les autres professions, mais peut-être sont-ils plus feutrés parce que la notion de hiérarchie y est moins prégnante qu’ailleurs et parce que la richesse ne joue aucun rôle. Elle en jouerait même a contrario car on admire toujours plus un chercheur venant d’un milieu très modeste, et l’on n’aime pas que la fortune se montre avec ostentation. Il est rare par exemple de voir des voitures luxueuses sur le parking d’un centre de recherche : ce sont la plupart du temps des voitures de catégorie moyenne, ou même parfois de vieilles autos rafistolées – les salaires modestes des personnels de la recherche expliquant aussi en partie ce choix. Par ailleurs, l’absence de hiérarchie rend l’ambiance des laboratoires meilleure qu’elle ne doit l’être dans d’autres professions. Les vieux et les jeunes se côtoient sans complexe, le tutoiement est de rigueur, aucune contrainte vestimentaire n’y règne et il n’y a pas de différence entre chercheurs et techniciens4 . Mais tout cela ne nous empêche pas, comme les autres, d’éprouver par exemple une grande amertume lorsque nous avons le sentiment que nos idées ne sont pas reconnues à leur juste valeur ou lorsque nous voyons promus et honorés des condisciples plus jeunes sur des critères qui nous semblent arbitraires, et que nous avons l’impression d’avoir été oubliés injustement. Revenons maintenant à l’évolution de la recherche. Avant, la liberté d’esprit paraissait la condition essentielle d’une bonne recherche, astronomique du moins. Mais comme je l’ai dit, c’était une recherche artisanale que je décris plus loin (chapitre 2), à la règle et au crayon pour les théoriciens, et avec peu d’instruments pour les observateurs – quelques « petits » télescopes et la plaque photographique comme récepteur. Au demeurant, seuls les États-Unis disposaient d’un « grand » télescope il y a cinquante ans. L’astronomie française souffrait aussi d’une absence de programmation à l’échelle nationale, sans parler naturellement d’échelle européenne, car à l’époque chaque observatoire décidait lui-même entièrement sa politique scientifique. Sur le plan si précieux de l’efficacité, cette recherche était certainement moins productive qu’elle aurait dû l’être, en particulier par rapport aux pays anglo-saxons (j’en donnerai quelques exemples dans le livre). On connaît la célèbre phrase de De Gaulle : « Je ne veux pas des chercheurs, je veux des trouveurs » (je ne m’en souviens pas exactement, mais c’était l’esprit ; il l’avait en fait prise à Picasso, qui disait, lui, « Je ne cherche pas, je trouve ! »). L’imagination était donc une qualité essentielle pour un chercheur. Sans elle, il ne pouvait pas « trouver ». L’une des phrases les plus célèbres d’Einstein n’était-elle pas : « l’imagination est plus importante que le savoir » ? Mais son fonctionnement est difficile à comprendre. La découverte est fugitive sauf chez quelques êtres d’exception. Nous marchons tous par fulgurances, par intuitions soudaines qui nous viennent de recoupements et de résurgences non prévisibles, et il semble qu’une gestation plus ou moins longue soit nécessaire à la conception d’une idée. On compare parfois les chercheurs aux artistes. Je crois pourtant que la créativité artistique n’a pas grand chose à voir avec la créativité scientifique qui ne peut exister que dans le carcan de théories rigoureuses. Que les scientifiques aient parfois besoin de l’art pour que leur inventivité s’exprime mieux, c’est vrai. Ils sont fréquemment de bons musiciens (mais sauf dans de rares exceptions, comme William Herschel, ce sont des interprètes et non des compositeurs), parfois des peintres convenables, plus rarement des poètes. Et si l’on reprend la phrase de Claudel « l’ordre est le délice de la raison, le désordre celui de l’imagination », on en déduit qu’un 4

Je ne suis en fait pas certaine que tous les techniciens soient d’accord avec moi sur ce point. . .

xvi

Des quasars aux trous noirs

bon chercheur doit souffrir d’une sorte de schizophrénie qui l’écartèle en permanence pour réaliser une symbiose entre la science et la création. Il lui faut pouvoir abandonner son esprit au « désordre de l’imagination », mais savoir ensuite revenir dans le cadre austère de la logique et de la raison. Aujourd’hui, je constate avec regret que l’imagination n’est plus essentielle pour un scientifique. Car la vie d’un chercheur ne se réduit pas à trouver, comme je l’ai expliqué plus haut. Un temps considérable est consacré à la mise au point des projets, à la rédaction de rapports, à la préparation des expériences, au dépouillement des résultats. En astronomie du moins, les qualités les plus importantes me semblent être maintenant plutôt une grosse puissance de travail, une très bonne organisation avec une aptitude à savoir mener plusieurs activités différentes en même temps, une excellente mémoire et une grande capacité de synthèse. Il est évident qu’une recherche sans résultat n’a pas lieu d’exister. Mais on ne peut pas être trouveur sans être chercheur, même si ce que l’on trouve n’a pas toujours de rapport avec ce que l’on cherche. Einstein lui-même ne disait-il pas « Je cherche quand je veux, je trouve quand je peux ! » ? Et il ne faut pas oublier justement que, pour un Einstein qui a réalisé une construction admirable, plusieurs autres chercheurs remarquables, tels Poincaré, Lorentz ou Mach, avaient préparé le terrain. Et pour un Newton (qui, entre parenthèses, chercha vingt ans avant de trouver LA solution), combien d’autres ne produisent que de « petites » découvertes, ne révolutionnant pas la pensée ni même leur propre discipline. Cette recherche a pourtant aussi son importance, et c’est ce dont il faudrait convaincre les gouvernements qui voudraient limiter le corps des chercheurs à un très petit nombre de gens de niveau exceptionnel. Du reste, un travail de fourmi se justifie par un simple argument statistique : plus on obtient de résultats de toute nature, plus la masse de connaissances est importante et plus les fruits de la recherche risquent d’être intéressants. Car c’est la somme de minuscules découvertes accumulées qui constitue les fondations sur lesquelles un génie va peut-être bâtir sa théorie, ou dont va progressivement émerger la théorie entière. Un thème est récurrent, sous-tendant de plus en plus le financement des recherches : la « valorisation ». L’idée que la recherche fondamentale est inutile à la nation si elle n’a pas des applications directes est un lieu commun fréquemment entendu sous divers gouvernements. Je ne prendrai pas la peine de rappeler – car beaucoup d’autres l’ont fait mieux que je ne saurais le faire – qu’un pays perdant sa recherche fondamentale devient un pays sous-développé. De plus, le développement du savoir scientifique « pur », a priori non tourné vers les applications immédiates, a permis celui des techniques grâce auxquelles nos sociétés ont évolué. Mais cellesci ne sont pas prévisibles. Qui aurait en effet pu pressentir les transistors puis l’informatique à partir de la découverte des semi-conducteurs ? Et les centrales nucléaires à partir de la relativité générale et de la mécanique quantique ? Si Einstein n’avait pas trouvé « l’émission induite » du rayonnement, puis cinquante ans plus tard Kastler et Townes n’avaient pas étudié cet effet, nous n’aurions pas maintenant les lasers avec leurs utilisations multiples, entre autres en médecine. Sans oublier naturellement que la simple évolution des connaissances et la compréhension du monde dans lequel nous vivons a de tout temps constitué l’une des raisons d’être des hommes. Certes la science doit rendre des services directs à la société mais ce ne doit pas être son seul but. Plus que jamais donc, dans une société où la « rentabilité » est devenue la valeur importante, il faut montrer que l’on produit des résultats. Le travail du chercheur s’inscrit ainsi dans une course folle à la publication et à la publicité, le « savoir-dire » supplantant souvent le savoir-faire.

Introduction

xvii

De plus, il ne suffit pas de tenter d’expliquer un phénomène et d’en proposer des modèles pour avoir une chance d’être cru, il faut que ces modèles soient étayés par d’énormes calculs, quitte à en oublier les approximations accumulées et les hypothèses ad hoc utilisées. Il faut produire le plus d’articles possible5 , conjuguant parfois à l’infini les mêmes résultats. On a maintenant accès à des données beaucoup plus nombreuses et plus détaillées qu’il y a quelques décennies, mais on se dépêche de publier les conclusions d’une observation ou d’une expérience avant de les fiabiliser par d’autres observations ou d’autres expériences. Pour supplanter une équipe rivale, elles sont parfois mises sur Internet le jour même et sans attendre les rapports d’experts qui arriveront quelques semaines après, quitte à retirer alors l’article s’il se révèle faux. Dans le temps, chaque article longtemps mûri et difficilement édité (on n’avait pas alors les facilités données par les ordinateurs), contenait une part de découverte. La science est ainsi devenue terriblement technocratique, en partie par besoin de se rapprocher de l’industrie, pour être plus « rentable »6 . Et comme dans tout technocratisme, il faut chiffrer les choses, même celles qui ne le sont pas aisément. Une grande question, maintes fois débattue, est le problème de l’évaluation : celle des articles comme celle des chercheurs. Pour la première on a recours au système des referees (pardon pour ce mot anglais, des « rapporteurs »), qui sont en principe des personnes capables de porter un jugement expert et objectif sur l’article qu’on leur soumet. Mais plus la science progresse et se diversifie, plus elle devient affaire de spécialistes (on se rappellera l’adage : « un spécialiste, c’est quelqu’un qui sait de plus en plus de choses sur un sujet de plus en plus étroit, et à la limite quelqu’un qui sait tout sur rien »), plus ce système devient inapplicable. L’objectif d’un bon chercheur doit être de devenir le meilleur au monde dans son domaine, même étroit. Actuellement – ce n’était pas le cas il y a seulement vingt ans – le nombre de personnes capables de saisir dans un article l’importance des hypothèses sous-jacentes, de comprendre quelle place il a par rapport à ce qui a été publié avant, de vérifier la validité des calculs, se compte en général sur les doigts de la main. Souvent ce sont des amis de l’auteur (car on se connaît tous dans ce petit monde) soucieux de le préserver (même si l’anonymat est respecté, il est inévitable d’être plus indulgent avec un ami qu’avec un inconnu), ou au contraire des détracteurs qui ont leur théorie personnelle et ne croient pas à la sienne. Jugez alors du résultat... Pour l’évaluation d’un chercheur on utilise un ensemble de critères dont le plus important est maintenant « l’indice de citations », c’est-à-dire le nombre de citations des articles qu’il a publiés. Mais comment le définir ? Comment le corriger des multiples biais qui l’affectent ? Est-ce le nombre total de citations ou le nombre de citations par article qui compte ? Faut-il tenir compte du nombre d’auteurs ? Faut-il attribuer aux différentes revues un poids différent ? Et comment tenir compte des changements de noms des femmes, qui étaient courants dans le passé (je connais le problème) ? Ne faudrait-il pas accorder un poids différent aux citations d’articles anciens, ceux qui ont résisté à l’usure des ans, qui représentent vraiment une rupture dans la pensée ? Car, comme je l’ai dit plus tôt, des phénomènes de mode peuvent jouer. Enfin, 5 Les « articles » mentionnés ici ne sont bien entendu pas ceux que l’on trouve dans les journaux quotidiens ou hebdomadaires, ni même dans les revues de vulgarisation scientifique, mais ceux que nous publions dans des revues spécialisées, expliquant les résultats de nos recherches. 6

Signe des temps, et suivant les gouvernements, le ministère de la recherche n’est parfois plus lié à celui de l’éducation, comme cela semblait normal dans le passé, mais à celui de l’industrie ou de la technologie.

xviii

Des quasars aux trous noirs

le nombre de chercheurs est tellement plus grand que ce qu’il était dans le passé que toute comparaison entre articles anciens et récents sur le plan des citations perd son sens. Et puis les Anglo-Saxons ne citent quasiment que des Anglo-Saxons ou ne citent les Européens que s’ils ont été un moment leurs collaborateurs. J’ai ainsi découvert dans une histoire de l’astronomie de 1890 à nos jours7 , écrite par un Anglais, que moins d’une vingtaine d’astronomes français figuraient sur environ un millier ! Et pas nécessairement ceux que j’aurais attendus, ce qui prouve à quel point nous sommes méconnus. La même remarque peut être faite à propos de nombreux livres spécialisés. Doit-on en déduire que l’astronomie française ne vaut rien ? Est-il d’ailleurs indispensable qu’elle se coule dans le moule de la science anglo-saxonne, que les mêmes disciplines y soient développées ? Personnellement, je sais que je n’ai pas utilisé la bonne technique pour faire connaître mes recherches et, si c’était à refaire, j’éviterais les erreurs que j’ai commises tout au long de ma vie scientifique. Je ne suis pas allée assez souvent dans des congrès, et j’ai toujours eu de grandes difficultés à aborder des chercheurs étrangers pour leur raconter ce que je faisais, hormis lorsqu’on m’a invitée à donner un séminaire8 . Il me semblait qu’à partir du moment où les choses avaient été publiées, toute personne travaillant sur le même sujet était censée les connaître. C’est complètement faux, d’abord parce trop d’articles sont publiés pour qu’on puisse les lire tous à moins d’y passer un temps considérable (ce qu’il m’est arrivé de faire), ensuite parce que les publications européennes sont peu lues dans les pays anglo-saxons, même au le Royaume-Uni qui s’est toujours distingué des autres pays européens et qui a encore maintenant sa propre revue d’astrophysique. J’ai eu la surprise de découvrir un jour que la bibliothèque de l’Observatoire de Harvard aux États-Unis n’était même pas abonnée à la revue européenne Astronomy and Astrophysics ! On peut rappeler également que les travaux fondateurs de la cosmologie de Lemaître restèrent ignorés pendant plusieurs années, car il les avait publiés dans les Annales de la Société scientifique de Bruxelles, une revue encore moins connue à l’étranger que nos Comptes rendus de l’Académie des sciences. Il ne suffit donc pas de publier, il faut le contact direct car il est toujours préférable pour expliquer et justifier ses idées. Et j’ai constaté que mes articles les plus cités ne sont pas ceux que j’estime les meilleurs, mais ceux que j’ai écrits en collaboration avec d’autres personnes qui en ont assuré la promotion. De plus, j’ai toujours eu le tort de faire des articles longs et difficiles à lire. Or, on aime qu’un article soit simple et l’on pardonne mal un trop plein d’idées, surtout si certaines ne sont pas bien argumentées. Mon maître Évry Schatzman avait coutume de dire : « Un article doit contenir une seule idée, sinon personne ne le comprend. » Je n’ai jamais su appliquer ce précepte. Rien n’est plus difficile que l’évaluation d’un travail de recherche. Tout au plus peut-on repérer si quelqu’un est exceptionnel, ou bien s’il ne fait quasiment rien. Pour le reste, la masse, seul le temps pourra dire quelle est la valeur du travail effectué, et je crois qu’aucun système ne puisse le remplacer. L’évaluation est sûrement encore plus difficile si les médias y mettent leur nez. Souvent, je me pose la question de ce qui surnagera dans cinquante ou cent ans de toutes ces publications et je souhaiterais pouvoir être encore là pour le savoir. . . Je pense que des articles presque ignorés, parce que trop en avance sur leur temps, auront peut-être le plus grand impact, mais de façon indirecte. Là aussi nous en verrons des exemples plus loin. Et sur ce plan, 7

A History of Astronomy from 1890 to the Present, par David Leverington, éditeur Springer.

8

C’est le terme employé pour désigner une conférence sur un sujet spécialisé dans un laboratoire de recherche.

Introduction

xix

nous sommes probablement mieux nantis encore dans les sciences fondamentales que dans la recherche appliquée industrielle où des progrès importants effectués par des ingénieurschercheurs de grande valeur restent totalement inconnus et non publiés jusqu’à la réalisation industrielle finale, car leurs résultats doivent rester secrets. Parlons aussi de l’administration. Désormais, elle est omniprésente. Certes, il y avait moins de chercheurs à gérer dans le passé, mais il y avait également moins de moyens informatiques or ceux-ci devraient simplifier considérablement la vie. Pourquoi faut-il que nous fassions je ne sais combien de rapports chaque année, chacun différent par la longueur ou par la période (à un an, à deux ans, à quatre ans. . . ), de prospective ou d’activité passée, répondant à des questionnaires aux formes diverses, pour plusieurs organismes différents, alors qu’une organisation intelligente pourrait certainement prendre en charge une base de données communes ? Pourquoi faut-il que ces rapports nous soient en général demandés la veille du jour où ils doivent être déposés ? Pourquoi est-il si difficile d’organiser un congrès, pourquoi tant de chicaneries pour se faire rembourser un voyage en France au taux mirifique de 68 euros par jour (au moment où j’écris ce livre), alors qu’on connaît les taux de paiements des « frais de missions » dans les grandes entreprises privées ? Il y eut même une époque où nous devions justifier de n’avoir pas été invités à manger chez des amis ! L’emprise de l’administration est probablement de plus en plus prégnante également dans d’autres domaines que la recherche, mais je crois qu’elle est devenue encore plus envahissante chez nous parce qu’on estime sans le dire que les chercheurs sont des personnes irresponsables, auteurs de gabegie financière. Le développement de cette administration tentaculaire conduit à une demande de plus en plus grande de directeurs et sous-directeurs de divers instituts, de chargés de mission à tous les niveaux, d’experts dans les multiples commissions qui se créent de tous côtés. Les chercheurs encore jeunes deviennent donc des administrateurs, souvent à vie (c’est parfois le meilleur moyen pour obtenir une promotion). Et il est bien dommage que des chercheurs brillants aient ainsi été perdus pour la science pour avoir été gagnés par l’administration. Souvent ceux qui choisissent cette voie parce qu’ils désirent que l’institution soit parfaite, efficace, juste, économe de son énergie et de ses moyens, et qu’ils se jugent capables de la modifier, déchantent rapidement en s’apercevant du peu de prise qu’ils ont face au poids des politiques, de la routine et des lourdeurs administratives dans lesquelles ils s’engluent eux-mêmes. Comme je l’ai dit, l’atmosphère est en général très bonne dans les laboratoires (le mien, en tout cas !). Mais ceci ne nous empêche pas de souffrir d’une dégradation de l’ambiance au sein de la profession dans son ensemble, due évidemment à la compétition extrême pour la manne financière et à la diminution du nombre de postes et de promotions. On entend maintenant de tous côtés, dénigrer les collègues et fuser les critiques dans les couloirs (car dans les réunions c’est plutôt la langue de bois qui a cours). Aux chercheurs qui refusent de participer à la gestion de leur communauté scientifique, on reproche de rester dans leur tour d’ivoire et de profiter des autres. À ceux qui prennent au contraire des responsabilités, on reproche leur goût du pouvoir. Ceux qui cherchent l’explication d’un phénomène sans se préoccuper de temps ni de nombre de publications, on les accuse de ne pas être efficaces. Ceux qui ne dissimulent pas les points faibles de leur recherche et les raccourcis auxquels ils ont été obligés de recourir, qui ne publient leurs résultats que lorsqu’ils sont parfaitement sûrs de leur fiabilité, sont ignorés ou même méprisés à moins que, miracle, on ne découvre un jour la validité de leurs travaux par rapport à d’autres plus sensationnels mais faux. Leur avis ne sera jamais demandé même pour les décisions concernant leur propre domaine. Ceux qui ne se préoccupent pas de promotions

xx

Des quasars aux trous noirs

ou d’honneurs, ou qui sont trop fiers ou trop modestes pour les demander, on ne viendra pas les chercher, trop content d’avoir un problème de moins à résoudre, en les oubliant à moins qu’un ami bien placé ne vienne rappeler leur existence. Je précise ici que je ne parle pas pour moi car j’estime avoir toujours eu beaucoup de chance dans ma carrière et peut-être le fait que je sois une femme, dans un milieu particulièrement sensible à ce problème, m’a-t-il servi. Je le dis sachant que je vais m’attirer quelques hauts cris. . . La culture des médias a aussi tendance à imprégner de plus en plus la recherche. On m’objectera qu’étant une activité coûteuse, celle-ci doit justifier son intérêt auprès des payeurs, les contribuables. Et pour cela, on doit la populariser, la rendre accessible à tous et faire connaître ses résultats. C’est vrai. Je me souviens avoir entendu, il y a une vingtaine d’années, une journaliste scientifique connue (disparue depuis) reprocher aux astronomes français de ne pas sacrifier un peu de leur temps à cet exercice indispensable. On peut dire qu’elle a été entendue et même au-delà de ses espérances, car il me semble que l’astronomie souffre maintenant d’un trop plein de publicité. Les annonces à grand bruit, par les astronomes professionnels eux-mêmes (il faut reconnaître que les Américains nous surpassent dans ce domaine) de telle ou telle découverte extraordinaire démentie un an plus tard par des études sérieuses9 ou qui tout simplement n’est pas la « révélation du siècle » comme on la présente, contribuent à développer un climat sensationnaliste n’ayant que peu de chose à voir avec la véritable recherche qui, elle, se fait en silence. On me dit souvent que c’est un mal nécessaire car cela donne à beaucoup de gens, en particulier aux jeunes, le désir d’en savoir plus et peut-être plus tard de se diriger eux-mêmes vers la recherche. Mais est-il vraiment souhaitable qu’ils y soient attirés sous des prétextes fallacieux ? Ils s’exposent à de cruelles désillusions par la suite. . . Et comment communiquer d’une façon attrayante, dans une émission de télévision ou de radio de quelques minutes, une réalité ardue sous-tendue par un corpus de connaissances acquises au fil de nombreuses années ? Est-ce vraiment possible sans donner une image complètement dévoyée de la science ? Car nous sommes de plus en plus entourés d’outils dont nous ignorons le fonctionnement, la frontière entre la science et le magique, entre le réel et le virtuel, devient de plus en plus imprécise. Certains vulgarisateurs profitent de cette attirance du public pour les grandes idées floues. J’ai vu ainsi des émissions de télévision sur des sujets difficiles, en forme de « clips » mélangeant hardiment images de synthèse et images réelles sans le mentionner, baignant dans une musique futuriste, bourrées de grands mots, apparemment très séduisantes pour le grand public, mais pratiquement incompréhensibles pour moi qui connaissais pourtant un peu le sujet. Ceux qui savent combiner la simplicité avec la rigueur sont rares mais heureusement il y en a quelques-uns. Il faudrait prendre le temps d’expliquer longuement, ne pas s’en tenir aux faits surtout lorsqu’ils sont difficiles à comprendre, mentionner les raisonnements qui ont conduit aux conclusions, montrer les limites des connaissances. Et tout ceci sans pour autant rentrer dans la problématique du « tout est possible, rien n’est prouvable » prônée par certains épistémologues, credo de quelques chercheurs et de la plupart de ceux qui n’ont jamais tâté de la recherche, ouvrant la voie à toutes les dérives. Il permet de refuser les théories fondées sur de multiples 9

Je pense par exemple à la découverte fausse de traces de vie sur une météorite d’origine martienne, annoncée à grand renfort de publicité par la NASA, mais on pourrait donner des dizaines d’exemples semblables dans le passé proche.

Introduction

xxi

prédictions vérifiées au bénéfice d’autres dont l’attrait essentiel est de ne pas être acceptées par la plupart des spécialistes. Il est de bon ton en effet d’accuser la science d’être trop « orthodoxe », relayé en cela par des médias toujours à l’affût de sensationnel. Et comme je l’ai dit plus haut, la science est difficile à défendre sans entrer dans des explications trop spécialisées et rébarbatives. De plus la croyance qu’il pèse sur elle la chape de plomb d’une « science officielle » interdisant les idées nouvelles et révolutionnaires a été répandue depuis des décennies dans le public par des gourous, promoteurs de magie et de fausses sciences. Une spécificité de l’astronomie par rapport aux autres sciences « dures » est de fasciner un public non scientifique, probablement parce qu’elle nous renvoie à nos origines et qu’elle nous interpelle sur le sens du temps et de l’espace. Elle touche également une importante population d’astronomes amateurs, dont certains sont étonnamment férus de toutes les découvertes récentes. Il existe donc de nombreuses revues de vulgarisation d’astronomie et nous sommes amenés à avoir fréquemment des relations avec les journalistes. Elles ne sont pas toujours simples. Ils nous reprochent notre langage lourd et trop spécialisé, notre réticence aux analogies ou aux raccourcis, notre absence de recul. Nous leur reprochons leur superficialité, leur impatience, leurs exagérations, d’avoir toujours des impératifs de temps (qui les empêchent par exemple de faire relire un article avant sa publication) et de nous considérer parfois comme étant à leur service. J’ai eu ainsi dans les années soixante-dix une très mauvaise expérience avec un journaliste scientifique connu, qui m’a traitée littéralement comme son larbin (ainsi d’ailleurs que mes collègues à qui j’avais demandé des photos pour illustrer son article). Ayant passé de nombreuses heures avec lui et pour lui, je n’ai même pas eu droit à un remerciement. Cette affaire m’a laissé un goût amer et m’a tenue éloignée des journalistes pendant un certain temps. Mes expériences récentes ont été meilleures. J’ai l’impression qu’un modus vivendi plus correct s’est établi entre eux et les chercheurs et qu’une sorte de charte implicite est désormais respectée des deux côtés. Il est aussi fort courant de nos jours de recevoir des lettres (ou plus souvent des « courriels ») annonçant une découverte révolutionnaire, remettant par exemple en cause la relativité générale. Et ceci est affirmé sans aucune preuve par des personnes n’ayant pas conscience de la somme d’efforts, de vérifications, de lectures, que représentent actuellement l’analyse des observations ou la mise au point d’un modèle ou d’une théorie, surtout lorsqu’elles conduisent à des résultats importants. Il est très difficile alors de convaincre l’auteur que sa théorie ne rend pas compte de diverses observations, ou simplement qu’elle contient une erreur. Et souvent, on abandonne après des semaines de discussions, persuadé que l’auteur affirmera partout être un « incompris » que les scientifiques refusent d’écouter parce qu’il les gêne. J’ai entendu récemment quelqu’un faire une comparaison excellente entre les chercheurs et les amateurs éclairés non-chercheurs : il les assimilait respectivement à des musiciens et à des mélomanes. Il est nécessaire de faire beaucoup de gammes pour être un bon musicien mais ce ne l’est pas lorsqu’on est seulement un mélomane, même excellent. Eh bien, il faut accepter qu’on ne peut se passer de gammes si l’on veut être un acteur de la science et pas seulement un observateur de son évolution. Il faut aussi se méfier des modes fabriquées par de brillants scientifiques, éloquents avocats de leur propre cause, qui peuvent entraîner toute une génération dans une direction fausse. Car en science, disait Galilée, « l’autorité d’un millier n’est pas plus importante que l’humble raisonnement d’un simple individu ». Comment savoir alors où est la vérité, sur des sujets où les spécialistes se déchirent ? Elle finira par s’imposer à force de tests et de vérifications, de

xxii

Des quasars aux trous noirs

discussions, de temps et de patience. Mais il ne faut pas vouloir aller plus vite que la chanson, comme on dit. Ce que j’ai montré jusqu’ici, c’est plutôt le côté négatif de l’évolution de la recherche – telle que je la perçois personnellement. On me dira que la critique est aisée, mais qu’ai-je à proposer comme alternative ? Clairement aucune, car la recherche suit en cela la marche en avant de nos sociétés développées. C’est simplement moi qui ne suis plus adaptée à ce type de fonctionnement. De plus, tout ne doit pas être mauvais dans cette évolution, puisqu’en dépit des défauts que je viens de stigmatiser, la science avance, elle avance même terriblement bien ! Car cette révolution dans les méthodes a naturellement ses bons côtés. En astronomie, des découvertes extraordinaires ont été réalisées depuis deux ou trois décennies grâce aux « grands projets », à une bonne programmation, à cette efficacité si recherchée. De plus, les ordinateurs et plus tard l’Internet ont profondément modifié la vie des chercheurs, accélérant nos possibilités de calcul par des facteurs mille, dix mille, même des millions, permettant de développer les collaborations internationales « on line » comme on dit, et d’accéder aux informations pratiquement au moment même où elles sont obtenues. Les observations par satellites se sont généralisées, les améliorations des instruments de mesure ont multiplié fabuleusement nos capacités de sondage de l’Univers. Et plus que jamais on sent que de grandes découvertes sont imminentes. Mais il me semble (et je sais qu’en énonçant cela, je vais encore m’attirer les foudres de quelques collègues) que la science – dans le sens de la compréhension des phénomènes et non dans celui qui lui est souvent substitué de l’évolution des techniques, ou même de la technologie – évolue beaucoup moins vite qu’on ne le pense et qu’il est même parfois surprenant de voir à quel point elle se développe lentement. Une recherche très active dans un domaine pendant un temps court peut donner l’illusion que le progrès est rapide, mais moyenné sur le temps il est lent. Il a une tendance globale à monter, avec des fluctuations en dents de scie créées par un afflux brutal de nouvelles données ou par des modes, le deuxième processus étant souvent conséquence du premier. Et si l’on remonte dans le passé on s’aperçoit, comme je l’ai dit au début de ce chapitre, que la science bégaye et que souvent des idées « nouvelles » ont germé vingt ou trente ans avant qu’on commence à les prendre en compte, mais que personne ou presque n’y a prêté attention alors qu’elles auraient dû être le point de mire de tous les regards. Bien sûr, on fait actuellement des découvertes bien plus nombreuses qu’il y a un siècle. Mais si l’on y regarde de plus près, en combien de temps se produisent les véritables grandes avancées ? On sait depuis une trentaine d’années que l’Univers est rempli de « matière noire », mais on n’a pas encore la moindre idée de sa nature. On commence seulement à comprendre comment évoluent les galaxies, mais on ne sait toujours pas comment se forment les étoiles ni les systèmes planétaires. Pendant trente ans, on a pensé que les galaxies, ces amas de dizaines de milliards d’étoiles, changeaient de forme, puis on les a cru immuables pendant trente autres années et ce n’est que depuis vingt ans environ qu’on sait qu’elles se transforment au cours du temps. Pendant les trente dernières années, le dogme de la matière noire « non baryonique » a été fortement implanté et il commence à être remis en cause aujourd’hui. On voit bien ici quel est le temps nécessaire pour un changement radical des idées, et que toute progression importante demande des dizaines d’années, exactement comme au début du xxe siècle. Et même si cent articles sont publiés quand il n’y en aurait eu qu’un seul alors, chaque concept n’avance pas plus vite. Mais il y a un siècle, on se posait tout au plus deux ou trois questions fondamentales (en astronomie : quelle est la dimension de la Voie lactée, y a-t-il d’autres objets

Introduction

xxiii

comme la Voie lactée dans l’Univers, quelle est la source d’énergie des étoiles... ?) et l’on s’en pose actuellement un bien plus grand nombre. Ayant suivi moi-même, en tant que chercheur, pendant presque cinquante ans l’évolution de l’astronomie, c’est à elle que je vais m’attacher dans ce livre en retraçant l’histoire d’une recherche spécifique et en montrant les erreurs qui jalonnent son parcours. J’ai décidé de prendre prétexte de mon sujet de travail, les quasars et les objets apparentés, pour écrire une « histoire de l’histoire des quasars » qui décrirait la genèse d’un sujet en suivant le développement chronologique des découvertes et des idées, en exposant les crises qu’il a traversées, les passions qu’il a déchaînées et les erreurs qui ont été commises à son propos. J’ai en effet eu la chance d’assister à cette aventure fascinante car elle s’est déroulée au cours de ces quarante dernières années qui ont été également celles de ma vie scientifique. Ce faisant, j’espère parvenir à montrer comment s’effectue la recherche et comment elle a évolué au cours du dernier demi-siècle. On y verra que beaucoup de découvertes ont été réalisées par hasard, certaines trop tôt par rapport à l’avancement des idées. En revanche, de nombreuses observations entreprises pour prouver la validité d’une théorie n’ont pas été couronnées de succès. Des idées importantes et prémonitoires ont été négligées et redécouvertes dix ou vingt ans plus tard. D’autres idées ont été de véritables articles de foi un certain temps, puis ont été prouvées fausses et abandonnées, pour enfin être complètement oubliées ensuite. De violentes controverses ont été entretenues pendant plusieurs années par l’absence d’observations déterminantes. Et lorsque ces observations ont été réalisées, elles n’ont pas toujours réussi à convaincre ceux qui s’étaient consacrés à une hypothèse fausse. De mauvais arguments ont été parfois donnés avec des conclusions justes et réciproquement. Je montrerai aussi combien les interprétations que nous donnons d’un phénomène et même la simple lecture que nous faisons des données, peuvent être le résultat de nos présupposés, qu’ils soient philosophiques ou scientifiques. À l’inverse, je dirai la beauté des découvertes qui illuminent soudain par leur évidence. Je raconterai comment des chercheurs exceptionnels et opiniâtres se sont consacrés à prouver une théorie parfois envers et contre tous, et qu’ils y sont parvenus. Je montrerai les progrès presque incroyables réalisés en quelques décennies. J’expliquerai comment un problème surgi complètement par surprise il y a quarante ans, qui a donné lieu à d’énormes débats et qui a été en grande partie incompris pendant presque vingt ans, est maintenant résolu pour l’essentiel en dépit de sa prodigieuse complexité. Et l’on verra également qu’en dernier recours, la rigueur finit toujours par triompher et la vérité par s’imposer. Je montrerai que la science progressant par la recherche, et celle-ci étant faite par des hommes et des femmes, souffre de toutes les faiblesses humaines, mais qu’elle en possède également toutes les grandeurs. Naturellement, il me sera très difficile d’éviter les digressions car une science est un tout et le développement d’une discipline dépend toujours des autres et rejaillit sur elles. De plus, comme je l’ai dit, les quarante dernières années ont vu une mutation de l’astrophysique et nous avons dû opérer de véritables bouleversements de nos systèmes de pensée. Il sera nécessaire de les mentionner, mais j’essaierai toutefois de m’en tenir au sujet que j’ai choisi : outre que c’est presque le seul que je connaisse « de l’intérieur » et non en simple observatrice, il me semble assez captivant en soi. Les quasars, découverts par hasard il y a quarante-cinq ans grâce à la radio-astronomie conjuguée à l’astronomie optique, sont encore à l’heure actuelle les astres les plus lumineux

xxiv

Des quasars aux trous noirs

et les plus distants de l’Univers10 . Leur puissance vertigineuse atteint celle d’un amas de plusieurs milliers de galaxies et elle est produite dans une région minuscule dont la dimension n’est que le milliardième de celle d’une galaxie. On conçoit donc aisément combien ils ont suscité d’intérêt, tant par les phénomènes extraordinaires qui y sont en jeu, que par leurs distances qui en font des sondes de l’Univers lointain et de son passé. Ils ont engendré des controverses passionnées où les lois de la physique ont été remises en cause. Ils donnent lieu à plusieurs grands congrès chaque année dans le monde. Plus d’une centaine de livres, des dizaines de milliers d’articles ont été publiés à leur sujet et, encore maintenant, il ne se passe pas un jour sans qu’il n’en paraissent plusieurs. Les plus grands télescopes leur ont consacré leurs plus belles nuits, certains ont même été entièrement dédiés à leur observation. Et comme nous allons le voir, cet énorme travail a débouché finalement sur un modèle physique cohérent et sur une vision nouvelle de l’évolution des galaxies. Malgré cela, les quasars recèlent toujours de nombreux secrets et leur mystère n’est pas encore totalement percé. C’est donc à cette grande saga que j’aimerais faire participer le lecteur. J’ajoute que ce livre est écrit au fil de la plume, mêlant aux paragraphes scientifiques quelques souvenirs personnels ainsi que mes réflexions sur le métier de chercheur (pas forcément orthodoxes, on le devine !). Il ne faut donc absolument pas s’attendre à trouver ici un exposé structuré ou exhaustif.

10

On annonce régulièrement la découverte de galaxies plus éloignées que les quasars, mais pour le moment aucune d’elle n’a été confirmée définitivement. Et surtout, elles sont loin d’atteindre la puissance des quasars.

Chapitre 1

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960 Je voudrais expliquer d’abord comment je suis devenue chercheuse en astrophysique, car c’est une question que l’on me pose souvent. Dans ma prime jeunesse, j’avais envisagé successivement plusieurs métiers : la musique, puis le théâtre. Mais, dans les deux cas, j’étais handicapée par une absence de mémoire pathologique, et surtout une impossibilité de me produire en public sans perdre parfois tous mes moyens, en prenant brutalement conscience de me trouver dans une situation anormale. Je suis alors incapable du moindre souvenir et je demeure presque en état de léthargie. Par chance, cela ne m’arrive pas lorsque je fais un exposé scientifique, car mon sujet m’habite alors tellement que je ne prends même plus garde à la présence des autres. Ma passion refoulée pour le théâtre, je peux donc l’exercer un peu dans mes interventions scientifiques. Je ne suis pas la seule et certains de mes collègues sont de bien plus remarquables acteurs et leurs conférences sont de véritables pièces avec coups de théâtre et même coups de gueule, qu’on écoute et qu’on regarde avec fascination. J’ai donc toujours été incapable d’apprendre « par cœur ». Ce n’est pas grave dans la recherche scientifique, car il suffit de se rappeler le fil d’un raisonnement, mais pas nécessairement les détails. En ce qui me concerne, je me souviens assez bien de ce que je lis lorsque cela m’intéresse, et c’est ce qui compte dans un travail de recherche. C’est donc en partie mon absence de mémoire qui m’a conduit à choisir une voie scientifique. À l’école la seule

2

Des quasars aux trous noirs

matière que j’assimilais sans problème était les mathématiques. Je trouvais que tout coulait de source et qu’il n’y avait rien à retenir. Tandis que les autres matières, que j’aimais pourtant, me demandaient des efforts démesurés à cause de la mémorisation qu’elles nécessitaient. L’idée de mon métier futur s’imposa comme une évidence à l’adolescence. Je venais de lire la biographie de Marie Curie écrite par sa fille Eve. Cette émigrée polonaise qui devint chercheuse et parvint à dominer la physique et la chimie dans un monde occidental et masculin était une figure emblématique pour mes parents, tous deux émigrés d’Europe centrale. Mon père avait toujours regretté de ne pas avoir fait de la recherche. Ce métier était donc devenu un mythe pour moi. Je décidai que je serais chercheur en physique. Dans le seul collège d’enseignement général public de la petite ville où je vivais, j’avais fait des études secondaires « classiques », considérées à l’époque comme plus valorisantes que les études scientifiques (quelle ironie lorsqu’on songe à l’excès d’importance qui fut accordé ensuite aux mathématiques, après l’introduction des « maths modernes » dans les programmes des écoles). C’était un « collège de jeunes filles », le lycée étant à cette époque réservé aux garçons. Comme il n’y avait pas de terminale scientifique au collège de filles, il me fallut pour ma dernière année aller dans le lycée de garçons en « math élem », comme on l’appelait, où nous étions trois filles pour trente garçons. Le choc fut rude. Il faut en effet réaliser qu’à cette époque, nous, les filles, n’avions pas le droit de venir au collège avec des bas et du rouge à lèvre, même dans les classes terminales. Et les garçons et les filles surpris à fricoter ensemble étaient tout bonnement expulsés. Mai 68 était encore loin. . . Je passais mon baccalauréat en 1955 et, comme j’étais bonne élève, j’aurais dû logiquement faire « math sup » et « math spé ». De fait, on m’inscrivit à Paris au lycée Fénelon, qui fournissait à l’époque l’essentiel des promotions de l’École normale supérieure de filles de Sèvres. Mais j’avais pris en horreur cette vie de lycée1 et de plus je ne voulais absolument pas être interne. La veille de la rentrée je décidai d’aller à l’université et je convainquis mes parents, qui cédaient malheureusement à tous mes caprices (en avance en cela de pas mal d’années sur leur temps). De surcroît l’université semblait à l’époque, 1 On nous rebattait d’ailleurs les oreilles avec les « horreurs » qui se passaient en classe préparatoire, les « colleurs » allant jusqu’à gifler les mauvais élèves et les traiter de noms d’oiseaux. Je crois que c’était vrai dans certains lycées jusqu’au début des années soixante.

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

pour les provinciaux que nous étions, préparer aussi bien et même mieux à une carrière de recherche que l’École normale. Il était en effet encore peu courant de ne pas suivre la filière enseignement après l’École normale, cela s’est généralisé seulement dans les années soixante. Ce que je ne réalisai pas, c’est que les deux années de classes préparatoires représentaient un acquis inégalable pour des études ultérieures et a fortiori pour la recherche. En 1956, je passais ma « propédeutique », « Math-Physique-Chimie » (MPC). C’était d’ailleurs une erreur de plus, car pour faire de la recherche en physique, il aurait été préférable de suivre « mathématique générale » ; j’en ai gardé une faiblesse en mathématiques qui m’a handicapée toute ma vie. À cette époque, une grande partie de l’enseignement supérieur en France était localisée à Paris, la décentralisation n’étant pas encore à la mode et seules les grandes villes de province – les chefs-lieux d’académie – possédant une université. Il y avait également très peu de « grandes écoles » en dehors de la région parisienne. Et pratiquement tout l’enseignement supérieur y était concentré dans le « quartier latin », autour du boulevard Saint-Michel. Il rassemblait l’université (la Sorbonne), à la fois faculté de lettres et faculté de sciences (la faculté de droit étant séparée et située un peu à l’écart, rue d’Assas), l’École normale supérieure de garçons de la rue d’Ulm (à l’époque les Écoles normales étaient sexuées – Ulm et Saint-Cloud pour les garçons, Sèvres et Fontenay pour les filles – Saint-Cloud et Fontenay étant plutôt réservées aux meilleurs élèves des écoles normales d’instituteurs qui se destinaient à être professeurs), l’École polytechnique, l’École des mines, et les grands lycées comme Henri-IV, Louis-le-Grand, SaintLouis pour les garçons et Fénelon pour les filles. C’étaient les restaurants universitaires qui manquaient le plus dans ce quartier. Les étudiants se pressaient en queues interminables à l’entrée des deux plus proches, ceux de l’École des mines et du foyer Concordia, pour y manger une nourriture suffisante mais très mauvaise, les haricots et les lentilles constituant l’essentiel des menus. La population du quartier était très jeune et presque exclusivement estudiantine, et les rues étaient pleines de librairies, de petits cafés et de centres de réunions, qui bruissaient de discussions scientifiques, littéraires et politiques. Ce n’est pas sans nostalgie que je déambule maintenant dans les rues dominées à présent par les magasins de prêt-à-porter et de « high tech ». Un cinéma, le Champollion, projetait des films en permanence, ce qui était nouveau à l’époque, et dans de petits théâtres comme la Huchette et la Michodière, étaient

3

4

Des quasars aux trous noirs

jouées des pièces « révolutionnaires », par exemple la Leçon et la Cantatrice Chauve d’Ionesco : elles ont été données en continuité dans le même théâtre pendant cinquante ans. Je les ai vues pour la première fois en 1957. Très vite, je compris que je ne pourrais pas suivre les cours. Ils avaient lieu dans un amphithéâtre de quinze cents places et il fallait arriver deux heures avant si l’on voulait être assis dans les premiers rangs, ce qui m’était indispensable à cause de ma mauvaise vue. De plus, l’enseignement de MPC avait été ouvert cette année-là à des sous-officiers de l’armée française de retour d’Indochine qui voulaient devenir officiers et qui constituaient environ la moitié de l’amphi. Ils étaient bruyants et phallocrates (rappelons que les filles subissaient souvent à cette époque les quolibets de leurs camarades mâles, dans des conditions qu’on qualifierait maintenant de « harcèlement sexuel »). J’ai donc décidé d’apprendre dans les livres et les polycopiés, délaissant même les séances de « travaux dirigés ». Une amie me passait ses notes. J’ai appliqué plus tard ce système à toutes mes études, à l’exception des cours d’astronomie et de mon « diplôme d’études approfondies ». C’est en fait une très mauvaise solution, car il y manque la motivation et le contact avec les autres étudiants et avec les enseignants. Par conséquent, je ne suis à l’aise que dans les domaines que j’ai pratiqués pour ma recherche ou pour mon enseignement ou que j’ai appris depuis. Après mon année de MPC, mes études furent très perturbées. Je les abandonnai complètement et je ne me présentai pas aux examens pendant deux années. D’autres aspects de l’existence, comme la politique, m’attiraient. Je me mariai avec l’un de mes camarades, Pierre Souffrin. J’avais décidé de demander un poste de technicienne dans la recherche scientifique, ce qui était effectivement possible avec un simple certificat de propédeutique. Je pris rendez-vous avec Alfred Kastler qui me reçut avec une très grande affabilité (il n’avait pas encore obtenu le prix Nobel à cette époque, mais il a gardé toute sa vie cette grande gentillesse et cette écoute des jeunes). Il me répondit qu’effectivement je pourrais immédiatement avoir un tel poste, qu’ainsi je participerais certes à des programmes de recherche, mais que je n’y conduirais pas ma propre recherche, et il me poussa à reprendre mes études. Je suivis ce conseil et passai l’année suivante, en 1959, ma licence de physique (qui s’est appelée ensuite et pendant longtemps la maîtrise, avant de devenir récemment la première année de master). Pierre Souffrin fut recruté en 1958 comme stagiaire au CNRS à l’Institut d’astrophysique de Paris dont je vais parler

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

longuement plus loin. Par ailleurs, j’avais lu avec passion au début des années cinquante des livres de vulgarisation sur l’astronomie. J’avais également découvert l’astronomie avec un livre d’Évry Schatzman, Origine et évolution des mondes, qui faisait le point sur ce que l’on savait à l’époque de la formation et de l’évolution des étoiles, du système solaire, et même de la cosmologie, à un niveau qu’on appellerait « de troisième cycle ». Je décidai de choisir l’astrophysique comme spécialité. Je passai un certificat d’astronomie appelé « astro 2 », qui était un diplôme d’études supérieures (l’équivalent actuel des DESS, je pense). Les premiers diplômes d’études approfondies, ou DEA comme on les appela plus tard, venaient d’être créés (à l’époque on les appelait « certificats de troisième cycle » : c’est l’équivalent actuel de la deuxième année de master). En septembre 1959, je commençai celui de « physique des gaz ionisés » qui devait me préparer assez bien à un travail en astrophysique théorique pour lequel il n’existait pas encore de DEA spécifique (il ne fut créé que quelques années plus tard). Je fus reçue première, mais je n’y avais pas beaucoup de mérite car l’emploi du temps n’était pas surchargé comme il l’est actuellement, et de nombreux étudiants de ce certificat étaient des ingénieurs déjà nantis d’un métier ; j’avais donc beaucoup plus de temps qu’eux à consacrer aux cours. Je pouvais désormais envisager un avenir dans la recherche. Je n’ai donc pas été, comme beaucoup d’astronomes professionnels, de ces ardents « amateurs » construisant dès l’adolescence leur propre télescope et profitant de chaque belle nuit pour observer les planètes ou les étoiles. Cela ne manque pas de susciter l’étonnement, lorsqu’un auditeur me demande dans une conférence où se trouve la constellation du Scorpion, ou bien quelle est la phase de Vénus, que j’ignore totalement. J’essaye alors d’expliquer que l’astrophysique fait partie des sciences physiques, et qu’il n’est pas nécessaire pour l’exercer de savoir où sont placés les astres dans le ciel, mais je crois que mon prestige s’en trouve fortement écorné. Là-dessus un poste d’assistante en astronomie vint à se libérer à la Sorbonne. Il devait être pris par l’épouse d’un radio-astronome, James Lequeux. Elle venait de passer son agrégation de physique et au dernier moment, elle préféra aller dans l’enseignement secondaire. Je lui en sais gré ! Ce n’était pas encore un poste permanent car je devais remplacer un autre assistant, Jean-Paul Zahn – il devint mon mari trentecinq ans plus tard – qui partait pour deux ans et demi faire son service militaire (la durée du service pendant la guerre

5

6

Des quasars aux trous noirs

d’Algérie). Alors qu’il effectuait sa licence de physique à l’École normale, Jean-Paul avait rencontré Évry Schatzman et celui-ci lui avait donné comme sujet de diplôme d’études supérieures la construction d’un spectrographe pour l’observation des étoiles jeunes. Jean-Paul, étant un astronome amateur passionné, se destinait en effet aux observations, ce qui est assez comique lorsque l’on sait qu’il est devenu par la suite un théoricien pur et dur. Il fut donc chargé par Évry Schatzman de mettre sur pied une série de travaux pratiques, ou « TP », pour le certificat d’astronomie de licence. Lorsque j’arrivai, ces TP étaient presque au point et je n’avais plus qu’à prendre le relais. Les cours d’astronomie et les TP avaient lieu à l’Institut d’Astrophysique et non à la Sorbonne, trop engorgée. Tout étudiant ou jeune chercheur lisant actuellement ces lignes doit être stupéfait que j’aie pu interrompre ainsi mes études pendant deux ans et néanmoins entrer dans l’enseignement supérieur à vingt-deux ans à peine, à la sortie d’un simple certificat de troisième cycle, avant d’avoir accompli le moindre travail de recherche (nous n’avions même pas de stage comme ce fut le cas pendant les DEA, et maintenant au cours des deux ans de master). Il est impensable à l’heure actuelle d’obtenir un poste permanent dans la recherche publique ou dans l’enseignement supérieur avant d’avoir soutenu une thèse, voire avant plusieurs années de « post-doc » suivant la thèse, c’est-à-dire après avoir eu un emploi provisoire dans un laboratoire de recherche, en général à l’étranger. Il faut toutefois noter que les « bourses de thèse » n’existaient pas encore, que le salaire d’un jeune attaché de recherche ou d’un jeune assistant à l’université était à peu près égal à une bourse (soit le SMIC actuel), et que la thèse elle-même durait bien plus longtemps qu’actuellement. C’était en effet l’époque bienheureuse de l’expansion, des « Trente Glorieuses » comme on a appelé ces années-là. Le chômage n’existait pas. La recherche se reconstituait sous l’impulsion de Mendès-France, puis, après 1958 sous la houlette de De Gaulle qui considérait qu’un grand pays se doit d’avoir une grande recherche. Cet âge d’or se prolongea jusqu’au milieu des années soixante-dix lorsque l’économie commença à entrer en récession après la crise du pétrole (Encadré 1.1).

Encadré 1.1. Postes permanents ou provisoires pour les jeunes chercheurs On entend souvent que c’est une erreur de nommer à un poste permanent de recherche une personne trop jeune,

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

ignorant si elle est effectivement douée pour ce travail. « Regardez les autres pays », nous rappelle-t-on (en fait, ce sont surtout les pays anglo-saxons), « les chercheurs ou les enseignants-chercheurs n’y obtiennent jamais un poste permanent avant au moins trente-cinq ans » ! Les qualités que l’on demande à un bon étudiant ne sont en effet pas les mêmes que celles d’un bon chercheur, et il arrive que de brillants étudiants deviennent de piètres chercheurs. Mais je pense qu’après une thèse de trois ans on devrait être à même de savoir si quelqu’un sera un bon chercheur ou non. Malheureusement – ou heureusement – eux qui le connaissent le mieux sont ses collaborateurs et son directeur de recherche qui l’ont côtoyé tous les jours ; et eux, précisément, ne souhaitent pas en général que ce chercheur, qu’ils ont formé et avec qui ils ont tissé des liens d’amitié, s’en aille ailleurs, ou simplement qu’il quitte ce métier auquel il tient tant. On repousse donc l’échéance grâce aux « post-docs » à l’étranger jusqu’à ce que le jeune chercheur soit enfin recruté sur un poste permanent de chercheur ou d’enseignant-chercheur ; à moins qu’il ne soit obligé de chercher à plus de trente-cinq ans un poste dans l’industrie, où il se trouve en compétition avec des jeunes ayant dix ans de moins que lui. Le système des post-docs est donc très pernicieux, en particulier en France où les entreprises n’aiment pas recruter des « vieux docteurs », surtout des docteurs dans des disciplines aussi exotiques que l’astronomie. La période de post-doc est elle-même destructrice sur le plan personnel et familial, car bien peu de couples sont capables de résister à des absences longues et répétées de plusieurs années. De plus, chercher un poste chaque année est une épreuve stressante. Le problème est encore plus dramatique pour les femmes car la précarité de cette existence leur interdit d’avoir des enfants à un âge où beaucoup d’entre elles le souhaitent. . . d’autant qu’il sera vite trop tard après. Et si l’on voit assez souvent une femme abandonner son travail pour suivre son compagnon en post-doc, le contraire est encore beaucoup plus rare. Pour la défense de la période post-doctorale, j’entends souvent objecter qu’effectuer des séjours de longue durée dans un laboratoire étranger est souhaitable afin de développer des collaborations, prendre du recul par rapport à son travail et apprendre de nouvelles méthodes. Certes, mais il serait bien préférable que ce soit des chercheurs

7

8

Des quasars aux trous noirs

déjà en place qui le fassent au moment où ils le décident. C’est d’ailleurs souvent ce qui se produit. Par ailleurs, tous ces jeunes qui s’expatrient pendant plusieurs années au moment de leur existence où ils sont les plus actifs et les plus créatifs font cruellement défaut en France qui n’a pas de son côté un quota de post-docs équivalent à proposer aux étrangers. D’autant que souvent, attirés par les salaires supérieurs offerts par exemple aux États-Unis, ils décident d’y rester définitivement. J’entends discuter de ce problème depuis au moins vingt ans, il s’aggrave d’année en année et il ne lui sera certainement pas trouvé de solution avant longtemps. À moins de revenir à l’ancien système en supprimant les trois quarts des formations doctorales et en recrutant presque tous les chercheurs à la sortie de leur thèse. Mais je doute que cette solution – qui ramène au problème du critère de sélection – reçoive l’agrément des universités. Ou alors en multipliant le nombre de recrutements ; mais on ne pourra jamais – et ce ne serait sans doute pas raisonnable – obtenir autant de postes que de jeunes désirant devenir astronomes professionnels. Un autre débat de société refait surface régulièrement : faut-il ou non des postes de recherche permanents ? Le Centre national de la recherche scientifique (le CNRS) est en effet considéré à tort comme « une exception française ». En effet, il existe également dans d’autres pays des postes de chercheurs à temps plein, pour les astronomes dans les observatoires, et pour tous les types de recherche dans des organismes d’états semblables au CNRS. En Italie c’est le Conseil national de la recherche, en Espagne le Conseil supérieur des recherches scientifiques, en Allemagne les Instituts Max Planck. Si exception il y a, c’est seulement sur la taille, car ces organismes regroupent un moins grand nombre de chercheurs que le CNRS (typiquement trois fois moins), mais ils ont relativement plus de personnel nonchercheur et leurs ressources financières sont également bien plus importantes par chercheur que celles du CNRS. J’ai cependant une position nuancée à propos du statut de chercheur à temps plein : je pense en effet que tous les chercheurs devraient enseigner un peu au cours de leur vie, pour garder le contact avec les étudiants, pour prendre du recul par rapport à leur recherche et pour apprendre à faire de bons exposés !

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

J’arrivai donc en novembre 1960 à l’Institut d’astrophysique de Paris (que j’appellerai désormais l’IAP). L’IAP était un institut propre du Centre national de la recherche scientifique, le CNRS. Celui-ci fut créé en 1939, à une époque pourtant peu propice au développement de la connaissance et de la culture puisque ceci se passait quelques semaines après le début de la Seconde Guerre mondiale. Il était une émanation du gouvernement de Léon Blum qui avait confié à Irène JoliotCurie puis à Jean Perrin la responsabilité de mettre sur pied une véritable recherche scientifique. À cette époque les ÉtatsUnis connaissaient en effet un développement fulgurant dans tous les domaines scientifiques, grâce à l’exil des cerveaux dû à la montée du nazisme et du fascisme, et il fallait créer une science européenne qui pût les égaler, ou au moins les approcher. C’est dans cet esprit que la construction de l’IAP avait été planifiée avant même la création du CNRS, en 1937, ainsi que celle de l’Observatoire de Haute-Provence dont je reparlerai plus tard. Elle fut commencée en 1938. Interrompue à cause de la guerre, elle ne fut achevée qu’en 1952, dans le style initialement prévu des années trente. C’est un bel immeuble blanc, récemment rehaussé d’un étage, situé près de la place Denfert-Rochereau, dont la façade est donne sur les jardins de l’Observatoire de Paris. L’Observatoire lui-même est situé au nord de ces jardins, sa façade donnant sur l’avenue de l’Observatoire comme il se doit, et plus loin sur le jardin du Luxembourg. L’IAP, couplé à l’Observatoire de Haute-Provence qui devait en être le pilier observationnel, avait donc été créé pour développer sur le plan national une discipline un peu différente de l’astronomie, l’astrophysique. Avant, on faisait en France essentiellement de « l’astronomie fondamentale », en particulier à l’Observatoire de Paris. Les astres étaient considérés comme de simples points matériels dont on mesurait les positions (c’était « l’astronomie de position ») et dont on étudiait et prévoyait les mouvements en ce qui concernait les planètes et les étoiles doubles (c’était la « mécanique céleste »). Au xviiie siècle, avec les progrès des lunettes, on commença à décrire et à classer les différentes formes de corps célestes. Puis à partir du xixe siècle, on s’intéressa aux astres en tant que tels et l’on essaya de comprendre de quoi ils étaient faits, ainsi que les lois régissant leur structure, leur formation et leur évolution. L’Observatoire de Paris était surtout spécialisé dans la mécanique céleste. Il avait été construit sous Louis XIV et son

9

10

Des quasars aux trous noirs

Figure 1.1. Faces est et nord de l’Institut d’astrophysique donnant sur les jardins de l’Observatoire. Les parties de gauche et de droite du dernier et troisième étage ont été rajoutées dans les années quatre-vingt-dix. On devine derrière le boulevard Arago.

Figure 1.2. Face sud de l’Observatoire de Paris (« bâtiment Perrault »).

histoire est jalonnée par les découvertes des astronomes les plus prestigieux de ces trois derniers siècles, qui en furent d’ailleurs souvent les directeurs. Plus tard, d’autres observatoires furent crées en France, comme ceux de Marseille, de Lyon, de Nice, de Bordeaux, de Toulouse, de Strasbourg et, enfin, de Meudon. Ils commencèrent à faire de l’astrophysique, appelée encore « l’astronomie physique ». Cependant, la tradition d’astronomie fondamentale de l’Observatoire de Paris perdura et encore de nos jours il occupe l’une des premières places au monde, sinon la première, dans la mécanique céleste et la garde du temps (Figures 1.1 et 1.2). Certains font remonter la naissance de l’astrophysique à François Arago, qui comprit en 1811 que la surface du Soleil

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

était constituée de matière gazeuse. D’autres la font remonter à l’invention de la photographie et de la spectroscopie, qui permirent de comprendre la nature des étoiles. En moins d’un siècle, se produisit alors une série de découvertes qui fondèrent l’astrophysique moderne et lui donnèrent son statut particulier de science physique en même temps que de science de la nature (Encadré 1.2).

Encadré 1.2. En 1820, un spectroscopiste allemand, Josef von Fraunhofer, eut l’idée de disperser la lumière à l’aide d’un réseau et d’observer la lumière solaire avec ce « spectroscope »*. Il aurait obtenu le même résultat en dispersant la lumière avec un prisme, comme le montre la figure 1.3.

Figure 1.3. Dispersion de la lumière par un prisme.

Il découvrit alors dans le spectre* des centaines de raies sombres sur un fond brillant – on dit qu’elles sont « en absorption » – dont la nature ne fut comprise que bien plus tard (on en connaît maintenant des millions, Figure 1.4). En 1849, le français Léon Foucault découvrit que la raie (en fait double) appelée « D » par Fraunhofer, coïncidait en position avec celle que lui-même observait « en émission » – c’est-à-dire brillante sur un fond plus sombre – dans son laboratoire avec un arc électrique. Dix ans plus tard, deux astronomes allemands, Robert Bunsen et Gustav Kirchhoff, répétèrent cette expérience sans la connaître. Ils montrèrent que les raies sombres du spectre solaire étaient dues à différents éléments chimiques présents dans l’atmosphère du Soleil. Ainsi, la raie D est due au sodium. Par la suite, la spectroscopie ne se limita plus au Soleil et il se confirma que les spectres des étoiles présentaient les mêmes raies.

11

12

Des quasars aux trous noirs

Figure 1.4. Le spectre du Soleil dessiné à la main par Fraunhofer.

Pourquoi les spectres stellaires ont-ils des raies sombres sur un fond brillant ? De même que la Terre, le Soleil et les étoiles sont entourés d’une atmosphère mince et ténue. Mais tandis que l’atmosphère de la Terre a pour effet à la fois d’empêcher les rayons du Soleil les plus nocifs de pénétrer jusqu’à sa surface (les rayons ultraviolets et les rayons X) et de garder au contraire les rayons moins dangereux (malheureusement les plus chauffants, ce qui conduit à l’effet de serre et au réchauffement climatique), l’atmosphère des étoiles a pour seul effet de modifier le rayonnement provenant de leurs couches plus internes. Ce rayonnement ne contient pas de raies, c’est un rayonnement « continu » pur. L’atmosphère de l’étoile y imprime des raies et d’autres motifs sombres. Grâces soient rendues à ces motifs qui sont des signatures des propriétés de l’atmosphère et sans lesquels nous ne saurions pas grand chose de l’intérieur. L’intérieur d’une étoile rayonne en effet comme un « corps noir »**, c’est-à-dire que son rayonnement est décrit par une seule quantité, la température. Au contraire, les raies dépendent en plus des éléments composant l’atmosphère et donc l’intérieur de l’étoile2 , ainsi que de la pression régnant à la surface. Cette dernière nous indique 2

Encore que l’on ait découvert que les abondances des éléments à l’intérieur d’une étoile ne sont pas toujours les mêmes qu’à la surface, si le mélange ne se produit pas avec suffisamment d’efficacité.

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

par exemple que la gravité est petite ou grande, c’est-à-dire si l’étoile est compacte ou non. L’étude des modifications complexes que subit le rayonnement lors de la traversée de l’atmosphère est effectuée à l’aide d’une théorie complexe appelée « transfert du rayonnement ». La première découverte fondamentale de l’astrophysique fut donc que le Soleil et les étoiles étaient constitués des mêmes éléments que la Terre. L’Univers tout entier semblait fait d’une seule et même matière ! C’était loin d’être évident alors car la classification des éléments par Mendeleïev n’était pas encore connue. Et même lorsqu’elle le fut, on eut du mal bien plus tard à admettre que le Soleil et d’autres objets célestes ne recélaient pas quelque étrange élément inconnu sur Terre. Les recherches à l’IAP, à ses débuts, furent orientées surtout vers l’étude des spectres stellaires, ainsi que vers celle de l’atmosphère et du ciel nocturne (qui paraissaient indispensables pour l’observation astronomique), et vers la construction d’instruments pour les observations. Dans les années quarante, elles s’étendirent vers la théorie des atmosphères du Soleil et des étoiles, avec Vladimir Kourganoff et JeanClaude Pecker, et vers celle des intérieurs des étoiles avec Évry Schatzman. Lorsque j’arrivai à l’IAP en 1960, outre l’équipe théorique qui se constituait sous la direction d’Évry Schatzman, on y faisait surtout de la « classification stellaire » suivant un procédé inventé par les deux astrophysiciens Daniel Barbier et Daniel Chalonge, plus tard rejoints par Lucienne Divan (Encadré 1.3).

Encadré 1.3. En effet, un seul coup d’œil sur le ciel nocturne montre que les étoiles sont loin d’être identiques. Ce qui frappe évidemment d’abord c’est qu’il en existe de très brillantes et de très faibles. En l’occurrence, il ne s’agit pas seulement d’une propriété intrinsèque car l’éclat apparent est fonction de la distance. Ainsi, un œil très exercé est-il capable de distinguer seulement quelques milliers d’étoiles tandis qu’il y en a cent milliards dans la seule Voie lactée, mais trop faibles pour être visibles à l’œil nu. La deuxième chose frappante est que certaines étoiles sont bleues comme Rigel, d’autres rouges comme Betelgeuse, toutes deux étant des étoiles brillantes dans la constellation d’Orion.

13

14

Des quasars aux trous noirs

Il est donc clair que les étoiles sont diverses et qu’elles se différencient par deux grandeurs, leur puissance, c’està-dire la quantité de lumière rayonnée par seconde qu’on appelle la « luminosité » dans le jargon des astrophysiciens, et leur couleur. Le premier travail des astrophysiciens devait être de les classer suivant ces deux critères pour ensuite les relier entre elles et tenter d’en déduire des propriétés physiques (par analogie avec la biologie on pourrait appeler cela « relier le phénotype au génotype »). En ce qui concerne la couleur, il fut tout de suite évident qu’elle était liée à la température de l’étoile, de même que la couleur d’un fer chauffé passe du rouge au jaune puis au bleu à mesure que sa température augmente. Pour la luminosité, ce fut une autre affaire.

À la classification des étoiles basée sur la couleur et l’éclat, on rajouta rapidement une dimension nouvelle, celle du spectre. Elle allait s’avérer fondamentale dans la connaissance des processus physiques se produisant dans les intérieurs stellaires. Ainsi naquit la méthode spectrale développée à l’IAP, appelée la classification BCD (de Barbier-Chalonge-Divan). La classification de l’IAP fut longtemps utilisée en France pour savoir si une étoile est une géante* ou une naine* et si elle est chaude ou froide. Elle le fut peu à l’étranger, étant d’un usage assez compliqué (Encadré 1.4). Avant d’aller plus loin, il est nécessaire de préciser cette notion qui reviendra sans cesse au cours de ce livre, le « spectre ». Il ne s’agit évidemment pas du fantôme d’un mort ! Mais l’origine du mot est bien la même, le mot latin signifiant « apparence ». On obtient un spectre en dispersant la lumière d’une source (une lampe, une étoile. . . ) avec un prisme ou un réseau. Pour une étoile, on observe un fond continu appelé « spectre continu » qui va du bleu au rouge, sur lequel se superposent des raies sombres, dites en « absorption » (ce ne sera pas le cas pour les quasars). En fait, il ne s’agit de « raies » que parce que le spectre est étalé sur une certaine épaisseur, donnant artificiellement cet aspect de raies, puisqu’une étoile est une source ponctuelle. Par extension, on appelle « spectre » la façon dont l’intensité du rayonnement varie avec la fréquence ou avec la longueur d’onde, et cette définition n’est plus limitée au domaine de la lumière visible, elle s’étend à tout le domaine électromagnétique depuis les ondes radio jusqu’aux rayons gammas les plus énergétiques.

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

Encadré 1.4. Si les étoiles ont des luminosités différentes, c’est en partie parce qu’elles ont des dimensions différentes, la luminosité étant proportionnelle à la surface émissive. Or parmi les étoiles comme parmi les êtres humains, il y a des naines et des géantes. Mais tandis que pour les êtres humains un géant est au plus cinq fois plus grand qu’un nain, pour les étoiles le rapport peut aller jusqu’à un facteur cent (on appelle les plus grandes des « supergéantes »), sans parler des « naines blanches* » qui sont encore cent fois plus petites que les naines ordinaires. Le rapport des luminosités entre une supergéante et une naine normale est donc de dix mille si l’on considère des étoiles de même couleur (car la couleur – c’est-à-dire la température – intervient aussi dans la luminosité). Les étoiles géantes ont des atmosphères plus ténues que les naines, ce qui se traduit par les motifs plus ou moins larges que l’atmosphère crée dans le spectre de l’étoile et dont j’ai parlé plus tôt. On peut donc ainsi déterminer si une étoile est une naine ou une géante : c’est ce que l’on nomme sa « classe de luminosité ». De plus, les intensités des raies sont différentes d’une étoile à l’autre. Ainsi les spectres des étoiles bleues ont moins de raies que ceux des rouges. Les raies les plus intenses dans les spectres des étoiles bleues sont les raies de l’atome l’hydrogène tandis que les spectres des étoiles rouges sont dominés par les raies de nombreux autres éléments. Ce phénomène est directement lié à la température – c’est à dire la couleur – à la surface de l’étoile. Par l’étude du spectre, on détermine ce que l’on nomme « le type spectral », lié à la couleur. Dans les années quarante, on recourait à deux classifications pour déterminer la classe de luminosité et le type spectral. L’une, dite MKK (de Morgan, Keenan et Kellman, trois astronomes américains, voir la Figure 1.5), utilisait les intensités relatives de certaines raies spectrales. L’autre était la classification BCD de l’Institut d’astrophysique. Elle fut d’abord basée sur deux caractéristiques des spectres : l’intensité d’une discontinuité (appelée discontinuité de Balmer*) ou changement brutal de la brillance se produisant à une longueur d’onde voisine de

15

16

Figure 1.5. Figure montrant une série de spectres stellaires. De haut en bas, on va des étoiles les plus chaudes aux plus froides. On distingue bien l’évolution des raies spectrales à travers les types spectraux, permettant leur classification. Il s’agit ici de la classification de Harvard inventée au début du xxe siècle. Mais les spectres, eux, ont été obtenus beaucoup plus tard et sont montrés ici à seule fin d’illustration ; ceux que l’on prenait au début du siècle dernier contenaient beaucoup moins d’informations.

Des quasars aux trous noirs

3 700 angströms3 (c’est-à-dire dans l’ultraviolet proche), liée surtout au type spectral, et la position précise de cette discontinuité liée surtout à la luminosité. Plus tard, Lucienne Divan y ajouta un troisième paramètre qui permit de raffiner la classification. On voyait passer Daniel Chalonge furtivement dans les couloirs de l’IAP, toujours aimable et discret, et rien ne laissait deviner qu’il était l’un des meilleurs astrophysiciens de son temps. C’était un montagnard aguerri. Il installa après la guerre un spectrographe construit pour la classification stellaire en Suisse sur le plateau du Jungfraujoch. Le site était choisi pour son altitude élevée, plus de 3 000 mètres, 3 On utilise maintenant comme unité, non plus l’angström, mais le nanomètre, ou nm, valant 10 angströms. Je garderai cependant la vieille unité dans la suite du livre, par fidélité à mes livres de cours et à des habitudes anciennes, d’ailleurs comme beaucoup d’astronomes travaillant aussi dans le vieux système d’unités CGS !

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

indispensable pour observer dans l’ultraviolet, domaine de longueur d’onde de la classification BCD. Daniel Barbier était au contraire un homme grand et imposant, doté d’un humour assez féroce. Un dimanche où il était venu travailler, le gardien de l’Observatoire (car l’IAP et l’Observatoire communiquent par les jardins) l’arrêta en lui demandant où il allait. Il répondit froidement : « Je vais voir Monsieur Barbier ». « Ah bon ! Alors passez ! », lui dit le gardien. Quant à Lucienne Divan, on pouvait à peine se faufiler dans son bureau, tant il débordait de dossiers et de papiers remplissant des étagères sur tous les murs, ou posés à même le sol ; bientôt elle annexa d’ailleurs les bureaux voisins. Car bien sûr, à cette époque, les spectres étaient « dépouillés », c’est-à-dire transformés en chiffres, sur papier, au crayon et à la règle, et l’on avait vite fait de couvrir des milliers de feuilles. Quant aux calculs... j’en reparlerai plus loin. Autour de ces trois personnalités gravitaient plusieurs chercheurs, comme Anne-Marie Fringant, Jacques Berger et Nina Morguleff. L’astrophysique théorique n’existait pratiquement pas avant la guerre en France et elle émergea des limbes à l’IAP à la fin des années quarante sous l’impulsion d’Évry Schatzman, puis sous celle de Jean-Claude Pecker. Ils prirent deux voies différentes mais complémentaires. Évry Schatzman développa surtout la physique des « intérieurs stellaires », tandis que Jean-Claude Pecker, suivi bientôt par Charlotte Pecker, Roger et Guisa Cayrel, Henri van Regemorter, puis Yvette Cuny, Simone Dumont, Jean Lefèvre, Françoise Praderie, Philippe Delache, Hélène Frisch, s’attaquait au problème des « atmosphères stellaires » dans lequel la France allait bientôt exceller et même devenir leader mondial. De la collaboration entre Jean-Claude Pecker et Évry Schatzman naquit en 1959 un livre-culte, l’Astrophysique générale, que nous appelions « le Pecker-Schatzman » : il fournit à des générations d’étudiants et de jeunes chercheurs leurs bases d’astrophysique (un bon exercice consistait à en corriger les fautes oubliées. . . ). Outre un erratum bien utile, ce livre contenait quelques pages manuscrites insérées donnant des équations, probablement trop compliquées à réaliser pour un imprimeur. Jean-Claude Pecker partit bientôt s’installer à l’Observatoire de Meudon avec une partie de son équipe. À sa création, l’IAP avait eu comme directeur Henri Mineur, expert en analyse numérique : il créa le « bureau de calcul » dont je vais parler dans un moment. Puis André Danjon, déjà directeur de l’Observatoire de Paris, en prit la direction. Il partit à la retraite en 1963 et il tomba gravement malade peu

17

18

Des quasars aux trous noirs

après. J’avais suivi ses cours d’astronomie, d’une clarté remarquable. C’était un homme impressionnant, dans la tradition des grands directeurs de l’Observatoire de Paris des siècles précédents. Il avait inventé un instrument appelé « l’astrolabe impersonnel » qui servit pendant plus d’un demi-siècle à la mesure précise des positions des étoiles (il est, du reste, encore utilisé maintenant). Lorsque Danjon partit à la retraite, Jean-François Denisse devint directeur de l’Observatoire de Paris. Entre temps, l’observatoire avait été de nouveau séparé de l’IAP en 1960 et André Lallemand (inventeur de la « caméra électronique »), que nous retrouverons, en avait pris la direction. Donc l’IAP n’aurait pas eu de vocation particulière à l’astrophysique théorique si Évry Schatzman n’y avait pas développé son équipe dans les années soixante. Évry ne voulait pas se limiter à un seul domaine, son intention étant d’essayer de rattraper les autres nations plus avancées en astrophysique théorique à l’époque. Son livre dont j’ai déjà parlé, Origine et évolution des mondes, se voulait un compendium de l’ensemble des connaissances en astrophysique avant le Pecker-Schatzman, tout en rappelant un grand nombre de problèmes non résolus. Il décida de lancer chacun de ses étudiants sur l’un de ces problèmes. On n’en finirait pas de citer la kyrielle de jeunes chercheurs qui s’accroissait de plusieurs unités chaque année, auxquels il faut ajouter les multiples visiteurs passant là quelques jours ou quelques mois. Hubert Reeves fit ainsi sa première apparition en 1963. Évry avait alors l’espoir un peu insensé que nous arriverions ainsi à couvrir toute l’astrophysique théorique de l’époque (Encadré 1.5) !

Encadré 1.5. Michel Hénon, devenu plus tard l’un des créateurs de ces objets mathématiques appelés « attracteurs étranges », était chargé de construire une machine analogique permettant de résoudre des systèmes d’équations différentielles nécessaires à la théorie des intérieurs stellaires ; Claude Chadeau, disparue prématurément, devait s’occuper des spectres d’étoiles chaudes ; Marie-Claire Lortet analysait certaines explosions stellaires ; Nicole Bel étudiait les instabilités magnétiques dans les conditions astrophysiques ; Pierre Souffrin était chargé d’examiner l’excitation de l’atmosphère solaire ; Jean-Paul Zahn devait chercher comment se forme le champ magnétique solaire ; Pierre Mein étudiait la propagation des ondes dans l’atmosphère solaire ; André Mangeney fut envoyé approfondir

Comment j’arrivai à l’Institut d’astrophysique et ce que l’on y faisait en 1960

la thermodynamique à Bruxelles avec Ilya Prigogine (futur prix Nobel) pour l’appliquer aux étoiles ; Uriel Frisch travaillait sur des problèmes liés aux ondes et à la turbulence ; Annie Baglin étudiait les instabilités des naines blanches ; Claude Chevalier essayait de comprendre les pulsations de certaines étoiles ; Gabrielle Berthomieu et Estelle Asseo s’intéressaient à l’accélération des particules. Il y eut un peu plus tard Christian Magnan, étudiant des astres récemment découverts, les objets de Herbig-Haro qui semblaient être des étoiles en cours de formation, Jean Heyvaerts qui s’occupait du rayonnement d’un plasma en présence de champ magnétique, Jean Audouze puis Sylvie Vauclair qui approfondissaient les réactions nucléaires dans les étoiles et firent leurs thèses avec Hubert Reeves, Anne-Marie Dumont et Claude Cahmy-Val qui construisaient avec Michel Dreux un appareil destiné à mesurer les durées de vie des niveaux atomiques** d’intérêt astrophysique, André Brahic et Avram Hayli qui devaient s’occuper de structure stellaire, Gérard Vauclair qui cherchait à déterminer les masses des nébuleuses planétaires*, un jeune chercheur indien, Moïse Raziwala, qui travaillait sur les nébuleuses HII* et qui est retourné en Inde après sa thèse pour y être instituteur dans une province perdue. Un chercheur anglais, Michael Friedjung vint travailler sur les novae avec un étudiant iranien, Malakpur, retourné depuis en Iran où il calcule les époques des évènements astronomiques servant de repères aux activités religieuses. On voit donc la diversité extraordinaire de ces travaux et encore n’ai-je cité que ceux dont j’étais le plus proche. Le « labo Schatzman » comme on l’appelait, occupait le deuxième étage de l’IAP qui devint rapidement trop petit pour nous contenir tous. Nous étions une quarantaine dans une douzaine de pièces et plusieurs chercheurs devaient évidemment partager le même bureau. J’en ai moi-même partagé un pendant quelque temps avec cinq collègues. Évry Schatzman pensait que l’immobilité physique entraîne celle de l’esprit et il nous demandait de changer de bureau à peu près une fois tous les deux ans pour renouveler nos discussions et notre environnement. Nous jouions alors un petit jeu de chaises musicales, qui nous a effectivement permis de nous connaître tous très bien. Naturellement, l’IAP ne se limitait pas au « labo Schatzman », même s’il en était devenu la principale

19

20

Des quasars aux trous noirs

composante à la fin des années soixante. Outre l’équipe Chalonge-Divan, il recelait quelques personnalités originales au caractère pas toujours facile, comme Pierre Guérin, qui réalisa à l’Observatoire du Pic du Midi de magnifiques photos de planètes ; Serge Koutchmy, devenu un spécialiste mondial des éclipses de Soleil ; Marius Laffineur, qui voulait développer tout seul la radio-astronomie à une époque où les radiotélescopes étaient déjà d’énormes engins ; ou encore Roger Peyturaux, qui s’attachait à mettre au point un étalon de mesure du spectre solaire. Dès le début des années soixante, Évry Schatzman commença à envisager notre départ pour l’Observatoire de Meudon : c’était à ce moment un « petit » observatoire d’une cinquantaine de personnes sur un vaste terrain sur lequel, pensait-il, il était encore possible de faire des constructions. Le bâtiment prévu ne fut achevé que dix ans plus tard et ce fut en fait la dernière construction en dur de l’Observatoire de Meudon qui avait considérablement grandi entre-temps. Nous pûmes enfin déménager en 1971 pour nous installer dans un environnement complètement différent sur lequel je reviendrai bientôt.

Chapitre 2

Comment on faisait de la recherche dans les années soixante Revenons maintenant aux travaux pratiques dont j’avais la charge à l’Institut d’astrophysique. Ils consistaient en une série d’expériences imaginées et réalisées par Jean-Paul Zahn. Évry l’avait recruté après son agrégation pour mettre sur pied des travaux pratiques ayant pour but de montrer en laboratoire ce qu’était le travail d’un astronome. Il était en effet exclu de faire à Paris de véritables observations à heures fixes car la plupart des nuits se seraient passées à attendre que le ciel veuille bien se dégager. Par la suite, Jean-Paul installa un télescope sur les toits de l’IAP et les fanatiques purent y observer la nuit leurs astres préférés, lorsque le temps le permettait. Je me lançais avec délectation dans ce travail ; je le partageais avec un collègue, Bruno Morando, qui commençait une thèse sur les mouvements des satellites artificiels. Il fallait en effet être capable de les prédire avec une grande précision pour l’astronomie spatiale en plein essor. C’était la première année que ces travaux pratiques fonctionnaient, il y avait donc de nombreux problèmes à régler. Il fallait rédiger une brochure, répondre aux questions d’une trentaine d’étudiants, surveiller les séances quasi quotidiennes, corriger les copies, améliorer les expériences, bref on pouvait y consacrer une grande partie de son temps si on le désirait. Pratiquement tous les astronomes de plus de cinquante ans ont transpiré sur ces travaux pratiques, qui leur ont sans doute donné une image étrange de leur métier futur. . . Évidemment ils prêtent à sourire, surtout lorsqu’on les compare à ce que l’on fait actuellement. L’expérience la plus intéressante à mon avis consistait à observer un « amas d’étoiles artificielles » installé au fond d’un couloir de 20 mètres dans les sous-sols de l’IAP. Les étoiles étaient des petits trous de différentes tailles percés dans une plaque de tôle et couverts de filtres colorés.

22

Des quasars aux trous noirs

Les étudiants en prenaient des photographies avec différents filtres, ils passaient ensuite les plaques photographiques au « densitomètre », un appareil permettant de mesurer le noircissement de la plaque et d’en déduire l’intensité de la lumière provenant des « étoiles », moyennant une correction de réponse des plaques. Ils déterminaient ainsi les couleurs et construisaient le « diagramme HR » de l’amas, ce qui leur permettait de trouver son âge (Encadré 2.1). Comme les couleurs changeaient au cours du temps à cause du vieillissement des filtres, il fallait remplacer souvent les filtres devant les « étoiles », car l’âge de amas avait la propriété de changer de plusieurs milliards d’années en quelques mois. L’ensemble de la « manip » était donc assez long et compliqué, mais en tout point semblable à ce qui se faisait à l’époque réellement dans les observatoires. Un jour une jeune étudiante alla jusqu’à nous demander si « c’étaient de vraies étoiles qu’on observait » ! Nous en avons déduit que notre montage était très réaliste. . .

Encadré 2.1. Séparément, vers 1910 deux astronomes, l’américain Norris Russell et l’astronome amateur danois Ejnar Hertzsprung qui devint professionnel plus tard, eurent l’idée de construire un diagramme reliant la classe spectrale d’une étoile* à sa luminosité (qu’on caractérise par sa « magnitude absolue »*, une quantité que les astronomes traditionnels affectionnent). Ils procédèrent de façon différente. Russell établit ce diagramme pour toutes les étoiles dont on connaissait la distance, tandis que Hertzsprung le construisit pour deux amas d’étoiles*, les Pléiades et les Hyades. Le fait qu’il s’agisse d’amas et non d’étoiles isolées permet en effet de déterminer la luminosité à une constante près puisque dans ce cas les étoiles sont à la même distance. Ils découvrirent tous deux que presque toutes les étoiles se situaient dans une bande étroite du diagramme couleur-luminosité qu’on appela plus tard « la séquence principale ». Les étoiles bleues avaient une luminosité plus grande que les étoiles jaunes comme le Soleil et la plupart des étoiles rouges avaient une très faible luminosité, à l’exception d’un petit nombre d’entre elles qui étaient au contraire très lumineuses. Ce diagramme fut appelé par la suite « diagramme HR », accolant à la découverte les noms de Hertzsprung et de Russell. Il joua un rôle crucial dans le

Comment on faisait de la recherche dans les années soixante

développement de la physique stellaire et il fallut plusieurs décennies avant qu’une explication en fût trouvée. De nombreux diagrammes HR d’amas d’étoiles furent construits dans les années trente et quarante. Ils montraient tous une séquence principale. Mais, curieusement, pour les diagrammes construits à partir des amas d’étoiles, la séquence principale ne contenait aucune étoile bleue lumineuse et inversement il y avait plus d’étoiles rouges lumineuses situées hors de la séquence principale. Il fallut comprendre la structure et l’évolution stellaire pour réaliser que les étoiles bleues quittaient la séquence principale lorsque leurs réserves de fuel nucléaire étaient épuisées. On pouvait dès lors déterminer l’âge de l’amas par la forme de son diagramme HR. Ensuite, mon travail d’enseignement changea, grâce à Charlotte Pecker, professeur dans le certificat d’astro 2, le diplôme d’étude supérieur que j’avais moi-même préparé quelques années plus tôt. Elle insista pour que je fusse chargée des travaux dirigés (ou exercices d’application). Elle m’avait d’ailleurs beaucoup soutenue pour franchir les caps difficiles des débuts de la recherche. Ce travail m’a obligée à compléter mes connaissances sur les différents cours, que j’ai en fait suivis complètement la première année avec les étudiants. C’était une expérience enrichissante, me permettant de mieux saisir les problèmes qu’ils rencontraient, car je les avais eus moimême peu de temps auparavant. Comme j’étais amenée à inventer des exercices concernant ces cours, j’en vins peu à peu à me poser des questions, n’ayant pas de réponse simple, qui pouvaient constituer de petits sujets de recherche. C’est un bon exemple de symbiose entre la recherche et l’enseignement. En effet, la différence entre un étudiant et un chercheur tient en ce que l’étudiant doit retrouver des réponses déjà connues (il le sait et c’est une grande sécurité, sauf évidemment lorsque l’enseignant s’est trompé dans l’énoncé, ce qui arrive parfois. . . ), tandis que le chercheur doit se poser des questions n’ayant pas encore de réponse. Je me souviens de cette période bénie où, jeunes étudiants pleins de confiance en l’avenir – c’était un temps où l’on croyait à l’impact des progrès scientifiques sur la société – nous n’étions pas préoccupés par l’urgence de passer notre thèse, mais plus de tâter de tous les problèmes que nous rencontrions, sous la houlette d’un patron peu directif et toujours prêt à discuter quand nous le lui demandions. Ce qui

23

24

Des quasars aux trous noirs

se produisit pour plusieurs d’entre nous, comme dans mon cas, c’est qu’au bout de plusieurs années d’errance nous découvrions nous-mêmes un sujet plus passionnant que celui qui nous avait été imparti, à nos yeux du moins, un sujet qui « nous branchait plus » comme on dirait actuellement et sur lequel nous faisions finalement notre thèse, en général très rapidement. Encore une fois, on peut réaliser à quel point les conditions de l’époque étaient différentes de ce qu’elles sont devenues. Il n’était pas rare de mettre huit, dix, voire douze ans, avant de soutenir une thèse et, après mai 68, certains décidèrent même de ne pas la passer du tout. Il y a ainsi des cas célèbres d’astronomes parvenus à des positions élevées sans avoir de thèse. Il faut rappeler que ce que l’on appelle maintenant « thèse de doctorat » n’est pas l’équivalent de ce que l’on nommait « thèse d’État » à l’époque : ce qui en tient lieu à présent, c’est la « thèse d’habilitation » permettant de diriger des travaux de recherche, qui se passe en général au bout d’une dizaine d’années de recherche. Donc il s’agit d’une simple dérive sémantique, puisque dans le temps on pouvait diriger des recherches après une simple thèse, mais longue, et maintenant on ne peut le faire qu’après avoir obtenu une « habilitation ». La thèse de doctorat actuelle ne doit pas durer plus de trois ans, et c’est un peu l’équivalent de la « thèse de troisième cycle » de mon époque. Elle est accomplie dans un environnement complètement différent de celui de l’ancienne thèse d’état. Le « thésard » est en général entouré d’une équipe, il dispose de « codes » de calcul (ou « logiciels » déjà rodés), et souvent de résultats d’observations déjà effectuées. Son travail est beaucoup plus directif et encadré : l’une des preuves en est qu’il est rare maintenant de voir des articles de thèse signés par le seul thésard, tandis que c’était fréquent auparavant. Comme je l’ai dit dans l’introduction, on y gagne en efficacité mais je ne suis pas sûre que l’on y gagne en originalité. . . Les thèses se passaient en général lorsque nous-mêmes décidions que le temps en était venu et que nous avions accumulé suffisamment de matériel original pour la soutenir. Ce n’était pas la simple formalité qu’elle est devenue maintenant dans les disciplines scientifiques. Il m’est arrivé d’assister à des thèses durant plusieurs heures, pendant lesquelles chaque paragraphe était passé au peigne fin, et où même les fautes d’orthographe étaient épinglées (on imagine ce que cela donnerait maintenant). De plus, nous avions un deuxième sujet devant

Comment on faisait de la recherche dans les années soixante

porter sur des matières différentes de la thèse principale, nécessitant lui aussi quelques mois de travail. Les thèses n’étaient pas non plus immanquablement suivies d’un « pot » un peu formel comme c’est le cas maintenant, mais c’était souvent l’occasion d’une véritable fête – avec déguisement parfois – qui se tenait à un autre moment. Ainsi, quelques semaines après les thèses de quatre chercheurs de l’IAP, nous organisâmes une soirée mémorable avec feux d’artifice qui est restée dans les annales. Jean-Paul Zahn avait le goût des canulars, ainsi que des pétards et des feux d’artifices (jugé immodéré par certains, par exemple par Évry dont il piégea un jour le bureau ; il fit également exploser un énorme pétard pendant son cours sur les supernovae). L’une de ses étudiantes était la fille du directeur de l’entreprise Ruggieri qui créait déjà trois siècles plus tôt les feux d’artifices de Louis XIV et elle lui en avait offert plusieurs caisses. Ces feux d’artifice étaient loin d’être ce que sont devenus maintenant ceux du commerce où tout est programmé d’avance électroniquement : il fallait les tirer en courant d’un endroit à l’autre et c’était même assez dangereux pour quelqu’un de non expérimenté. Bien que tout se passât bien et que les pompiers eussent été dûment prévenus à l’avance, trois casernes accoururent à minuit pour combattre le feu que leur avaient signalé les riverains de l’IAP. . . À cette époque, tout progressait plus lentement en raison des conditions matérielles de l’édition. Au début des années soixante, par exemple, le laboratoire n’avait qu’une seule secrétaire, Jacqueline Goudet. Quand elle partit (pour écrire des romans policiers, j’ignore si elle a fait carrière ensuite car elle les écrivait sous un pseudonyme), elle fut remplacée par deux secrétaires, Odile Mangin (qui devint plus tard Odile Roth) et Josiane Belber. Leur travail consistait essentiellement à taper les articles des chercheurs (rappelons que l’administration était alors presque inexistante). Depuis la généralisation des ordinateurs personnels et des traitements de textes, les chercheurs font cette frappe eux-mêmes. À l’époque c’était un travail compliqué et fastidieux. Les articles étaient tapés en plusieurs exemplaires à l’aide de papier carbone, car on ne disposait pas de photocopieuses. Chaque erreur devait être corrigée sur tous les exemplaires. Et chaque changement apporté au texte nécessitait de « copier et coller », non pas « virtuellement » comme cela se fait actuellement sur un ordinateur, mais réellement. Nos articles étaient donc de véritables découpages pleins de ratures, d’additifs à la main, d’effaceur, de collages, qu’il fallait réaliser aussi sur les copies carbone du texte.

25

26

Des quasars aux trous noirs

J’ai dit que nous ne disposions pas de photocopieurs. Alors, comment faisions-nous la duplication d’un chapitre de livre ou d’un article que nous ne pouvions pas emprunter ? D’abord, nous travaillions beaucoup dans les bibliothèques. Nous achetions sur nos deniers des livres et des collections de journaux scientifiques. Ainsi plusieurs d’entre nous étaient abonnés à l’Astrophysical Journal et aux Annales d’astrophysique (remplacées depuis par Astronomy and Astrophysics). Heureusement, ces collections n’avaient rien à voir avec ce qu’elles sont devenues : l’Astrophysical Journal tenait en un seul volume chaque année. Actuellement, il en faut deux douzaines par an1 . Si nous avions besoin d’un article que notre bibliothèque ne possédait pas, ou si nous devions nous en servir quotidiennement pendant quelque temps et que nous ne pouvions sortir de la bibliothèque le volume correspondant, nous avions recours à un photographe (il n’en existe plus dans les laboratoires de recherche, du moins pour ce travail). Dans un délai « raisonnable », c’est-à-dire d’une ou deux semaines, nous obtenions une photographie de l’article sur du papier photo assez épais et naturellement pas recto-verso. J’ai encore dans mon bureau certains de ces articles, racornis et presque effacés (car le papier photo se rétractait à la lumière et jaunissait) que je consultais pendant des mois jusqu’à en connaître les moindres détails. De nos jours, où nous devons lire plusieurs articles par jour, nous les parcourons d’un œil distrait, en nous contentant souvent de lire le résumé – l’abstract – et la conclusion. Et nous ne photocopions même plus, nous imprimons ou nous lisons directement sur l’écran de nos ordinateurs des articles que nous obtenons « en ligne » en quelques secondes, sans même avoir besoin de passer par une bibliothèque. . . Pour la reproduction de nos cours et l’édition des polycopiés, nous recourions aux stencils. C’étaient de fines feuilles d’une sorte de peau qui se perçait lorsqu’on utilisait une machine à écrire dont on avait retiré le ruban. Nous écrivions aussi directement sur les stencils grâce à une sorte de poinçon, ce qui nous permettait entre autre de faire des graphiques ou bien d’écrire des équations, évidemment impossibles à réaliser autrement. Après y avoir tapé un texte, on passait ces stencils dans une machine qui les enduisait d’encre et permettait d’imprimer plusieurs centaines de feuilles par effet 1 Ce qui me rappelle le commentaire ironique d’un chercheur : « le nombre d’articles scientifiques publiés va croître au point que la vitesse de remplissage des rayonnages dans les bibliothèques atteindra la vitesse de la lumière, mais il n’y a pas de contradiction avec la physique car la quantité d’informations transportée sera nulle ».

Comment on faisait de la recherche dans les années soixante

de pochoir. Les stencils étaient en général maculés de rouge, car les corrections se faisaient en bouchant les trous à l’aide d’un vernis rouge (le vernis à ongle convenait parfaitement). Ce procédé donnait des résultats laids et irréguliers. J’ai tiré ainsi la centaine d’exemplaires de ma thèse et elle ne supporte pas la comparaison avec les véritables œuvres d’art que les étudiants réalisent actuellement. Pour nos articles, comme je l’ai dit, nous les tapons maintenant nous-mêmes et, grâce aux « logiciels » (les « macros ») dont nous disposons, nous pouvons les visualiser instantanément sur un écran sous leur forme définitive, tels qu’ils apparaîtront ensuite dans la revue de notre choix avec les figures et les tables. Nous pouvons d’ailleurs les expédier immédiatement sur des sites internet avant même qu’ils aient été acceptés pour publication. Dans les années soixante et longtemps après encore, nous étions obligés pour faire connaître nos articles d’en réaliser des « tirés à part » ou « reprints » et de les faire parvenir personnellement aux spécialistes que nous connaissions (sauf pour les instituts riches, qui envoyaient automatiquement plusieurs exemplaires à tous les observatoires ou instituts au monde, mais cela nécessitait évidemment de fabriquer des centaines de tirés à part). En ce qui concerne les figures, nous les dessinions naturellement nous-mêmes, du moins s’il s’agissait de simples graphiques sur papier millimétré. J’ai ainsi encore dans mon bureau des centaines de feuilles de papier millimétré de toutes sortes sur lesquelles nous portions les résultats de nos calculs : papier logarithmique, semi-logarithmique, avec beaucoup ou peu de décades. . . Ce sont maintenant des pièces de musée. Pour les schémas un peu plus compliqués, nous pouvions faire appel à un dessinateur (à l’IAP c’était une « dessinatrice »), en général débordé, qui demandait parfois plusieurs mois avant de nous rendre le dessin demandé. Heureusement, il était possible de procéder à tout le travail de prépublication sans attendre le dessin définitif. Maintenant, nous disposons de « logiciels » permettant de réaliser en quelques minutes de magnifiques schémas qu’on peut directement inclure dans les articles sous forme électronique. Pour les formules, nous les écrivions à la main car il était exclu de les faire à la machine à écrire, sauf si elles étaient très simples. Elles étaient envoyées ainsi à l’imprimeur qui les publiaient parfois telles quelles si elles étaient compliquées. On peut ainsi admirer la calligraphie magnifique de certains d’entre nous, véritables artistes de la plume et de l’encre de Chine. Aujourd’hui, c’est un jeu d’enfant que d’écrire des

27

28

Des quasars aux trous noirs

formules longues de plusieurs lignes avec un traitement de texte mathématique approprié. Enfin, pour illustrer l’évolution du travail théorique, je voudrais revenir sur les débuts de l’informatique et raconter comment on effectuait des calculs numériques dans ces années-là. L’astronomie, avant l’astrophysique, fut une science de calculs. Par exemple, pour prédire la position de la planète Neptune, Le Verrier avait dû couvrir des milliers de pages de calculs faits entièrement à la main. Chaque multiplication et chaque division devait être vérifiée plusieurs fois, et des années de travail lui furent nécessaires pour mener à bien cette tâche. Le seul fait qu’aucune erreur n’ait été commise me paraît une prouesse aussi incroyable que d’en avoir bâti la théorie. Les choses n’en étaient plus là lorsque j’arrivais à l’IAP. On pouvait effectuer quelques calculs numériques assez élémentaires, par exemple une intégrale simple ou une inversion de matrice pas trop compliquée, grâce au « bureau de calculs » créé par Henri Mineur. Il occupait à peu près la moitié du premier étage de l’IAP. Là, sous la direction d’une ingénieure, Madame Hernandez, officiaient une quinzaine de dames appelées des « calculatrices » (ce n’était apparemment pas un travail pour les hommes. . . ), assises chacune devant une calculatrice, électrique cette fois, capable de faire seulement les quatre opérations. Madame Hernandez décomposait le travail en calculs simples : soustraire ceci, diviser la colonne 1 par la colonne 2, etc. Chaque calcul prenait quelques secondes et était accompagné d’un bruit d’engrenage effroyable. Ajoutez les quinze machines ensemble et vous aurez un aperçu du vacarme hallucinant régnant dans cette pièce, justifiant que plusieurs des « calculatrices » aient eu besoin assez fréquemment de congés pour dépression ou maladie. Pour les fonctions comme les logarithmes, les exponentielles. . . elles utilisaient des livres où ces fonctions étaient tabulées et qu’il fallait la plupart du temps « interpoler » (c’est-à-dire déterminer par des expressions mathématiques les valeurs intermédiaires non portées dans les tables). Évry Schatzman avait donc eu l’idée de faire construire une machine analogique* pour l’intégration des équations différentielles nécessaires aux calculs de structure stellaire. Michel Hénon en commença l’assemblage en 1954, aidé plus tard d’un technicien qui devint par la suite ingénieur, Michel Dreux. Cet « ordinateur » que l’on n’appelait pas encore ainsi était constitué de centaines de lampes, capacités et résistances, récupérées parfois sur de vieux postes de radio, montées sur des étagères ;

Comment on faisait de la recherche dans les années soixante

il occupait une grande salle au deuxième étage de l’IAP avant d’être relégué au sous-sol. En 1960, cette machine commença à fonctionner. . . en même temps qu’apparurent dans les instituts de recherche les premiers ordinateurs digitaux*, beaucoup plus puissants que les analogiques. Il devint rapidement clair que la machine était obsolète avant d’avoir été utilisée. Elle servit cependant pour quelques calculs de structure interne des étoiles. Michel Hénon aurait pu en faire une dépression, et si ce fut le cas, personne n’en sut rien. Il s’était attaqué en 1959 à un problème complètement différent, la dynamique des amas globulaires*, et il passa en 1961 sur ce sujet l’une des thèses les plus brillantes du siècle, aux dires de Danjon qui était président du jury. Michel Dreux se reconvertit à l’expérience sur les « durées de vie » dont j’ai déjà parlé. Une aventure un peu similaire arriva à Jean-Paul Zahn, qui, à son retour du service militaire en 1962 commença à étudier le problème de la formation du champ magnétique dans le Soleil, mais découvrit au bout de deux ans en discutant avec l’auteur de la théorie sur laquelle il travaillait qu’elle n’était pas bien justifiée. Changeant son fusil d’épaule, il se mit en 1964 à l’étude des étoiles doubles et lui aussi passa une thèse brillante sur le sujet moins de deux ans après. De même, André Brahic abandonna après quelques années la structure interne des étoiles pour se lancer dans la dynamique stellaire. Et l’on pourrait citer nombre d’autres exemples semblables. Je commençais à me servir d’un ordinateur en 1963. L’astronomie française avait été dotée d’une IBM 650 installée à l’Observatoire de Meudon. C’était une machine déjà relativement vieille à l’époque, mais néanmoins une véritable bénédiction pour nous : songez, elle avait 2 000 mémoires (on dirait 2 K maintenant) ! Elle remplissait une grande partie du bâtiment près de l’entrée de l’Observatoire qu’on nomme « les communs » (car ce sont les restes des étables du château sur le site duquel l’observatoire est installé). Une petite calculatrice de bureau de cent grammes est actuellement au moins cent fois plus puissante que cet énorme monstre. Cette machine était capable de résoudre une équation différentielle simple, chaque pas prenant environ une minute. De petites lumières clignotaient, indiquant que le calcul était en cours et, plouf, une carte perforée tombait dans un bac avec le résultat du pas suivant ; on se précipitait pour voir si tout se passait bien. Comme les calculs étaient très longs, on venait souvent la nuit pour être tranquille et avoir la machine pour soi pendant plusieurs heures. Des bandes dessinées (des Tintin je crois) nous

29

30

Figure 2.1. Les derniers bacs de cartes dont nous nous sommes servis. Chaque bac contenait environ deux mille cartes. Quant aux premiers, ceux des années soixante, ils étaient beaucoup plus longs, en métal et non en plastique.

Figure 2.2. Les listings avec nos résultats de calcul.

Des quasars aux trous noirs

permettaient d’attendre patiemment la fin de nos calculs. J’ai un souvenir cuisant de cette époque. Une nuit où mon mari, Pierre Souffrin (qui effectuait à cette époque son service militaire) m’avait accompagnée à l’Observatoire pendant une permission de nuit et devait s’ennuyer durant mes calculs, il appuya sur un gros bouton rouge sur lequel était marqué « ne pas toucher ! » ; tout s’éteignit instantanément, lumière, ventilation, machine, et un silence complet suivit son geste ; la machine ne fut pas réparée avant plusieurs semaines. . . Notons en passant que le temps de calcul n’a pas diminué avec l’augmentation de la puissance des machines comme on aurait pu le penser ; c’est même tout le contraire. Car on n’hésite pas à leur poser des problèmes de plus en plus compliqués ; et je connais des jeunes chercheurs qui ne se satisfont pas actuellement de centaines de milliers d’heures sur les ordinateurs les plus performants au monde. . . Les ordinateurs de l’époque lisaient les programmes qu’ils devaient effectuer sur des cartes perforées à l’aide d’une sorte de machine à écrire. On les introduisait par paquets que l’ordinateur avalait gloutonnement. Nous nous promenions donc avec nos « bacs de cartes », car certains programmes en nécessitaient des milliers (au début, on utilisait d’ailleurs sur certains ordinateurs non pas des cartes perforées mais des rubans qui se déchiraient sans cesse, et les fautes étaient nombreuses). Ces bacs étaient très pesants, ils tombaient parfois, et je laisse à penser ce que pouvait représenter le ramassage de milliers de cartes en désordre et les crises que cela déclenchait alors (Figure 2.1). Nos résultats sortaient sur des « listings » qui ont fait les beaux jours des écoles maternelles où ils étaient recyclés. C’étaient de larges feuilles de papier écrites seulement d’un côté, attachées les unes aux autres (Figure 2.2), qui se dévidaient sur des dizaines de mètres lorsqu’elles tombaient malencontreusement par terre (un listing s’était ainsi déroulé derrière le Vélosolex de l’une de mes collègues roulant sur les pavés de l’Avenue du Château devant l’entrée de l’Observatoire de Meudon). Nous les employions ensuite comme papier brouillon. J’ai partagé pendant plusieurs années le bureau d’une collègue préparant une thèse de « magnétohydrodynamique » : elle remplissait chaque jour des mètres de listings avec ses équations manuscrites dont certaines s’étendaient sur des centaines de lignes. Nous pouvions également utiliser d’autres ordinateurs plus puissants, mais il fallait aller loin pour les trouver. Il y en avait un à Grenoble et un autre à Liège en Belgique. J’y suis

Comment on faisait de la recherche dans les années soixante

allée plusieurs fois pour quelques jours. Nos bacs de cartes paraissaient toujours très suspects aux douaniers et il fallait les convaincre qu’ils ne contenaient ni de la drogue ni des armes. Par la suite, les choses s’arrangèrent un peu lorsqu’un centre de calculs avec de grosses machines IBM appartenant au CNRS fut installé à Corbeil près de Paris, et un autre à Paris, rue de Réaumur. Enfin, à la fin des années soixante, l’Observatoire de Meudon se dota d’un « IBM 740 » destinée à toute la communauté astronomique française. Nous avions la chance à Paris de pouvoir aller facilement à Meudon travailler directement sur cette machine, mais nos collègues de province devaient communiquer avec elle par liaison téléphonique et naturellement ce n’était pas simple : les lignes étant engorgées, la communication était souvent coupée et il fallait tout recommencer. Pour l’avoir expérimenté, je sais que c’était parfois à devenir fou. Certains de mes collègues allaient à l’époque régulièrement travailler aux États-Unis où ils pouvaient utiliser l’ordinateur de la NASA, qui était sans commune mesure avec nos ordinateurs car environ dix mille fois plus puissant que celui de Meudon ! Puis les IBM se généralisèrent dans les observatoires et instituts de province. Une grosse machine fut également installée près de Paris, à Orsay, par le CNRS. Nous y transportions nos bacs de cartes et nous travaillions à Orsay. Plus tard encore, dans les années quatre-vingts, les machines IBM d’emploi compliqué furent détrônées par des machines Digital du type Vax. Dans les années soixante-dix, les cartes perforées furent remplacées par les écrans et les programmes furent stockés dans les mémoires des machines elles-mêmes. Au début les écrans ne montraient qu’une seule ligne à la fois (comme les premières machines à écrire à traitement de texte) ; cela nous paraissait déjà merveilleux. C’était une simplification indubitable, mais pour nous qui avions été habitués à un support matériel pour nos programmes, et combien pesant, c’était une petite révolution. Car nous avions l’impression de n’être plus maîtres de nos programmes et nous craignions qu’ils ne disparaissent dans les entrailles des ordinateurs. Il y eut effectivement quelques erreurs de manipulation et cela se produisit. Puis, nous nous sommes habitués à nous passer de cartes. Au début des années quatre-vingts, la révolution du minitel vint aussi à notre rescousse. Munis de minitels spéciaux à quatre-vingts colonnes, nous pouvions écrire directement nos ordres sur l’écran et nous pouvions travailler de chez nous. Je ne m’en privais pas. Je travaillais la nuit à partir de deux heures du matin, car à ce moment la foule des utilisateurs était

31

32

Des quasars aux trous noirs

Figure 2.3. Nos outils de calcul des années soixante : la table de logarithme et la règle à calcul.

allée dormir et il ne restait plus que les gros programmes qui passaient en « travail de fond ». Enfin, arrivèrent les ordinateurs personnels, pour nous au début des années quatre-vingts. Mais ceci est une autre histoire, un autre temps, et l’astronomie avait déjà complètement changé de dimension. Nous ne nous servions évidemment pas de gros ordinateurs pour les petits calculs de bureau. Les calculettes n’existaient pas encore au début des années soixante. Il y avait naturellement toujours les grosses machines électriques dont j’ai parlé, bruyantes et encombrantes, mais nous manions plutôt la règle à calcul2 . Bien entendu, les résultats étaient approchés. Si l’on désirait des résultats plus exacts, il fallait avoir recours aux tables de logarithmes (Figure 2.3). Personnellement, j’étais devenue un as de la règle à calcul et j’étais capable de calculer avec quatre chiffres significatifs. Je me souviens aussi de m’être servie en 1964 d’une petite merveille que m’avait prêtée Michel Hénon. C’était une calculatrice mécanique de poche se présentant comme un cylindre de quinze centimètres de hauteur et cinq centimètres de diamètre environ, munie d’une manivelle que l’on tournait pour rentrer les nombres et faire les opérations. Elle ressemblait à ces jouets avec lesquels les 2 Il est possible que les étudiants ou les jeunes chercheurs actuels ignorent totalement ce que sont les règles à calcul. Elles sont basées sur les propriétés des logarithmes : le logarithme de a ×b égale le logarithme de a + le logarithme de b. Donc, exprimée en logarithme, une multiplication devient une addition, et une division, une soustraction. La règle à calcul reprend ce principe : ses graduations ne sont pas espacées régulièrement mais suivent une échelle logarithmique.

Comment on faisait de la recherche dans les années soixante

enfants font une petite musique aigrelette. Les calculs prenaient du temps, mais ils étaient précis, la machine n’était pas bruyante et on pouvait l’emmener partout avec soi. Quand apparurent les premières calculettes électroniques, nous nous sommes naturellement précipités dessus. Mais elles coûtaient cher et nous ne pouvions nous en offrir qu’une ou deux par an et par laboratoire : nous les partagions le plus équitablement possible. Elles étaient environ cent fois plus coûteuses que celles qu’on trouve partout maintenant dans les supermarchés et infiniment moins puissantes, car elles ne pouvaient accomplir que les opérations élémentaires. Les règles à calcul continuèrent donc à servir encore pendant plusieurs années. . . La généralisation de l’informatique a énormément compté dans ma recherche. J’ai expliqué combien mes bases de mathématiques étaient pauvres (je les avais pourtant développées un peu au cours de mes années d’hésitation). Or, l’informatique était une science neuve et je n’y étais pas désavantagée par rapport aux autres chercheurs, aussi néophytes que moi. Un radio-astronome, Jacques Arsac, s’était lancé dans ce domaine et nous donna en 1963 une série de cours de programmation. Au début, on travaillait avec une sorte de langage de base, le « langage machine » suivant de très près chacune des opérations que l’ordinateur devait accomplir. Puis Arsac créa un « compilateur » et un langage qui lui était associé, le CAM, permettant d’écrire directement des équations, le compilateur transformant lui-même les équations en termes compréhensibles pour la machine. Très rapidement apparut un langage beaucoup plus élaboré destiné spécialement à résoudre les problèmes scientifiques, le fortran (ce mot vient de « formula translator »). Arsac, lui-même, nous apprit à écrire des programmes en fortran pour résoudre nos systèmes d’équations. Maintenant, il existe tout un éventail de langages différents adaptés à des besoins spécifiques, mais le fortran reste très utilisé par les scientifiques. L’informatique changea donc réellement le cours de ma vie car désormais je pouvais résoudre les questions qu’on me posait ou que je me posais moi-même sans être arrêtée par des difficultés mathématiques. Deux autres révolutions sont venues au secours des chercheurs, mais bien plus tard, à la fin des années quatre-vingts : l’Internet et la généralisation des ordinateurs personnels. Parlons de la première. Nous avons maintenant la possibilité qui m’émerveille encore chaque jour, de communiquer sans délai par courrier électronique avec des collègues

33

34

Des quasars aux trous noirs

travaillant à dix mille kilomètres, de discuter, d’échanger instantanément des articles, des tables, ou des graphiques. Nous avons également grâce à l’Internet et aux « banques de données » le pouvoir fabuleux de connaître en l’espace d’un instant tous les articles publiés sur un sujet ou sur un astre donné, d’accéder à tous les résultats d’observations concernant cet astre, obtenus avec pratiquement tous les instruments qui ont été pointés sur lui. Lorsque nous voulions dans le passé faire la « bibliographie » sur un sujet ou sur un astre, c’est-à-dire savoir ce qui avait été publié auparavant, il nous fallait nous plonger dans d’énormes volumes paraissant chaque année, comme les Astronomy and Astrophysic Abstracts, et noter tous les articles pouvant nous intéresser, puis aller les consulter dans une bibliothèque. Ce travail prenait des jours, voire des semaines. Dans les années soixante-dix, on commença à créer des fichiers donnant la liste des articles portant sur un astre donné. L’IAP fut un pionnier en la matière grâce en particulier à Suzanne Laloë, la bibliothécaire en chef de l’époque. Ce travail nécessitait plusieurs personnes à temps plein connaissant bien le fonctionnement d’une bibliothèque. Une difficulté provenait du fait que les objets célestes n’ont pas le même nom suivant la technique d’observation utilisée et la longueur d’onde dans laquelle ils ont été détectés pour la première fois. On verra par exemple dans le chapitre suivant que l’une des premières sources radio observées, Centaurus A, correspond à la galaxie connue sous le nom de NGC 5128. Il n’est pas rare qu’un objet ait ainsi quatre ou cinq dénominations différentes, d’où un problème compliqué d’identification. Tout ceci est évidemment résolu maintenant par les banques de données comme le Centre de données stellaires (CDS), à Strasbourg. Ardu aussi était le problème de la classification des articles. Il fallait être capable de les retrouver d’après plusieurs critères, comme le nom de l’auteur, le sujet ou la date de publication. Rien de plus facile avec un ordinateur et un logiciel de tri. C’est une affaire complexe lorsque l’on dispose seulement de fiches et nous nous ingéniions à trouver des systèmes de classification astucieux : par exemple nous utilisions des fiches de carton perforées dont on pouvait extraire un sous-ensemble grâce à de grandes aiguilles. Cette méthode était évidemment inspirée par les cartes perforées de nos programmes de calcul et elle avait les mêmes inconvénients : erreurs de perforation, chute des fiches. . . L’ordinateur personnel et les portables ont eux aussi changé complètement notre mode de travail. Il est maintenant

Comment on faisait de la recherche dans les années soixante

possible de transporter tout son bureau avec soi, où qu’on aille, et de disposer d’une bibliothèque complète sur quelques DVD ou sur un minuscule « disque dur ». Tout est disponible instantanément et pour peu qu’on ait un ordinateur portable un peu puissant, on peut réaliser également des calculs compliqués dans n’importe quel environnement. Sans oublier naturellement les séminaires et les conférences qu’on peut préparer dans l’avion ou dans le train et projeter le lendemain ou le jour même en y incluant comme illustrations des films ou des photos numérisés. Lorsque l’on donnait un séminaire dans les années soixante, on écrivait encore au tableau (pour les thèses, on venait en général préparer son tableau la veille et on en utilisait deux ou trois en même temps). On se servait également des diapositives pour les équations et les figures, mais là aussi il s’agissait d’une technique relativement longue à mettre en œuvre, car il fallait prendre les photos et développer les films. Les « transparents » et les rétroprojecteurs n’ont été introduits que plus tard. Le développement de l’informatique a eu également son revers de médaille. C’est qu’elle est devenue une science en soi dont tout utilisateur doit connaître un b.a.-ba assez complexe pour l’utiliser d’une manière rentable, à moins d’être aidé par des spécialistes formés dans ce but. Et comme les laboratoires de recherche en France manquent dramatiquement d’ingénieurs informaticiens3 , de nombreux chercheurs, souvent les meilleurs, se sont laissés séduire par l’informatique et s’y sont littéralement englués au détriment de leur domaine propre de recherche. Il y avait bien sûr des services centraux, comme le puissant Centre informatique régional de calcul électronique, dont j’ai déjà parlé (le CIRCE, je suppose qu’avec ce nom on voulait nous faire sentir toute la magie de la chose), créé à Orsay dans les années soixante-dix. Mais comme je l’ai déjà dit, il fallait passer par un assez lourd apprentissage avant de maîtriser la programmation sur cette grosse machine IBM. À l’Observatoire de Paris, nous bénéficions également d’un service central de calcul. Mais souvent l’informatique de laboratoire et maintenant les ordinateurs personnels sont gérés tant bien que mal par les chercheurs eux-mêmes. Lorsqu’un chercheur français arrive dans un laboratoire à l’étranger, il est en général stupéfait de découvrir qu’il peut disposer dans 3 Par manque de postes, mais également parce que les salaires sont plus faibles que ceux qui sont proposés dans le privé à niveau égal.

35

36

Des quasars aux trous noirs

les minutes qui suivent d’un ordinateur connecté avec son laboratoire d’origine et qu’un ingénieur (ou un « post-doc », ces jeunes chercheurs souvent exploités qui n’existent presque pas en France mais qui contribuent pour plus de la moitié de la recherche aux États-Unis) se met à sa disposition pour résoudre toutes les difficultés qu’il rencontrera pendant son séjour. Ne nous étonnons donc pas si l’on dit que les chercheurs français sont moins « efficaces » que leurs collègues étrangers. . . En ce qui concerne les observations, dont je parlerai un peu dans le chapitre 4, il faut mentionner l’apport extraordinaire qu’a représenté l’informatique. Lorsque nous préparions une mission d’observation, il nous fallait d’abord repérer le champ que nous allions observer. Nous disposions de cartes sur lesquelles étaient reportées les étoiles les plus brillantes dont nous mesurions les positions à la règle et au compas. Pour les objets très faibles comme les quasars qui ne se trouvaient naturellement pas sur ces cartes, nous avons eu à notre disposition, à partir des années soixante, le Sky Atlas ou Atlas du ciel. C’était une collection de grandes plaques photographiques réalisées avec le télescope de Schmidt4 de l’Observatoire du Mont Palomar qui a cartographié l’ensemble du ciel de l’hémisphère nord. Le même travail a naturellement été accompli plus tard pour l’hémisphère sud dès que l’Observatoire européen austral (l’ESO) y fut implanté. Des copies papier de cet atlas ont été distribuées à divers instituts. Nous attendions avec impatience chaque nouvelle fournée car ces photos nous étaient indispensables et elles nous parvenaient trop lentement à notre gré, étant très onéreuses. Il est bien évident que tous ces atlas ont été « digitalisés » plus tard et qu’ils sont maintenant accessibles en un instant sur nos ordinateurs sous forme de photos ou de tables. Ils permettent de visualiser sur un écran l’objet de son choix avec tout son environnement, obtenu dans diverses bandes spectrales (par exemple on peut faire superposer les cartes optiques, radio et X, d’une même région du ciel) ainsi que de nombreux renseignements comme les coordonnées de chaque objet de l’image, leurs spectres, leurs variations au cours du temps, les différentes observations qui leur en ont été consacrées. . . 4 Ce télescope, inventé dans les années trente par un opticien estonien, a la propriété de pouvoir prendre en une seule photo une très grande portion de ciel sans pratiquement aucune distorsion de l’image. De nombreux observatoires s’en sont dotés par la suite, comme celui de Calern, près de Grasse, dans le Midi.

Comment on faisait de la recherche dans les années soixante

Le Centre de données stellaires à Strasbourg a été un pionnier en la matière en se consacrant à la collecte et à la distribution des données astronomiques, et c’est encore maintenant le plus important au monde de ce genre. Les observations elles-mêmes ont été radicalement transformées grâce à l’informatisation et à l’utilisation d’appareils électroniques de mesure, eux aussi digitalisés, comme les CCD* (Charge Coupled Devices). Une observation se passe en général devant un écran de télévision, le télescope étant pointé sur l’astre à observer et guidé automatiquement. Enfin, il est inutile de rappeler que les observations astronomiques sont en grande partie réalisées maintenant par des télescopes satellisés, et que ceux-ci n’existaient pas à l’époque où j’ai commencé à faire de la recherche. Pour résumer, dans les années soixante, nous travaillions comme on le faisait dans la première moitié du siècle, les grands changements étant intervenus seulement après. Si un chercheur scientifique disparu dans les années soixante ressuscitait maintenant, il serait certainement ahuri devant l’évolution fantastique de son mode de travail. J’aimerais aussi mentionner un problème important ayant tendance à disparaître avec l’Internet et la généralisation de l’anglais comme langue scientifique, mais qui a énormément compté dans ma jeunesse. C’est la relative imperméabilité entre la science anglo-saxonne et la science européenne. Elle était encore très forte dans les années soixante et nous, les Français, en souffrions beaucoup (moins cependant que les pays de l’Est, dont les articles, à part quelques-uns de niveau exceptionnel, étaient pratiquement ignorés par les Américains et les Anglais et même par les Européens de l’Ouest). L’une des raisons en était que nous publiions essentiellement en français, langue quasiment ignorée par les anglo-saxons. De surcroît, nous apparaissions à notre désavantage dans les congrès. Ils étaient rares à l’époque et ils étaient souvent le seul lieu de contact avec nos collègues étrangers. L’anglais commençait à supplanter largement toutes les autres langues nationales. Les Allemands, les Hollandais, les Scandinaves, avaient moins de difficultés à s’y adapter que les latins, à cause d’une longue tradition de langues étrangères. Tandis que nous avions, nous autres Français, une non moins longue tradition de suprématie dans ce domaine, puisque notre langue a été parlée par l’intelligentsia européenne pendant plusieurs siècles. Nous en sommes très fiers et nous avons du mal admettre que ces temps soient révolus.

37

38

Des quasars aux trous noirs

Jusqu’à la fin des années soixante, nous publiions donc nos articles en français, du moins dans les revues astronomiques françaises existant à l’époque dont la plus importante, les Annales d’Astrophysique. C’était une revue de bon niveau, avec un comité de lecture et des rapporteurs, mais le fait qu’il fût écrit en français réduisait son impact aux seuls pays francophones et à quelques pays latins comme l’Italie et l’Espagne. En 1969, à l’initiative de son éditeur, Jean-Louis Steinberg (un radio-astronome dont je reparlerai), cette revue fut fondue avec plusieurs autres revues nationales et devint la revue européenne Astronomy and Astrophysics. Seuls les Anglais conservèrent leur revue nationale, les Monthly Notices of the Royal Astronomical Society. De ce jour, les articles d’astronomie furent publiés essentiellement en anglais sauf pour certains récalcitrants. Ils restaient cependant en français dans les autres journaux comme les Comptes rendus de l’Académie des sciences, les fameux CRAS : ceux-ci n’étaient de ce fait très peu lus à l’étranger (en astronomie du moins, car je crois qu’ils le sont dans d’autres domaines comme les mathématiques). Il faut dire que sous certains gouvernements – ce fut le cas en particulier du ministre de la Culture Jacques Toubon – nous étions bombardés de directives nous enjoignant de publier et de donner nos conférences en français dans les congrès internationaux. Le ministère n’accepte encore maintenant de financer un congrès que si l’affiche et les annonces sont en français et nous devons même parfois certifier qu’il se déroulera en partie en français. J’ai vu (et surtout entendu) encore assez récemment un chercheur respectueux des directives essayer de capter l’attention de congressistes stupéfaits avec une communication en français. De ce point de vue, « l’exception française » est mal perçue par nos collègues étrangers et ils ne se privent pas de nous ridiculiser. De plus, l’anglais parlé par les Français (ou par les Italiens, sans parler des Japonais) était alors peut-être plus difficile à comprendre que ne l’aurait été notre propre langue. Je me souviens d’une discussion entre un collègue français et un collègue américain. Ce dernier demanda au Français d’avoir l’obligeance de parler en anglais. « Mais je le fais depuis le début ! » lui répondit l’autre. Car il y a plus de cinquante ans, l’enseignement de l’anglais était très littéraire, dispensé pratiquement comme celui d’une langue morte. Et lorsque nous arrivions pour la première fois dans un congrès international ou dans un laboratoire étranger, c’était avec un accent à couper au couteau et avec des anglicismes hérités du xixe siècle n’ayant rien à voir avec le langage parlé.

Comment on faisait de la recherche dans les années soixante

Ces problèmes de langue nous handicapaient lourdement. Dans les congrès, nous participions aux discussions en parents pauvres. Nos collègues anglo-saxons ne se privaient pas de débiter parfois leurs discours à la vitesse d’un avion supersonique, sans se préoccuper de savoir s’ils étaient bien compris par les non-anglophones. Ils les émaillaient de plaisanteries apparemment très drôles qui nous passaient au dessus de la tête, et rien n’est plus désagréable que de voir ses voisins s’esclaffer sans savoir pourquoi. Je crois d’ailleurs que nous, les femmes, étions encore plus défavorisées, car nous étions plus timides que les hommes et nous ne prenions pas la parole si nous n’étions pas sûres d’avoir parfaitement compris la discussion. De plus, nous étions très peu nombreuses par rapport aux hommes et il était encore courant de penser que les femmes n’avaient pas leur place dans la recherche. Je raconterai plus loin certaines avanies qu’ont subies des collègues prestigieuses. Le terme de « harcèlement sexuel » n’avait pas encore été inventé et nous savions que notre discours comptait parfois moins que notre plus ou moins joli minois ou que notre poitrine avantageuse ou non. Il m’est arrivé de me fâcher très fort en entendant des critiques portant, non pas sur la qualité scientifique de telle chercheuse, mais sur son aspect physique, en faisant remarquer que les auteurs – mâles – de ces critiques étaient eux-mêmes loin d’être des Apollons. . . J’ai toujours détesté me retrouver seule dans un congrès. J’étais en effet très complexée et je suis restée toujours mal à l’aise dans ce type de réunions mélangeant science et obligations plus ou moins mondaines. Par ailleurs, je souffre d’un handicap inhabituel : j’ai la mémoire des visages, mais non celle des noms. C’est un défaut fâcheux dans la recherche actuelle où l’on se déplace beaucoup. Il m’arrive donc souvent d’être abordée dans les congrès par des personnes que je connais, mais que je n’arrive pas à situer. Cela m’a mise plusieurs fois dans des situations embarrassantes où, après quelques minutes de conversation pendant lesquelles j’essayais de deviner avec qui je pouvais bien être en train de discuter, il devenait clair que je pataugeais complètement et mon interlocuteur s’en rendait compte. De plus, comme j’ai une mauvaise vue, je ne parviens pas à lire les « badges » où sont écrits les noms, car en général ils sont trop petits. Et d’ailleurs qui oserait visser son regard sur ce malheureux bout de carton pour le déchiffrer ? Bref, les congrès ont toujours été de véritables tortures pour moi. D’autant que les autres, eux, me reconnaissent assez bien : outre que je suis une femme, dans un milieu qui n’en comptait pas tant (il y a vingt ou

39

40

Des quasars aux trous noirs

trente ans), j’ai une toison de cheveux frisés que l’on remarque (à l’époque les coiffures « afro » n’avaient pas encore envahi les rues). De plus, je suis souvent « dans la lune », et il ne manque jamais de se produire quelque aventure rocambolesque lorsque je voyage seule. Par exemple, il m’est plusieurs fois arrivé d’oublier mon passeport ou même mon billet d’avion. Une fois, j’avais reçu quelques jours avant mon départ du CNRS une enveloppe allongée et j’avais négligé de l’ouvrir, persuadée qu’il s’agissait de mon billet. J’en découvris le contenu au guichet, à Orly (Charles-de-Gaulle n’existait pas encore) : « Vous êtes priée de venir prendre votre billet à telle adresse ». Une autre fois, j’oubliai de prendre avec moi l’adresse et le nom de l’hôtel où je devais me rendre. Je perdis aussi mes bagages en oubliant d’aller les chercher lors d’un changement d’avion. Tous mes collègues ayant expérimenté la chose au moins une fois savent à quel point il est désagréable d’assister pendant une semaine à un congrès sans vêtement de rechange ! Cette fois d’ailleurs, mon voyage avait vraiment mal débuté. Je me rendais à Washington, mais une tempête avait forcé l’avion à atterrir à New York et il avait fallu rejoindre Washington en taxi. Ensuite, alors que je faisais quelques courses pour m’acheter les objets et les vêtements de rechange indispensables, j’avais découvert le corps d’un homme mort dépassant des buissons sur le trottoir. On comprend donc pourquoi je préférais me déplacer avec une ou deux collègues. Cela me permettait également de fuir les obligations mondaines et les invitations à dîner, ce qui était d’ailleurs très mal vu et considéré là encore comme une « exception française ». De plus, dans le domaine des quasars où le nombre de congrès est probablement l’un des plus élevé de toute l’astronomie, il est difficile de ne pas assister à deux ou trois congrès par an, sur la douzaine portant actuellement sur le sujet. Je me demande d’ailleurs comment certains font pour arriver à travailler, car ils semblent être en permanence en voyage. Il faut dire que pour un astronome, s’ajoutent aux congrès, les missions d’observations et de réduction des données, en plus de comités internationaux divers de distribution de temps sur les télescopes spatiaux ou au sol. Nous sommes une profession de pigeons voyageurs, mais je ne crois pas que tous s’en réjouissent comme on se l’imagine souvent car c’est un problème difficile à gérer lorsqu’on a une famille. En ce qui me concerne, chaque fois que je m’absentais, je me dépêchais en général de rentrer, ne prenant souvent même pas le temps d’un

Comment on faisait de la recherche dans les années soixante

week-end pour visiter un pays où, peut-être, je ne remettrais jamais les pieds et qui se trouvait à l’autre bout du monde. On a beaucoup glosé sur le « petit monde » des congrès et le monde universitaire en général. Le brûlot de Bernard Maris, Les sept péchés capitaux des universitaires et dans une moindre mesure les livres de David Lodge que nous nous passions entre nous avec délectation (Small World en particulier), sont des charges très noires et drôles sur le milieu universitaire économique et littéraire. Ils le décrivent comme pourri, arriviste, servile et conformiste, à l’opposé de l’image qu’on se fait généralement des chercheurs et des enseignants, avec des aventures se tramant dans les soirées de congrès, des professeurs séduisant de jeunes étudiantes récompensées par de bonnes notes, qui les larguent avec pertes et fracas lorsqu’elles ont obtenu une position. . . Je ne crois pas qu’en science nous soyons de petits saints, mais il me semble tout de même que nous sommes loin d’atteindre l’état décrit dans ces livres. Il est vrai que le « programme social » des congrès permet les rencontres et les discussions sans contrainte ; parfois, il faut le reconnaître, également l’amorce d’aventures qui tournent court à la fin du congrès, ou bien se prolongent de loin en loin, à l’occasion d’autres rencontres internationales. Mais sans être naïve, je pense que l’ascenseur social à base de relations sexuelles est très peu répandu dans notre milieu. Et si des liaisons s’ébauchent, c’est plutôt à l’intérieur d’un même laboratoire, entre personnes appelées à se côtoyer en permanence et à travailler ensemble tous les jours et parfois les nuits, et elles se soldent souvent par des drames qui n’ont rien de plaisant. Comme tout le reste, les congrès ont considérablement évolué depuis quarante ans. D’abord, ils sont beaucoup plus nombreux. Si l’on participait alors à un congrès par an, c’était le bout du monde. Maintenant, comme je l’ai dit, c’est à une douzaine que l’on devrait se rendre si l’on travaille sur un sujet « chaud » et si l’on veut tout suivre. Heureusement, les choses ne changent tout de même pas aussi rapidement et de nombreux orateurs se répètent d’un congrès à l’autre avec peu de modifications : les nouvelles idées ne viennent pas plus vite aujourd’hui qu’hier, car nos cerveaux eux-mêmes n’ont pas changé. Avant, les congrès étaient rarement publiés in extenso, tandis que maintenant ils le sont tous. Ce qui, entre parenthèses, ajoute au nombre de publications. Elles sont multipliées ainsi par des facteurs deux, trois, et jusqu’à dix. . . D’autant plus que même les communications non orales, celles que l’on

41

42

Des quasars aux trous noirs

nomme les posters, c’est-à-dire des affiches sur lesquelles on explique son travail, sont également publiées : certaines sont de véritables chefs-d’œuvre de « communication », dignes des meilleurs professionnels de la publicité. En outre, elles peuvent être signées de plusieurs personnes, même si seulement l’une d’elles a assisté au congrès, ce qui multiplie encore le nombre de publications. Heureusement pour les arbres de la planète, l’habitude de publier seulement électroniquement une partie des résultats est en train de se répandre, mais cela ne diminue naturellement pas le nombre de publications. Dans ces années lointaines, les exposés étaient longs, typiquement de trois quarts d’heure à une heure, et les conférenciers avaient tous été invités par le Comité d’organisation scientifique (le « SOC ») à présenter une revue ou leurs propres travaux. De grands moments étaient prévus pour les discussions. Tandis que maintenant il se rajoute à ces exposés « invités » (qui dépassent rarement la demi-heure) une quantité de « contributions » proposées par les auteurs eux-mêmes, dont la durée est limitée dans les bons cas à un quart d’heure, dans les mauvais à cinq minutes. . . Enfin, ce qui prédomine actuellement, ce sont les exposés préparés sur ordinateur. On arrive avec son « portable », on le branche et l’on fait défiler sur l’écran des images, des animations, des diagrammes, des flèches qui vont et qui viennent, des dessins humoristiques parfois, tout ceci axé sur un seul but : en dire le maximum dans un temps minimum. Il faut reconnaître que certains orateurs font des efforts considérables pour être simples et pédagogiques, mais il n’en demeure pas moins que suivre de tels exposés requiert une attention de chaque seconde et qu’au bout d’une journée on est complètement épuisé (je dois avouer que je suis moi-même une adepte des exposés sur ordinateur et que je fais partie de ces gens qui veulent en dire trop). Pourtant, il faut recommencer à écouter le lendemain, et puis encore le surlendemain, avant que l’on ait droit à une demi-journée de « détente » sous forme d’une excursion à laquelle on n’assiste pas en général si l’on n’a pas encore délivré son propre laïus et qu’il faut en terminer la préparation. Pour parachever la description, ajoutons que des problèmes surgissent parfois avec les ordinateurs portables, l’un qui se bloque on ne sait pourquoi, l’autre qui n’a pas la bonne connexion avec le vidéoprojecteur, ou bien qui a récolté un virus (j’ai assisté ainsi en direct à la destruction d’un disque dur par un méchant virus). . . L’orateur désespéré après quelques essais infructueux et lorsque sont écoulées les quelques minutes supplémentaires qu’on peut lui accorder

Comment on faisait de la recherche dans les années soixante

au cours d’une journée dont chaque instant est compté, n’a plus qu’à repartir avec son exposé sous le bras, à moins qu’il n’ait pris la précaution de l’imprimer sur de bons vieux transparents. Mais c’est un pis-aller car il manque les animations naturellement. Parfois, on l’autorise aussi à remplacer un autre jour un absent qui a raté son avion, dans une session qui n’a plus grand chose à voir avec son sujet. C’est pourquoi on commence maintenant à demander aux orateurs de donner leurs exposés la veille et on les rassemble tous sur un même ordinateur bien testé et sans surprise de dernière minute. Mais tout ceci fait, de plus en plus, des congrès des machines bien huilées et sans âme, d’où toute discussion spontanée est bannie, sauf dans les couloirs et inévitablement à condition de sécher certaines parties d’un programme surchargé. J’ai perdu ma timidité depuis pas mal d’années, mais j’ai gardé mon peu de goût pour les congrès et une préférence pour les collaborations féminines. L’arrogance de certains chercheurs masculins est sans doute due à la nécessité de prouver leur supériorité : les jeunes doivent être reconnus afin d’obtenir un poste permanent, et les plus âgés afin de maintenir leur autorité et de continuer à diriger des équipes et à obtenir des crédits. Les femmes sont moins sensibles à ces questions, ou l’étaient en tout cas, et attachent plus d’importance à d’autres aspects de la vie. J’ai donc toujours eu plus de plaisir à travailler avec des femmes, ce qui explique que la plupart de mes étudiants aient été des étudiantes. Et comme nous avons été presque seules à travailler sur les noyaux de galaxies pendant quelques années en France, de nombreux collègues étrangers du domaine s’en sont étonnés, rencontrant presque uniquement des astronomes françaises féminines, ayant l’impression que c’était le cas dans toutes les disciplines, alors qu’il n’y en avaient pratiquement aucune dans leur pays. Tout ceci a beaucoup changé. À l’heure actuelle, les femmes sont plus nombreuses dans la recherche en général. Nous représentions il y a quelques années environ trente pour cent de la population d’astronomes en France, et la proportion était à peu près identique en Italie et en Espagne. C’était encore loin de la parité et ce pourcentage a tendance à diminuer en ce moment avec la raréfaction du nombre de postes, les femmes étant sans doute moins prêtes à se lancer dans une concurrence sauvage. Ce taux décroît à mesure que l’on monte dans les échelons de la hiérarchie. Il y a tout de même des femmes dans des postes très élevés, telle Catherine Césarsky qui, après avoir été directrice d’un grand département au CEA de Saclay, s’est retrouvée directrice de l’European Southern Observatory (ESO).

43

44

Des quasars aux trous noirs

Cependant, la très conservatrice assemblée qu’est l’Académie des sciences résiste encore : pour une vingtaine d’astronomes académiciens hommes, il y a seulement deux femmes et elles ont été cooptées récemment. Le pourcentage de femmes en astronomie est encore très faible en Angleterre où elles ne doivent pas représenter encore maintenant plus de dix pour cent. En revanche, le nombre de femmes augmente régulièrement aux États-Unis à cause des quotas qui font préférer pour un recrutement « une femme ou un élément d’une minorité défavorisée ». Une telle discrimination est choquante, mais il est vrai qu’elle conduit à un rééquilibrage plus rapide des choses. D’autre part, les femmes ont perdu une partie de leurs complexes et ont appris à ne plus se tenir autant en retrait. Dans les congrès, elles font en général des exposés excellents et elles dépassent souvent les hommes en combativité. Il faut dire aussi qu’il est recommandé aux hommes de ne pas se préoccuper de l’aspect physique de leurs compagnes chercheuses, en particulier aux États-Unis où celles-ci soignent une féminité à rebours d’où l’élégance est bannie (du moins dans les réunions de travail car dans les évènements mondains, leurs tenues n’ont rien à envier aux robes de soirées de grandes premières à l’opéra). Et il vaut mieux qu’ils évitent tout geste un peu ambigu sous peine d’avoir à se justifier devant des tribunaux comme cela a été le cas pour plusieurs de mes collègues américains. Les Italiens, ou mêmes nous autres Français, avec nos expressions souvent chaleureuses d’amitié, risquons fort de les voir mal interprétées : là, le pendule est vraiment parti trop loin dans l’autre sens. Mais sans doute n’avons-nous pas connu en France, ou du moins dans le milieu de la recherche scientifique, le degré de harcèlement sexuel atteint aux ÉtatsUnis. Pour nous, c’était « on pouvait si on voulait, et si on ne voulait pas on ne faisait pas ». Le problème de langue a également en partie disparu. Les jeunes sont en effet immergés dès leur plus jeune âge dans un bain de chansons anglaises, dans l’informatique entièrement en anglais elle aussi (« tu veux bien te logguer pour débugguer mon mail ? »), on voyage plus et l’enseignement des langues est beaucoup plus vivant, avec des cassettes, des vidéos... Lorsqu’ils arrivent dans un laboratoire étranger, les jeunes chercheurs d’aujourd’hui savent d’emblée mieux parler l’anglais que leurs aînés ayant parfois passé plusieurs années aux États-Unis, mais ayant gardé leur épouvantable accent de jeunesse et leurs complexes.

Comment on faisait de la recherche dans les années soixante

Ce problème de langue reste malgré tout fondamental. Il est clair qu’on ne s’exprime vraiment bien que dans sa langue maternelle, à moins d’avoir passé de nombreuses années dans un autre pays ou d’avoir été bilingue dans son enfance. L’anglais que nous parlons ou que nous écrivons est pauvre, en particulier pour un scientifique dont la première préoccupation n’est pas linguistique. Je suppose qu’il fait souvent se dresser les cheveux sur la tête de nos collègues anglophones, surtout les Anglais qui ont souvent un langage très riche, même sans aller jusqu’aux vingt mille mots usuels de Shakespeare. Nous ne savons pas exprimer certaines subtilités, nécessaires même en science, notre style est lourd et nos articles sont moins plaisants à lire et par suite moins convaincants que ceux des anglophones. Mais que faire ? J’avais un peu milité dans ma jeunesse pour l’adoption de l’esperanto. Il est clair que cette solution était bâtarde. Une langue sans passé et ne prenant pas en compte les langues parlées dans la majeure partie du monde ne pouvait résoudre le problème. Il ne reste plus qu’à espérer que la cloison de la langue disparaîtra peu à peu par suite de l’interpénétration des pays, que le bilinguisme va devenir la règle et non l’exception, et que nos collègues anglo-saxons prendront un peu plus la mesure de la suprématie que leur confère l’usage de l’anglais. . . En ce qui concerne les traductions automatiques, nous en sommes encore loin, et pour le moment elles n’ont que l’intérêt de nous faire hurler de rire lorsque nous en lisons une. Revenons maintenant à ma recherche. Eh bien, elle n’avançait pas vite. Il est clair que je ne satisfaisais pas aux critères du bon chercheur selon De Gaulle, car je cherchais, je cherchais désespérément, mais je ne trouvais rien d’intéressant. Évry Schatzman m’avait suggéré de regarder un problème qui le préoccupait : il était intrigué par les intensités bizarres de certaines raies brillantes dans le spectre du Soleil. Ces raies se forment en fait au-dessus de la surface du Soleil, juste sous la couronne solaire (Encadré 2.2). Évry pensait que les électrons qui excitaient ces raies spectrales pouvaient être perturbés par les collisions avec les autres particules du gaz, et que cela créait des conditions un peu différentes de celles que l’on s’attendait à rencontrer dans l’atmosphère du Soleil.

Encadré 2.2. Tout le monde sait que le Soleil est entouré d’une magnifique « couronne » qui apparaît dans toute sa splendeur au moment des éclipses (Figure 2.4).

45

46

Des quasars aux trous noirs

Figure 2.4. La couronne solaire observée au moment d’une éclipse.

Cette couronne est très chaude, sa température atteignant par endroits dix millions de degrés tandis que la surface du Soleil elle-même est à 5 600 degrés (dans nos mesures à nous où les degrés sont exprimés en « kelvin » et 5 600 K correspondent donc à 5 330 de nos degrés centigrades habituels). Entre la surface du Soleil, la photosphère et sa couronne, se trouve une région intermédiaire que l’on appelle la « chromosphère », constituée d’un gaz plus chaud que la photosphère et moins chaud que la couronne. Évry me proposait d’étudier l’effet des « collisions » sur la « distribution » des électrons dans la chromosphère pour tenter de comprendre la formation de ces raies en émission. Je vais tenter d’expliquer cela en termes simples. Les étoiles, la matière entre les étoiles et les grosses planètes comme Jupiter, Saturne, Uranus et Neptune, ne sont pas comme la Terre, la Lune, Mercure, Mars, Vénus ou les météorites, constituées de rocs et de liquide, mais de gaz. C’est-à-dire d’une matière bien moins rigide dans laquelle les particules sont libres et se déplacent rapidement les unes par rapport aux autres (c’est la vitesse de ces déplacements qui définit la température de la matière, voir le dernier chapitre). Elles s’entrechoquent donc en permanence. Dans certains de ces chocs, elles perdent ou gagnent de l’énergie en même temps qu’elles génèrent des photons constituant des raies spectrales**. Ces chocs les conduisent après un certain temps à acquérir des vitesses dont la distribution (c’est-à-dire le nombre de particules ayant une vitesse donnée) correspond à un état d’équilibre. Donc, chocs et raies spectrales sont intimement liés.

Comment on faisait de la recherche dans les années soixante

Dans un gaz suffisamment dense, la distribution est donnée par une loi bien connue qu’on appelle la « fonction maxwellienne ». Mais lorsqu’un gaz rayonne abondamment et qu’il est très dilué (ainsi la chromosphère a une densité environ un trillion de fois moins dense que l’air), cette distribution peut être perturbée. Mon travail consistait à la calculer en tenant compte des chocs subis par les particules, puis à en déduire les intensités des raies spectrales et voir si elles s’accordaient avec les observations. Ce fut l’affaire de presque deux ans de traiter ce problème car il nécessitait des calculs assez compliqués et nous ne disposions pas encore d’ordinateurs puissants. Malheureusement, je trouvais que l’effet n’était pas important et ne pouvait pas avoir de conséquences sur les raies spectrales du Soleil. Je publiai tout de même ce résultat, pour au moins éviter à un autre de refaire les mêmes calculs fastidieux. Mais je me retrouvais Grosjean comme devant et il me fallait trouver un autre sujet de recherche. Entre temps, d’ailleurs, la solution de ce problème avait été trouvée dans le cadre d’une théorie nouvelle appelée le non-équilibre thermodynamique local qui révolutionna les études des atmosphères stellaires. Elle fut élaborée entre autres par Dick Thomas, Jean-Claude et Charlotte Pecker. L’IAP accueillait souvent Dick Thomas. Il était connu pour son caractère très emporté : la passion de son sujet le conduisait parfois à traiter fort mal ceux qu’il jugeait incompétents et qui ne l’étaient pas nécessairement. Je l’ai entendu créer de véritables scandales dans des congrès ou des séminaires... Mais il était toujours prêt à aider les jeunes et je lui confiai mes états d’âme. Il me suggéra de m’attaquer à un autre sujet, les ondes de choc5 , reconnues pour être importantes dans les atmosphères de certaines étoiles pulsantes comme les céphéides et de calculer la structure de part et d’autre du choc en tenant compte du rayonnement (cela dit d’une façon simplifiée). Sur le conseil de Dick Thomas, j’allais pendant un mois à Harvard discuter avec un spécialiste, Charles Whitney. Ce fut un séjour enrichissant mais de nouveau infructueux sur 5 Les ondes de chocs sont bien connues sur Terre, par exemple dans le sillage des avions supersoniques où se crée une surpression due à l’accumulation des ondes sonores devant l’avion. Ce phénomène est semblable aussi à ce qui se produit lorsque la vitesse d’un bateau dépasse celle des vagues qu’il crée. Dans le cas des atmosphères des étoiles pulsantes, les ondes de choc sont tellement puissantes qu’elles engendrent un rayonnement qui peut être observé et qui modifie les ondes elles-mêmes.

47

48

Figure 2.5. Une arche magnétique solaire vue au limbe. Ces arches sont ancrées dans les taches solaires et suivent les lignes de force du champ magnétique. Elles sont dues à des reconnections brutales de boucles du champ magnétique qui s’effetuent dans l’atmosphère solaire au moment des éruptions. Comme on le verra beaucoup plus loin, on invoque de telles éruptions mais à une échelle incommensurablement plus grande pour expliquer les variations d’éclat des quasars. . . Cette photo a été obtenue récemment par l’instrument spatial TRACE destiné à l’observation de la basse couronne solaire.

Des quasars aux trous noirs

le plan de ma thèse car il m’aurait fallu bien plus longtemps pour démarrer un travail sérieux (on ne disposait pas à cette époque de l’Internet et il n’était guère possible d’être dirigé à distance). Évry Schatzman me proposa alors de m’attaquer à un problème difficile, celui du mécanisme des « éruptions solaires ». Beaucoup ont vu de ces films splendides montrant le développement d’une éruption à la surface du Soleil. Lorsqu’on les observe au « limbe », c’est-à-dire au bord du Soleil, on voit des arches gigantesques appelées des « protubérances » se déployant jusqu’à des centaines de milliers de kilomètres au-dessus de la surface du Soleil (Figure 2.5 et Encadré 2.3). Des dizaines de Terres tiendraient à l’aise dans l’une de ces flammes. Pour parvenir à les filmer, il faut être capable d’observer pendant de longues heures la couronne solaire. Jusque dans les années trente, on ne pouvait le faire qu’au moment des éclipses totales, c’est-à-dire pendant deux ou trois minutes, une fois par an tout au plus, en allant les chercher dans des pays lointains. Les éclipses totales se produisent en effet très rarement dans un lieu donné : nous en avons eu une en 1961 visible dans le Sud de la France, une autre en 1999 visible dans le Nord ; la prochaine observable en France aura lieu en 2081. Ce problème fut résolu en 1930 par la remarquable invention d’un astronome français de l’Observatoire de Meudon, Bernard Lyot. Il eut l’idée d’interposer entre l’oculaire et la

Comment on faisait de la recherche dans les années soixante

lentille d’un télescope un diaphragme arrêtant les rayons trop lumineux du disque solaire et produisant ainsi une éclipse artificielle6 .

Encadré 2.3. Les protubérances ne sont que l’une parmi les multiples manifestations d’une éruption solaire. Lorsqu’on observe une éruption sur le disque solaire et non au limbe, elle se traduit par une augmentation locale de la brillance, surtout dans certaines raies spectrales comme la raie Hα de l’hydrogène**. Dans le domaine des ondes radio, on observe des émissions transitoires (« sursauts » en français, burst en anglais) qui proviennent de flux de particules très énergétiques traversant l’atmosphère du Soleil. On reçoit également à profusion des rayons X. Enfin, les éruptions ont des répercussions importantes sur la Terre comme des orages magnétiques et des aurores polaires, attestant l’éjection par le Soleil d’un intense flux de particules chargées électriquement. Ces particules voyagent avec des vitesses de plusieurs milliers de kilomètres par seconde et arrivent dans notre atmosphère quelques heures après le déclenchement d’une éruption, perturbant les émissions radio et le fonctionnement des satellites de communication. Bref, tout un assortiment de phénomènes impressionnants se déclenche lors d’une éruption. On avait constaté depuis longtemps que les éruptions se produisent toujours près des « taches solaires ». Celles-ci sont des plages sombres relativement froides à la surface du Soleil (elles furent découvertes par Galilée et c’est leur déplacement sur le disque solaire qui lui a permis de découvrir la rotation du Soleil). On les voit très facilement en regardant le Soleil à travers un écran protecteur comme une feuille de mylar aluminé. On savait, en 1960, que le champ magnétique y est particulièrement intense, de l’ordre de plusieurs milliers de gauss, et on liait les éruptions à des variations brutales de ce champ, dues à des reconnections et des changements de structure. Mais c’était tout. Mon année perdue sur les éruptions solaires m’avait sensibilisée aux phénomènes d’explosion et à l’impact que pouvaient avoir des particules énergétiques dans les milieux 6

On peut maintenant observer en permanence la couronne solaire grâce aux observatoires spatiaux, comme la mission SOHO.

49

50

Des quasars aux trous noirs

Figure 2.6. Photographie de la nébuleuse du Crabe montrant les filaments expulsés au moment de l’explosion de la supernova et qui se sont répandus depuis dans le milieu interstellaire. Si la photo était en couleurs, on distinguerait très bien la lumiére bleutée diffuse due au rayonnement synchrotron**, dans laquelle baignent les filaments de gaz, rougeâtres à cause de la raie intense Hα de l’hydrogène.

qu’elles traversent. Or, il est un cas bien connu où des flux de particules très rapides traversent un milieu, c’est celui des restes de supernovae, et en particulier de la « nébuleuse du Crabe », résidu de l’explosion d’une supernova ayant eu lieu en 1054 (pour une raison encore incomprise, elle fut observée par les astronomes chinois, mais non par les européens)7 . Les gaz éjectés au moment de cette explosion se répandirent dans l’espace et ils forment maintenant ce superbe lacis de filaments dont on voit souvent la photographie dans les livres d’astronomie. Ces filaments baignent dans une lumière bleutée intense (Figure 2.6). Il s’agit de « rayonnement synchrotron** » que nous retrouverons tout au long de ce livre. Il traduit la présence d’électrons* très rapides – relativistes –, comme on dit. On ignorait encore à cette époque que ces électrons étaient produits par la dépouille de la supernova, une petite étoile très compacte tournant comme une toupie au centre de la nébuleuse : un pulsar. Avec une amie, Nicole Chesnay (qui est devenue par la suite Nicole Mein), nous calculâmes l’effet des chocs entre les électrons relativistes et les filaments de gaz, pour montrer à nouveau que ceux-ci n’étaient que très peu perturbés, hélas. 7 Lorsqu’on dit que l’explosion a eu lieu en 1054, il faut être conscient qu’elle s’est produite en fait trois mille ans avant, mais qu’elle n’a été perçue sur Terre qu’après que la lumière ait parcouru les 3 000 années-lumière qui représentent la distance de la supernova au Soleil !

Comment on faisait de la recherche dans les années soixante

Je commençais donc à désespérer et j’aurais sombré dans la dépression si je n’avais eu mon enseignement pour me motiver. Car c’est l’un des intérêts de faire de l’enseignement en même temps que de la recherche : on peut s’y ressourcer avec l’impression d’être utile, et l’on y apprend beaucoup. Mais il ne faut pas que l’enseignement devienne trop envahissant, sinon il peut interdire toute possibilité de recherche suivie. Or, je constate qu’en ce moment beaucoup de mes collègues enseignants n’arrivent pas à avoir la continuité indispensable à leur travail de recherche, même pendant quelques mois par an, par suite d’un enseignement trop lourd aggravé par la nécessité de participer à de nombreuses réunions. Cependant, je ne crois pas que la recherche au sens strict puisse être un travail à temps plein. Si je prends mon cas personnel, je vois que ma recherche a toujours été le fait d’à-coups brutaux, après de longues périodes d’inactivité apparente pendant lesquelles je lisais beaucoup. Très souvent, une illumination m’est venue en me réveillant au milieu de la nuit. Est-ce parce que je suis une femme et qu’on les dit plus intuitives que les hommes ? Il m’est arrivé de me désespérer pendant des mois, des années, de ne rien faire sauf de m’abreuver de lectures, puis soudain de concevoir et de rédiger un article en une semaine. Et ils sont à mon avis meilleurs que ceux que j’ai écrits moyennant un travail acharné de plusieurs mois. Malgré cela, je crois que la recherche ne peut pas se dispenser d’être conduite de manière obsessionnelle, avec une pensée tournée en permanence vers elle, même dans les périodes de stagnation, car c’est de cette obsession que finira par émerger la solution. Cela faisait donc près de cinq ans que je tournais en rond et que je n’avais toujours pas trouvé de sujet de thèse. Bien sûr, j’avais publié quelques articles, mais aucun ne correspondait à des résultats intéressants. J’envisageais donc sérieusement de quitter la recherche et j’avais même passé une « thèse de troisième cycle »8 dans ce but, afin d’avoir un « diplôme vendable » dans l’industrie ou ailleurs. Puis, d’un seul coup, la situation se dénoua.

8

Ces thèses se passaient en général en deux ans, mais n’étaient pas indispensables pour présenter une « thèse d’État ».

51

This page intentionally left blank

Chapitre 3

Une découverte étrange qui nous fait remonter loin dans le passé Comme je l’ai dit, l’étude des éruptions solaires m’avait donné le goût de l’étude des phénomènes explosifs et énergétiques. Elle orienta mon choix de recherche vers les quasars et les noyaux actifs de galaxies, les NAGs comme nous les avons appelés (en anglais, Active Galactic Nuclei, ou AGN). Le 1er juillet 1964 parut dans l’Astrophysical Journal, revue américaine un article qui décida du cours de ma recherche. Je ne le découvris que quelques mois plus tard. Il n’avait pourtant pas un titre bien accrocheur, puisqu’il s’intitulait sobrement « The quasi-stellar radio sources 3C 48 and 3C 273 », de Jesse Greenstein et Maarten Schmidt [41]. C’était la première fois que j’entendais ce nom barbare de « quasi-stellar radio sources », qui allait devenir bientôt simplement « quasars ».

Comment l’usage des radars fut détourné pendant la guerre et après Revenons en arrière d’une vingtaine d’années. L’origine de la découverte vint d’une discipline nouvelle, la radio-astronomie : elle s’était développée dans les années quarante, hélas, pourrait-on dire, grâce à la Seconde Guerre mondiale. Le père de la radio-astronomie est un ingénieur de la compagnie Bell Telephone, Carl Jansky. Ayant construit une antenne travaillant à la longueur d’onde de 14,5 mètres pour détecter les interférences dans les émissions radio transatlantiques, il observa une émission d’ondes radio-électriques ayant la propriété d’augmenter puis de diminuer avec une périodicité d’un jour.

54

Des quasars aux trous noirs

Jansky attribua d’abord cette émission au Soleil, mais après plusieurs mois d’observations, il se rendit compte que la périodicité était en fait de 23 heures et 56 minutes et non de 24 heures. Par chance, il avait quelques notions d’astronomie et il savait que c’était la signature d’une émission émanant d’étoiles lointaines1 . Elle semblait provenir de la partie centrale de la Voie lactée dans la constellation du Sagittaire. La découverte fut annoncée en 1933, elle eut même les honneurs de la première page du New York Times. Malheureusement, Jansky ne reçut pas l’autorisation de la Bell Telephone de poursuivre ses investigations puisque le problème était sans intérêt financier pour la compagnie (maintenant elle jugerait sans doute que c’est bon pour son « image » et elle laisserait faire. . . ). Par un heureux hasard, Jansky travaillait à une longueur d’onde « courte » pour les émissions radio terrestres (qu’en fait on appelle une grande longueur d’onde en radio-astronomie), car il s’en est fallu de peu que cette émission ne soit pas détectée : quelques mètres de plus et il n’aurait rien reçu du ciel2 . Cela ne signifie pas que le rayonnement radio du ciel n’aurait pas été découvert, mais il l’aurait été probablement bien plus tard. De grandes découvertes comme celle-ci sont rarement le produit d’une recherche programmée d’avance. Elles surviennent inopinément, par exemple au détour d’une étude de « parasites » (c’est le cas de la radio-astronomie, de la découverte du rayonnement fossile de l’Univers – également à la Bell Telephone – et de celle des pulsars) ou, pour les quasars, simplement en voulant compléter un catalogue. Ne nous imaginons pas cependant que ces découvertes sont servies sur un plateau d’argent et qu’elles auraient pu être réalisées par n’importe qui. Elles tombent en général dans l’escarcelle de chercheurs ou d’ingénieurs particulièrement doués et rigoureux. Plus le travail est effectué avec sérieux, plus elles sont considérées d’abord avec scepticisme, et plus les « découvreurs » prennent la peine de les vérifier pendant de longs mois avant de les publier dans des journaux spécialisés et a fortiori de les livrer au public. . . 1 2

C’est en effet la durée de la révolution de la Terre par rapport aux étoiles.

En effet, l’ionosphère, qui se trouve au dessus de l’atmosphère terrestre, est un gaz ionisé ou « plasma », et comme tel, renvoie vers le ciel les ondes électromagnétiques de fréquence inférieure à la « fréquence de plasma », qui correspondent à des longueurs d’onde supérieures à trente mètres. C’est d’ailleurs pour cette raison que le français Charles Nordmann qui chercha au début du xxe siècle, donc bien avant Jansky, à détecter des ondes radio en provenance du Soleil n’y parvint pas, car il travaillait à trop grande longueur d’onde.

Une découverte étrange qui nous fait remonter loin dans le passé

55

Figure 3.1. L’antenne radio construite par Reber dans son jardin. . .

Les États-Unis comptent de nombreux amateurs fortunés et passionnés, et il se trouva un ingénieur, Grote Reber, pour reprendre les études de Jansky et construire dans son jardin, à Chicago, une grande antenne avec laquelle il commença à observer le ciel (Figure 3.1). Nous avons malheureusement moins de gens aussi riches en France, ou peut-être sontils moins entreprenants. Remercions donc nos gouvernants d’avoir épargné, jusqu’à maintenant en tout cas, nos organismes de recherche fondamentale dont l’objectif n’est pas la rentabilité immédiate. Reber produisit en 1944 une carte du ciel radio [78]. Outre la Voie lactée, elle montrait plusieurs maxima de brillance, dont l’un dans la constellation du Cygne (Figure 3.2). Nous allons retrouver bientôt cette source. En 1942, un ingénieur radio anglais avait remarqué fortuitement que les écrans des radars qui tentaient de détecter les V1 allemands se brouillaient lorsqu’ils étaient dirigés vers le Soleil. Le directeur du laboratoire de physique de l’École normale supérieure de Paris, Yves Rocard (père de l’ancien Premier ministre Michel Rocard) se trouvait alors à Londres où il avait été nommé par de Gaulle directeur de recherche des Forces navales françaises libres et il eut connaissance de

56

Des quasars aux trous noirs

Figure 3.2. . . . et la carte du ciel radio qu’il produisit avec cet instrument en 1944. Il est intéressant de comparer cette figure avec celles qui sont produites à l’heure actuelle et montrées plus loin dans le livre.

Figure 3.3. Un des radars « Würzburg » construits par les Allemands pendant la Seconde Guerre mondiale, du type de ceux qui furent transformés par la suite en radiotélescopes.

cette observation. Dès son retour en France, après la guerre, il proposa à l’un de ses étudiants, Jean-François Denisse, et à Jean-Louis Steinberg qui venait de rentrer du camp de concentration d’Auschwitz dont il était l’un des survivants3 , d’observer le Soleil en utilisant les radars abandonnés par les Allemands. Les premiers essais furent réalisés sur les toits de l’École normale, rue d’Ulm, puis à Marcoussis où Yves Rocard avait mis un terrain à leur disposition (Figure 3.3). Denisse et Steinberg furent bientôt rejoints par Émile Blum, André Boischot, Émile Leroux, et un peu plus tard, par Jean Delannoy et James Lequeux. Sous la houlette de Denisse et de Steinberg, ils allaient constituer l’équipe de radio-astronomie de l’Observatoire de Meudon et s’attaquer au début des années soixante à l’installation d’une station de radio-astronomie à Nançay, dans le Cher. Mais ce n’est pas à moi de raconter 3

J’ai déjà parlé de lui car il fut à l’origine de la création de la revue européenne Astronomy and Astrophysics.

Une découverte étrange qui nous fait remonter loin dans le passé

Figure 3.4. Le grand radiotélescope de Nançay, construit dans les années soixante.

cette grande saga, dont l’une des réalisations fut le grand radiotélescope de Nançay (Figure 3.4). La radio-astronomie se développa donc très rapidement non seulement en France, mais également dans d’autres pays comme les États-Unis, l’Australie, la Grande-Bretagne et les Pays-Bas. Une histoire illustrant bien l’imprévisibilité de la recherche est celle de Sir Bernard Lovell. Il créa à la fin des années quarante l’Observatoire radio-astronomique de Jodrell Bank, près de Manchester en Angleterre. Il y fit construire une gigantesque antenne de soixante-seize mètres de diamètre dans le but d’observer une émission en provenance des rayons cosmiques*, ces particules très énergétiques qui nous parviennent de l’espace. Malheureusement pour Sir Lovell, il ne réussit jamais à en détecter un seul, mais par contre on découvrit à Jodrell Bank l’émission radio de la galaxie Andromède (M 31)4 et, plus tard, on y fit de nombreuses autres découvertes. En 1993, presque cinquante ans après la construction de Jodrell Bank, Lovell écrivait donc avec humour que « les objectifs originaux du télescope n’avaient pas encore été atteints ». . . En 1948, on connaissait cinq « radiosources » autres que le Soleil. Leurs noms correspondent à la constellation dans laquelle ils se trouvent : Cygnus A dans la constellation du Cygne, Virgo A dans la constellation de la Vierge, Cassiopeia A, Centaurus A et Taurus A. Ils leur sont restés, 4

Mais pas avec le même télescope.

57

58

Des quasars aux trous noirs

(a)

Figure 3.5. Les galaxies NGC 5128 (a) et M 87 (b), identifiées respectivement aux radio-sources Centaurus A et Virgo A. Il s’agit dans les deux cas de galaxies elliptiques géantes. Les sources radio associées à ces galaxies sont bien plus grandes que les galaxies elles-mêmes.

(b)

mais certains sont désignés seulement par leurs abréviations : Cyg A, Cas A, Cen A. Le problème était de relier ces sources à des astres visibles sur des plaques photographiques. On appelle cela « les identifier ». Ce fut réalisé pour plusieurs d’entre elles en 1949. Taurus A fut identifiée à la nébuleuse du Crabe, le reste de supernova dont j’ai parlé dans un chapitre précédent. Virgo A fut identifiée à une grande galaxie elliptique* présentant un jet, M 87, la plus brillante galaxie de l’amas de galaxies* de la Vierge ; et Centaurus A à une grande galaxie elliptique coupée par une sorte de disque de poussières, NGC 5128 (Figures 3.5a et 3.5b). Il restait Cas A et Cyg A. Un radiotélescope avait été construit dès la fin des années quarante à Cambridge en Angleterre (et non pas à Cambridge dans le Massachusetts, aux États-Unis, où il existe également un important institut d’astronomie). Le nom de Cambridge reviendra plusieurs fois car l’Institut d’astronomie de Cambridge a joué un rôle fondamental dans la compréhension des quasars au cours des décennies suivantes. Mais pour le moment, il ne s’agit pas de cet institut, essentiellement théorique, mais d’un autre situé à proximité, le Mullard Radio Astronomy Laboratory dirigé par Martin Ryle (futur prix Nobel avec Antony Hewish pour la découverte des pulsars dans ce même observatoire). Le radiotélescope du Mullard commença à observer le ciel et à établir les catalogues des sources radio qu’il découvrait.

Une découverte étrange qui nous fait remonter loin dans le passé

59

Figure 3.6. La galaxie Cygnus A, telle qu’elle était observée en 1954. Elle semble être constituée de deux galaxies en collision. Comme pour Virgo A et Centaurus A, la radiosource associée est bien plus grande que la galaxie elle-même (voir plus loin).

Grâce à la détermination de positions assez précises que leur fournit Ryle, les astronomes américains Baade et Minkowski purent trouver en 1951 et 1952 sur les photographies obtenues avec le télescope de cinq mètres du Mont Palomar les contreparties visibles de Cas A et Cyg A, puis en prendre des spectres. Ils publièrent leurs résultats en 1954 [5] (le temps était apparemment moins compté que maintenant car on n’imagine plus un tel délai). Pour Cas A, il s’agissait d’un reste de supernova semblable à la nébuleuse du Crabe. Mais à la position de Cyg A, ils trouvaient un objet bizarre : « au premier coup d’œil, c’est un objet qui semble défier toute classification », écrivaient-ils. Mais comme cet « objet » se trouvait dans un riche amas de galaxies, ils suggérèrent qu’il s’agissait de deux galaxies en collision, phénomène qui devait se produire assez fréquemment lorsque les galaxies sont très rapprochées comme c’est le cas dans un amas5 . Nous verrons à quel point leur intuition était exacte et comment elle s’insérera, bien plus tard, dans un cadre théorique cohérent (Figure 3.6). Notons que deux des trois « radiogalaxies », comme on les appela, sont les membres les plus brillants d’un amas de galaxies. La raison en est à peu près claire maintenant. De plus, toutes trois sont des galaxies elliptiques géantes, de même que les autres radiogalaxies découvertes par la suite : on n’a jamais trouvé une source radio intense associée à une galaxie spirale. Ce phénomène reste assez mystérieux, et nous en donnerons une explication possible dans le chapitre 10. 5 Il ne faut pas croire qu’une telle collision est « instantanée », comme je l’ai vu écrit récemment dans un grand journal, elle dure à peu près cent millions d’années !

60

Des quasars aux trous noirs

Le télescope de cinq mètres de diamètre du Mont Palomar fut pendant plusieurs décennies le plus grand télescope optique au monde. Il permit à Baade et Minkowski d’obtenir des spectres de ces galaxies. En ce qui concerne Cyg A, qui est un objet très faible (de seizième magnitude), ce n’aurait pas été possible à l’époque sans un grand télescope dont on ne disposait pas en France ni en Europe. Le spectre en était étrange. Il ne ressemblait pas à celui d’une galaxie ordinaire, qui est tout bonnement l’addition des spectres des étoiles qui la constituent. Un spectre de galaxie devrait donc montrer des raies sombres caractéristiques des étoiles, dont les raies jumelles du calcium ionisé situées à 3 933 et à 3 970 angströms appelées « raies H et K ». Dans le cas de Cygnus A, on observait surtout des raies brillantes « en émission » que l’on trouvait rarement dans les galaxies. En fait, comme l’écrivaient Baade et Minkovski : « Le spectre de cette nébuleuse ressemble dans une certaine mesure à ceux de ces nébuleuses. . . observées en 1943 par C. Seyfert »6 . Là encore, ils faisaient preuve d’un flair admirable et cette idée ne s’imposera que beaucoup plus tard. Mais ce n’était pas tout. Au lieu de se trouver à leurs longueurs d’onde habituelles, les raies de Cyg A étaient toutes « décalées » vers les grandes longueurs d’onde de 5,6 pour cent. La raie la plus intense était une raie de l’oxygène que l’on trouve également dans les spectres de nébuleuses brillantes comme la nébuleuse d’Orion, et dont la longueur d’onde « au repos »7 est 3 727 angströms. Je reparlerai plus tard de ces raies surprenantes que l’on appelle « interdites » dont la présence avait été un mystère pendant presque un demi-siècle (Figure 3.7).

Retour sur un « Grand Débat » Avant de discuter la signification de cette observation, il nous faut replonger dans un passé encore plus lointain et rappeler ce que l’on nomme la loi de Hubble qui sera omniprésente dans la suite de ce livre. Je n’ai évidemment pas l’intention de présenter ici un panorama de la cosmologie dans son ensemble. C’est l’une des disciplines majeures de l’astronomie, car elle a acquis une 6 Le mot « nébuleuse » est utilisé ici pour « galaxie » ; c’est un vestige de l’époque relativement proche où l’on ne faisait pas la distinction entre ces deux types d’objets. 7

C’est-à-dire sans mouvement ou dans le laboratoire.

Une découverte étrange qui nous fait remonter loin dans le passé

61

Figure 3.7. Le spectre de Cygnus A, tel qu’observé au télescope de cinq mètres de Palomar et publié par Baade et Minkovski en 1954. Il s’agit d’un négatif comme on les montrait habituellement à cette époque. Le spectre de la galaxie est celui du centre ; il est entouré en haut et en bas par le « spectre de comparaison » d’une lampe de laboratoire dont les longueurs d’ondes sont connues et permettent par conséquent de déterminer celles des raies spectrales de la galaxie. Les nombres sont les longueurs d’onde en angström, et les raies avec les noms des ions entre les parenthèses droites sont interdites (c’est la façon de les noter). Les différents ordres du spectrographe sont superposés, ce qui explique que l’on ait en même temps des raies dans l’ultraviolet, dans le visible et dans le rouge.

dimension physique grâce à la relativité générale et plus récemment à la physique théorique. Plusieurs de mes collègues en ont fait des descriptions remarquables dans des livres ou des articles. De plus, elle est sujette actuellement à de grands débats dans lesquels il est impossible de rentrer à moins d’y consacrer un livre entier ! Je me contenterai de mentionner ce qui est indispensable pour comprendre les questions soulevées par la découverte des quasars. Au début du xxe siècle, un problème agitant les astronomes était de savoir si les « nébuleuses spirales » étaient de même nature que les autres nébuleuses gazeuses comme la

62

Des quasars aux trous noirs

nébuleuse d’Orion, ou bien si elles étaient beaucoup plus distantes, des « univers-îles » semblables à la Voie lactée ainsi que les avait appelées Kant plus d’un siècle auparavant. Il s’appuyait pour proposer sa théorie sur le fait que certaines « nébuleuses » avaient l’apparence de la Voie lactée si on la voyait de l’extérieur. Kant avait montré là une grande intuition mais non fondée scientifiquement, puisqu’il ne pouvait pas prouver ce qu’il avançait. On voit parfois de telles intuitions appuyées sur de « mauvaises » raisons – dans le cas de Kant, elles étaient surtout philosophiques – et l’on ne peut évidemment considérer la théorie comme démontrée tant qu’elle n’est pas assise sur un véritable raisonnement scientifique et sur des observations. Depuis Kant, la discussion s’était étendue au champ scientifique. William Herschel8 , le premier, avait déterminé la distance relative des étoiles de la Voie lactée en supposant qu’elles avaient toutes la même luminosité. S’appuyant sur cette hypothèse fausse, il en tirait la conclusion juste que la Voie lactée a une dimension finie : il la trouvait égale à 4 000 annéeslumière, soit environ dix fois trop petite. Puis, au début du xxe siècle, Jacobus Kapteyn, analysant cette fois les mouvements des étoiles, conclut que la Voie lactée ressemblait à un sphéroïde aplati de 65 000 années-lumière de diamètre. On était donc très près de la solution. Mais les astronomes se disputaient encore sur plusieurs questions dont celle de la position du Soleil dans la Voie lactée, et surtout celle de savoir si la Voie lactée était la seule de son espèce dans l’Univers, ou si les « nébuleuses spirales » comme on les appelait n’étaient pas elles-mêmes des « Voies lactées » comme la nôtre. La discussion culmina à Washington le 26 avril 1920 lors d’une réunion de l’Académie des sciences américaine au cours de laquelle deux astronomes américains, Harlow Shapley, du Mont Wilson à Pasadena, et Herber Curtis, de l’Observatoire de Lick, furent chargés d’être les avocats de chacune des positions. Ils s’affrontèrent donc en particulier sur le problème de « la taille de l’Univers ». Cette controverse est restée célèbre sous le nom de « Grand Débat » (Encadré 3.1, Figure 3.8). Pour la petite histoire, il est comique de noter que le secrétaire de l’Académie des sciences avait préféré ce débat à un autre sur la relativité générale, à propos duquel il écrivait : « Je préfèrerais un sujet sur lequel il y ait plus d’une demidouzaine de membres de l’Académie suffisamment compétents pour comprendre au moins quelques mots. . . Je prie 8

Il a également composé de la très belle musique pour orgue.

Une découverte étrange qui nous fait remonter loin dans le passé

63

Figure 3.8. Le duel entre le jeune Shapley (à gauche) et Curtis (à droite).

Dieu que le progrès de la science envoie la relativité dans quelque région de l’espace au delà de la quatrième dimension, d’où elle ne reviendra jamais nous ennuyer ».

Encadré 3.1. Le débat porta non seulement sur le fait que les nébuleuses spirales sont ou non des « univers-îles » semblables à notre Voie lactée, ce que soutenait Curtis, mais également sur la taille de la Voie lactée et sur la position du Soleil au sein de cette dernière. Curtis affirmait que la Voie lactée avait un rayon d’à peu près 15 000 années-lumière, et Shapley trouvait une dimension presque dix fois plus grande de 110 000 années-lumière (on sait maintenant que la valeur exacte se situe entre les deux, à 50 000 annéeslumière). De plus, Curtis plaçait le Soleil au centre (on sait maintenant qu’il est à 24 000 années-lumière du centre). Curtis donnait des arguments très forts en faveur de nébuleuses spirales semblables à la Voie lactée. Il remarquait que les spectres des nébuleuses spirales ressemblent plutôt à ceux d’amas d’étoiles qu’à ceux des nébuleuses gazeuses. D’autre part, les spirales sont plus nombreuses près des pôles galactiques et aucune ne se trouve dans la Voie lactée, contrairement aux étoiles et aux nébuleuses non spirales. Enfin, on y observe des étoiles « nouvelles » (des novae*) comme celles de la Voie lactée. Les distances qu’on en déduit correspondent bien à la taille apparente qu’auraient des galaxies semblables à notre Voie lactée vues de l’extérieur.

Figure 3.9. La galaxie spirale M 51. Elle est vue quasiment de face et l’on distingue les bras spiraux bien développés. On voit qu’elle est en interaction avec une petite galaxie voisine.

64

Des quasars aux trous noirs

Les arguments de Shapley reposaient essentiellement sur les preuves que la Voie lactée était beaucoup plus grande que ne le supposait Curtis et que dans ces conditions sa taille était difficilement compatible avec celle des autres « univers-îles ». Il notait également que le spectre de l’une des plus brillantes nébuleuses spirales, M 51 (qu’on appelle « le tourbillon », cf. Figure 3.9), présentait des raies brillantes semblables à celles des nébuleuses gazeuses (on sait à présent que cette galaxie est riche en étoiles chaudes et en nébuleuses gazeuses). C’était d’ailleurs aussi le cas pour plusieurs autres nébuleuses spirales que nous allons retrouver bientôt, mais il ne le mentionnait pas. Shapley aurait pourtant pu utiliser contre l’hypothèse des univers-îles les résultats d’un astronome hollandais, Van Maanen. Celui-ci affirmait qu’on voyait les nébuleuses spirales tourner sur elles-mêmes, ce qui signifiait qu’elles étaient relativement proches. Je ne crois pas cependant qu’il en fut question dans le débat car on n’en trouve aucune trace. Je suppose que l’ensemble de la communauté astronomique était sceptique quant à la réalité de ces déplacements. Hubble prouva d’ailleurs, un peu plus tard, que les mesures de Van Maanen étaient fausses. Curtis et Shapley se trompaient chacun sur plusieurs points : la petite taille de la Voie Lactée et la position du Soleil au centre de la Voie lactée pour Curtis, le fait que les nébuleuses spirales sont situées à l’intérieur de la Voie lactée en ce qui concerne Shapley. Ce qui est curieux, c’est que l’on a surtout retenu le nom de Shapley et non celui de Curtis qui avait pourtant raison sur le point le plus important, puisqu’il soutenait que les nébuleuses spirales sont semblables à notre Voie lactée et sont situées à l’extérieur. C’est peut-être parce que Shapley se montra copernicien dans son analyse en nous plaçant loin du centre de la Galaxie et que l’histoire ne s’est attachée pour Curtis qu’à son erreur sur ce point. Le « procès » se solda donc par un non-lieu. La morale de cette affaire est qu’il est impossible de parvenir à une conclusion lorsqu’on ne dispose pas des observations indispensables. Elle est très bien résumée par ces phrases de Frank Shu [93] : « Le débat de Shapley et Curtis est important non seulement comme document historique, mais aussi parce qu’il met en évidence le processus de raisonnement d’éminents scientifiques engagés dans une grande controverse, pour laquelle les évidences des deux côtés sont fragmentaires et partiellement

Une découverte étrange qui nous fait remonter loin dans le passé

65

défectueuses. Ce débat illustre fortement combien il est difficile de trouver son chemin à travers le terrain traître (treacherous ground) qui caractérise la recherche aux frontières de la science ».

Où l’on voit une astronome bénévole permettre à l’astronomie de franchir un grand pas La solution fut apportée par Edwin Hubble à peine quelques années plus tard (Figure 3.10). Il utilisa pour ce faire des étoiles dont on pouvait déterminer la distance et qui étaient visibles dans les galaxies les plus proches. Mesurer la distance d’un astre est une tâche incroyablement ardue et une partie des astronomes s’y emploie encore maintenant à temps plein. La mission spatiale HIPPARCOS lancée en 1989 – dans laquelle les Français ont été fortement impliqués – y a été consacrée. Un prochain satellite, GAIA, sera mis sur orbite en 2010 dans le but d’augmenter encore le nombre de distances connues d’étoiles. C’est en effet le socle sur lequel repose notre connaissance de la physique stellaire et même de la structure de l’Univers tout entier (Encadré 3.2).

Encadré 3.2. Imaginez que vous soyez dans une forêt et que vous vouliez estimer la distance des arbres les plus lointains. Vous pouvez y parvenir de façon approximative en comparant l’angle sous lequel vous voyez les troncs des arbres avec celui sous lequel vous voyez un arbre proche dont vous avez évalué la distance en comptant par le nombre de pas qui vous en séparent. Plusieurs conditions doivent donc être réalisées pour cette opération : il faut connaître la distance d’un tronc, connaître sa taille, et il faut que tous les troncs aient la même taille. Cette méthode ne peut donc être employée que pour une classe d’objets parfaitement identiques, dès lors que la distance de l’un d’entre eux est connue. C’est ainsi que l’on peut déterminer grossièrement la distance des plus grandes nébuleuses car elles ont à peu près la même taille. Mais les étoiles sont beaucoup trop petites pour que l’on puisse mesurer cet angle (sauf pour les « supergéantes » et en utilisant des moyens ultramodernes) ; la méthode ne s’applique donc pas. Il faut être capable de déterminer DIRECTEMENT la distance et pour cela vous disposez d’un autre moyen, c’est

Figure 3.10. Edwin Hubble à sa table de travail.

66

Figure 3.11. La parallaxe d’une étoile. La tangente (mesurée) du demi grand axe de l’ellipse apparente décrite par l’étoile est égale au rapport entre le rayon (connu) de l’orbite terrestre et la distance de l’étoile (l’inconnue).

Des quasars aux trous noirs

de vous déplacer d’un point A à un point B dans la forêt et de mesurer l’angle entre les directions dans lesquelles vous voyez un arbre du point A et du point B. C’est ce que l’on appelle couramment « faire une triangulation » mais qu’en astronomie nous appelons « mesurer la parallaxe ». Lorsque l’on connaît la distance entre A et B, le triangle A-B-arbre est complètement déterminé et on en déduit la distance de l’arbre au point A ou B. Or, lorsque la Terre se déplace sur son orbite autour du Soleil en décrivant une ellipse chaque année, les étoiles semblent parcourir de petites ellipses sur la voûte céleste (exactement comme on voit les objets se déplacer en apparence lorsque que l’on ferme successivement un œil puis l’autre). Cette ellipse est d’autant plus grande que l’étoile est proche. Cette fois la méthode peut être appliquée aux étoiles, du moins aux plus proches (Figure 3.11). L’angle correspondant au demi grand axe de l’ellipse est la « parallaxe annuelle » d’une étoile. On a donc inventé le mot « parsec » qui est utilisé comme unité de longueur en astronomie : un parsec est la distance d’un astre dont la parallaxe est égale à une seconde d’arc. Il est égal à 3,26 années-lumière, soit plus de 200 000 fois la distance de la Terre au Soleil. Ainsi, l’étoile la plus proche du Soleil, Proxima Centauri, a une parallaxe de 1,3 secondes d’arc, ce qui signifie que sa distance au Soleil est de 1,3 parsec. Il n’est pas simple de mesurer avec précision la taille d’une ellipse de 1,3 secondes d’arc, mais ce fut pourtant réalisé en 1839. À la fin du xixe siècle, on en connaissait une trentaine d’autres. Des méthodes un peu plus indirectes et statistiques basées également sur la mesure des déplacements apparents des étoiles permirent ensuite d’augmenter appréciablement le nombre de distances connues. On espère que la mission GAIA permettra de mesurer ainsi les distances de plus d’un milliard d’étoiles de la Voie lactée en utilisant cette méthode !

On sait que l’éclat apparent d’une source de lumière diminue en raison inverse du carré de sa distance : une bougie placée à un mètre a un éclat apparent cent fois plus grand que lorsqu’elle est à dix mètres. On peut donc, à partir de son éclat apparent et de sa distance, déterminer sa luminosité, au moins dans le domaine visible (c’est-à-dire dans le domaine auquel l’œil humain est sensible). Réciproquement, on peut déterminer sa distance si l’on connaît sa luminosité intrinsèque

Une découverte étrange qui nous fait remonter loin dans le passé

(comme pour une lampe de cent watts, par exemple) et que l’on mesure son éclat apparent. Il existe une classe d’étoiles très lumineuses présentant des variations périodiques d’éclat. Elles sont appelées « céphéides ». Ces étoiles ont encore maintenant une importance primordiale dans la détermination de l’échelle des distances de l’Univers. Miss Henrietta Leavitt (Figure 3.12) à Harvard avait analysé avec le plus grand soin des milliers d’observations et avait déterminé la période de bon nombre d’entre elles. Or, elle avait eu l’idée d’étudier les Céphéides du Petit Nuage de Magellan, visibles de la station australe de Harvard à Arequipa au Pérou. Elle préjugeait en effet – et elle avait raison – que ces étoiles étaient à peu près toutes à la même distance, bien que celle-ci ne fut pas connue. Leurs différences d’éclat apparent devaient traduire une véritable différence de luminosité intrinsèque que l’on pouvait donc déterminer. Et c’est ainsi qu’elle découvrit que la période des céphéides était reliée à leur luminosité : on a appelé par la suite cette relation la « relation période-luminosité » (Figure 3.13). Les céphéides, constituant un groupe homogène dont on peut mesurer à la fois la luminosité et l’éclat apparent, étaient de parfaits étalons de distance. Pour cela, il suffisait de connaître la distance de l’une d’entre elles, ce qui fut réalisé avec la mesure de la parallaxe* d’une Céphéide proche. Dès lors, on pouvait déterminer la distance de toutes les céphéides et commencer à jalonner l’Univers proche. En suivant avec obstination son idée, Henrietta Leavitt avait donc découvert un étalon de distance pour les objets lointains et elle avait ainsi ouvert la voie à l’une des découvertes les plus fondamentales de l’astronomie. Et pourtant, elle n’a jamais reçu le centième de la reconnaissance qu’ont eu ses collègues masculins moins opiniâtres et moins ingénieux, et elle mourut en 1921 dans l’indifférence générale. Ainsi que la plupart des autres femmes scientifiques de cette époque, elle n’accéda d’ailleurs jamais au grade de docteur. On raconte que le directeur de l’Observatoire de Harvard, Edward Pickering, avait recruté uniquement des femmes pour effectuer le travail de classification stellaire, parce qu’elles étaient plus méticuleuses que les hommes et que leurs salaires étaient deux fois moins élevés ! Miss Leavitt elle-même travailla bénévolement pendant plusieurs années avant d’être recrutée officiellement dans le « harem Pickering », comme on l’appelait. De plus, elle ne pouvait observer elle-même les astres dont elle était passionnée et elle devait se contenter d’analyser les photographies

67

Figure 3.12. Miss Henrietta Leavitt.

Figure 3.13. Courbes de lumière typiques de céphéides, en haut, et relation entre la période et la luminosité, en bas. On voit que les luminosités des céphéides sont beaucoup plus grandes que celles du Soleil, ce qui explique que l’on puisse les observer dans les galaxies extérieures.

68

Des quasars aux trous noirs

prises par ses collègues masculins, qui avaient seuls le droit d’entrer de nuit dans les coupoles. Cela était encore vrai dans les années soixante au Mont Palomar.

Hubble et l’expansion de l’Univers

Figure 3.14. Photo (en négatif) prise par Hubble au télescope de 2,50 m du Mont Wilson montrant la « nébuleuse » NGC 6822. Certaines étoiles lumineuses vers le bas de la photo sont des céphéides. Vers le haut de la photo, se trouvent des petites nébuleuses dont Hubble ignorait si elles appartenaient ou non à NGC 6822.

Figure 3.15. Une photo récente de la même galaxie prise avec un petit télescope d’amateur. On mesure l’évolution des récepteurs. . .

Les céphéides allaient permettre de mesurer la distance des nébuleuses proches dans lesquelles on pouvait distinguer des étoiles lumineuses. Et dès 1925, Hubble put répondre à la question posée lors du Grand Débat en montrant que la distance d’une petite nébuleuse contenant des céphéides, NGC 6822, était plus grande que le diamètre de la Voie lactée [46]. Elle était donc nécessairement située au delà. C’était un « univers-île », une « nébuleuse extragalactique » semblable à notre Galaxie (Figures 3.14 et 3.15). Hubble détermina la distance de 23 autres galaxies en utilisant non seulement les céphéides mais également les novae et les étoiles les plus brillantes de ces galaxies. Bien que cet exercice ait été mené avec le plus grand télescope de l’époque, celui de 2,50 m du Mont Wilson, il était restreint aux galaxies les plus proches, situées à moins de cinq millions d’annéeslumière, puisqu’il fallait être capable d’y distinguer des étoiles individuelles. Or, l’astronome Vesto Slipher, directeur de l’Observatoire Lowell de Flagstaff en Arizona, avait pris entre 1912 et 1928 les spectres d’une quarantaine de nébuleuses spirales, dont celles observées par Hubble. Il y avait détecté les raies habituelles sombres caractéristiques des galaxies, en particulier les raies H et K du calcium dont nous avons déjà parlé. Il avait trouvé que dans la plupart des cas, ces raies ne se trouvaient pas à leur longueur d’onde habituelle mais qu’elles étaient décalées vers les grandes longueurs d’onde, « vers le rouge » (le rouge correspondant aux longueurs d’onde les plus grandes dans le spectre visible). On donne à ce décalage vers le rouge le nom anglais de redshift. Pour éviter une périphrase, j’utiliserai désormais le mot « décalage » sans préciser plus lorsqu’il s’agira de « décalage vers le rouge », et « décalage vers le bleu » lorsque ce ne sera pas le cas. On pensa immédiatement à l’effet Doppler** qui se produit lorsqu’une source de rayonnement est en mouvement par rapport à nous. Écoutons le son du moteur d’une voiture qui s’éloigne de nous. Nous entendons un son plus grave qu’il n’est en réalité. Il correspond par conséquent à une fréquence plus petite

Une découverte étrange qui nous fait remonter loin dans le passé

69

Figure 3.16. L’effet Doppler : si la source se rapproche de nous, les ondes lumineuses apparaissent plus courtes, la raie spectrale est donc décalée vers les petites longueurs d’onde (vers le bleu) ; si la source s’éloigne, les ondes apparaissent plus longues, et la raie spectrale est décalée vers les grandes longueurs d’onde (vers le rouge).

ou à une longueur d’onde plus longue. Lorsque la voiture se rapproche, le son du moteur devient plus aigu. Cet effet s’applique également aux ondes lumineuses, et c’est dans ce cadre que nous le rencontrerons tout au long de ce livre. On nomme ce phénomène « effet Doppler ». Tout le monde connaît en médecine les « échographies Doppler » permettant de mesurer la vitesse du sang dans les artères à l’aide d’une source d’ultrasons. Mais, beaucoup ignorent qu’il faudrait l’appeler « effet Doppler-Fizeau », car il fut découvert de façon indépendante par l’autrichien Doppler et le français Fizeau. Sans être chauvin, il faut tout de même remarquer que Fizeau, bien qu’ayant découvert l’effet six ans après Doppler, comprit qu’il s’appliquait aussi aux ondes lumineuses et de façon générale à toute source de vibrations, tandis que Doppler ne l’avait étudié que dans le cas d’une source sonore. Par conséquent, lorsqu’une source lumineuse s’éloigne de nous (ou que nous-mêmes nous éloignons d’elle, car le phénomène est réversible), la lumière qu’elle nous envoie est décalée vers les grandes longueurs d’onde et lorsque la source se rapproche, elle est décalée vers les courtes longueurs d’onde (Figure 3.16). Le décalage, qu’on a pris l’habitude de désigner par la lettre « z »9 , traduisait donc une vitesse d’éloignement, et signifiait que ces nébuleuses spirales « fuyaient » la Terre avec des vitesses de plusieurs centaines de kilomètres par seconde, ce qui n’était pas le cas des autres nébuleuses. Hubble put alors relier les distances qu’il venait de déterminer aux vitesses de fuite des galaxies. Et, dans un article historique de seulement quatre pages publié en mars 1929 9

z=

λ observée−λ réelle λ réelle

70

Des quasars aux trous noirs

Figure 3.17. Diagramme original de Hubble en 1929 donnant la vitesse de fuite des galaxies en fonction de leur distance.

dans les Comptes rendus de l’Académie nationale des sciences américaine [47], il annonça cette nouvelle stupéfiante : la vitesse d’éloignement d’une galaxie est d’autant plus élevée que sa distance est grande. Il en déduisait la valeur d’un paramètre, qu’on a appelé à tort la constante de Hubble, H0 , telle que la vitesse d’éloignement d’une galaxie est égale à sa distance multipliée par H0 (Figure 3.17). Il trouvait pour ce paramètre 530 kilomètres par seconde et par mégaparsec, qu’on écrit 530 km/s/Mpc (ou encore 170 kilomètres par seconde et par million d’annéeslumière). Cela signifiait qu’une galaxie située par exemple à 10 Mpc, soit 10 millions de parsecs ou 30 millions d’annéeslumière, s’éloignait de nous à la vitesse de 5 300 kilomètres par seconde. Cette valeur de H0 était fortement surestimée, puisqu’on la situe actuellement au voisinage de 70 km/sec/Mpc. L’erreur sur la valeur de sa constante ne doit cependant pas être imputée à Hubble : elle vient en partie de ce que l’on ignorait alors l’existence de deux types de céphéides avec deux relations différentes entre la période et la luminosité. Une autre cause d’erreur vient du fait que la relation ne s’étendait pas suffisamment loin en distance, l’incertitude était donc très grande (comme on peut le voir sur la Figure 3.17). S’il y avait bien proportionnalité entre la vitesse et la distance, le facteur de proportionnalité, lui, était faux. On peut se poser la question suivante : pourquoi le nom de Slipher a-t-il été presque complètement occulté depuis cette période, alors que, tout bien réfléchi, il a contribué pour moitié à la découverte de Hubble ? C’était en effet lui qui avait, dès

Une découverte étrange qui nous fait remonter loin dans le passé

1917, noté que la plupart des nébuleuses spirales « fuyaient » avec de grandes vitesses. Cette observation avait été utilisée par Curtis lors du « Grand Débat », mais de façon curieusement peu insistante, alors qu’il s’agissait d’un argument très fort en faveur de la thèse des nébuleuses extragalactiques. Slipher s’était plaint d’ailleurs en 1917 dans le journal de l’Observatoire de Lowell d’une lettre qui y avait été publiée « pouvant conduire le lecteur à supposer que peu de crédit devait être accordé à ses déterminations de vitesse ». Devons-nous en déduire qu’il était l’objet d’une cabale ou d’un ostracisme dû au fait qu’il ne publiait pas, lui, dans la revue prestigieuse de l’Académie des sciences ? Dans son article, Hubble ne précise en fait ni d’où proviennent ses vitesses, ni leur « fourchette d’erreurs », et il ne le fait pas non plus pour les mesures de distances. Tout cela serait considéré à l’heure actuelle comme un manquement à l’éthique scientifique. Voilà donc un exemple d’évolution positive de la recherche. . . Bien sûr, Slipher a été reconnu par la communauté astronomique qui lui a même décerné quelques hochets. Mais rien à voir avec la célébrité extraordinaire de Hubble. On sait que son nom a été donné au télescope spatial, très connu du grand public, et qui a été à l’origine des plus belles découvertes astronomiques de la fin du xxe siècle10 . C’est que Hubble avait eu un trait de génie : il avait su mettre en perspective deux types d’observations et en déduire une loi fondamentale. Slipher avait montré que les nébuleuses spirales « fuyaient », mais il n’avait pas perçu lui-même l’importance de cette découverte. Il s’était contenté de faire des mesures extrêmement soigneuses sans en chercher l’interprétation (ou peut-être l’avait-il cherchée sans la trouver), alors qu’il aurait pu logiquement en tirer des conséquences comme l’inéluctabilité de la nature extragalactique de ces nébuleuses et même l’expansion de l’Univers. C’est toute la différence entre un bon chercheur et un chercheur de génie. Il ne suffit pas de mesurer, il faut penser ! Hubble avait eu beaucoup de chance car sa découverte intervenait peu après qu’Einstein eût proposé sa théorie de la relativité générale, remplaçant la physique newtonienne et offrant un cadre de compréhension de l’Univers en termes d’un espace-temps courbé par la matière.

10 On aurait pourtant pu lui donner le nom de Lyman Spitzer qui s’est battu pour en imposer la construction et à qui, ironiquement, un autre télescope spatial a été dédié plus tard. . .

71

72

Des quasars aux trous noirs

Figure 3.18. L’Univers est en expansion. Les points noirs correspondent aux positions de galaxies au temps t1, et les gris à celles au temps t2 postérieur. Les habitants de deux galaxies quelconques (les deux gros points noirs à gauche et à droite) ont tous l’impression qu’ils sont au centre du monde car ils voient les autres galaxies s’éloigner d’autant plus rapidement qu’elles sont plus distantes.

Pour expliquer la fuite des galaxies, on invoque en effet « l’expansion de l’Univers ». Afin d’en comprendre la raison, faisons la démarche de pensée suivante. Imaginons l’Univers comme un gâteau dont la pâte est en train de lever dans le four, les galaxies étant des raisins secs dans ce gâteau : les galaxies-raisins s’éloignent les unes des autres. Si nous étions sur l’un des grains de raisin, nous verrions les autres s’éloigner de nous d’autant plus rapidement qu’ils sont plus distants (Figure 3.18). Ce qui est extraordinaire dans la découverte de Hubble, c’est l’adéquation entre ses observations et les perspectives ouvertes par la relativité générale développée quelques années plus tôt. Hubble lui-même s’en était immédiatement rendu compte et dans un article publié quelques mois plus tard, il concluait en effet : « Le problème est maintenant dans les mains des théoriciens, mais le fait le plus significatif dans la situation présente est la prise de conscience que la science a atteint un état où la théorie et les observations combinées permettent d’investiguer la structure réelle de l’Univers. » De telles circonstances sont rares. On a vu parfois la théorie précéder de beaucoup l’observation – c’est le cas par exemple des étoiles à neutrons, des trous noirs, du Big Bang. Elle est alors en général oubliée jusqu’à la découverte observationnelle, ou bien en attendant elle est considérée comme une spéculation gratuite. Mais on voit surtout de plus en plus souvent l’observation devancer la théorie et conduire à des découvertes inattendues auxquelles on ne trouve pas immédiatement une explication, comme dans le cas des quasars, ou plus récemment dans celui des « sursauts gamma ».

Une découverte étrange qui nous fait remonter loin dans le passé

73

Figure 3.19. Einstein à gauche, Friedman au milieu, et Lemaître à droite.

Où l’on voit que les très grands hommes ont aussi de grandes faiblesses La découverte de Hubble, interprétée en termes d’expansion de l’Univers, allait avoir un impact énorme sur notre pensée. Elle montrait que l’Univers n’était pas immuable, qu’il avait une histoire, et elle permettait d’estimer son âge et sa taille actuelle. Mais cette idée ne s’imposa pas facilement et Einstein lui-même mit longtemps à y adhérer. C’est d’ailleurs l’une des pages un peu sombres de sa vie scientifique, qui n’en comporte pas beaucoup au regard de l’extraordinaire diversité et de l’importance de chacune de ses découvertes. En fait, les équations de la relativité générale contenaient une constante arbitraire appelée « constante cosmologique ». C’est la fameuse constante lambda, ou Λ**, qui correspond à une sorte de force de répulsion augmentant avec la distance. Einstein (Figure 3.19) la supposa égale à zéro pour qu’il existe une solution statique et stable pour l’Univers dans son ensemble. Il a dit plus tard que c’était « la plus grande erreur de sa vie ». On peut se demander ce qu’il aurait pensé si, encore vivant au début du xxie siècle, il avait appris que cette constante est bel et bien présente dans les équations de la cosmologie et qu’elle ne rend pas l’Univers statique mais permet de l’accélérer ! Or, dès le début des années vingt, le soviétique Alexandre Friedmann (Figure 3.19) avait montré que la relativité générale conduisait à un Univers en expansion. L’existence d’une constante cosmologique arbitraire ne lui plaisait pas, il la supprima donc. Et il montra dans un article publié en 1922 dans la revue allemande Zeitschrift für Physics que dans ce cas, l’Univers était stable mais en expansion [35]. Ce qui impliquait une conception du monde totalement différente de celle d’Einstein, celle d’un Univers changeant au cours du temps.

74

Des quasars aux trous noirs

Cette notion allait à l’encontre des idées philosophiques d’Einstein qui insinua même que Friedmann avait fait une erreur dans ses calculs, avant de reconnaître que ses équations étaient tout à fait exactes. Exactes, mais ne représentant pas la réalité, contrairement aux siennes avec leur constante cosmologique, pensait Einstein. Ainsi, Friedmann ne fut pas pris au sérieux, car non seulement Einstein, mais tous les scientifiques de l’époque préféraient alors un Univers statique infini dans le temps et dans l’espace. Friedmann continua à crier dans le désert. Ce qui est triste, c’est qu’il mourut en 1925 sans savoir que c’était lui qui avait raison dans ce combat de géants. Un peu plus tard, l’abbé Lemaître en Belgique redécouvrait un modèle semblable à celui de Friedmann (Figure 3.19). Il avait commencé, d’abord en Angleterre à Cambridge avec Eddington, puis en Belgique à Louvain, une brillante carrière de cosmologiste et il s’était intéressé au modèle d’Univers d’Einstein. Bien vite, il avait montré lui aussi indépendamment de Friedmann dont il ne connaissait pas les travaux que l’Univers devait être en expansion. Il était même allé plus loin puisqu’il avait anticipé le Big Bang, comme on le verra plus tard dans ce chapitre. Mais, lorsqu’il avait approché Einstein pour lui faire part de ses idées, celui-ci l’avait à peine écouté, comme Friedmann, et l’avait même traité par le mépris (« Votre physique est abominable », lui aurait-il dit). Et tant était grande l’emprise d’Einstein sur la pensée scientifique de l’époque, que Lemaître, abattu, décida de ne plus défendre sa théorie bien qu’il ne cessât pas d’y croire. Heureusement, il eut l’occasion de revenir sur cette attitude deux années plus tard seulement, lorsqu’arriva la loi de Hubble et qu’on réalisa qu’elle s’interprétait tout naturellement dans les modèles de Friedmann et Lemaître : la vitesse de fuite des galaxies ne correspondait pas à une vitesse réelle, mais traduisait simplement l’expansion de l’Univers dans son ensemble. La théorie avait précédé l’observation et personne ne l’avait cru. Ici, comme dans le Grand Débat, il manquait avant la loi de Hubble les observations cruciales permettant de trancher entre les deux modèles. On ne pouvait donc réellement faire grief à Einstein d’avoir proposé sa solution statique qui s’accordait avec l’absence de faits observés. En revanche, on pouvait lui reprocher, à l’instar d’un dictateur du savoir, d’avoir repoussé violemment d’autres propositions aussi – sinon plus – justifiées que la sienne, et rejeté ainsi dans l’anonymat et dans l’accablement de remarquables chercheurs. On peut imaginer aussi ce qui serait arrivé si Einstein avait été le rapporteur des articles de Friedmann et de Lemaître. . . Malheureusement, il

Une découverte étrange qui nous fait remonter loin dans le passé

existe à l’heure actuelle quelques uns de ces mandarins de la science qui, tout en se trompant, ont désespéré définitivement par leurs avis catégoriques des jeunes méritants qui ont fini par abandonner la recherche (l’un de mes anciens étudiants fait partie de ces jeunes), ou au contraire les ont poussés dans leurs propres voies sans issue où ils se sont enlisés toute leur vie.

Où l’on montre que l’Univers vieillit très vite dans les années cinquante Revenons maintenant au paramètre de Hubble, qui n’est pas une constante car il varie avec le temps cosmique. Il mesure le taux d’expansion de l’Univers. En remontant dans le temps, on peut en effet calculer à quel moment toutes les galaxies se superposaient (cela ne signifie pas que l’Univers entier était contenu dans un seul point, ayant une position précise, comme je l’entends dire parfois ; il pouvait même être infini dès ce moment). Si nous reprenons l’exemple de la galaxie située à 30 millions d’années-lumière et s’éloignant de nous avec la vitesse de 5 300 km/s, nous calculons en divisant sa distance par sa vitesse (en utilisant les bonnes unités) qu’elle était très proche de notre galaxie il y a environ deux milliards d’années. C’est l’âge qu’aurait l’Univers si l’expansion s’était toujours effectuée au même rythme. On l’appelle le « temps de Hubble ». Pour une constante H0 égale à 530km/s/Mpc, cet âge de deux milliards d’années est inférieur à l’âge du Soleil, de la Terre et surtout des plus vieilles étoiles. En 1930, ce n’était pas dramatique, car on ne connaissait pas avec précision l’âge du Soleil et des étoiles, et les techniques de datation des météorites et de la Terre par radioactivité n’existaient pas encore. Mais cela devint un problème dans les années quarante. De plus, si le paramètre de Hubble est effectivement à peu près constant (ce qui est vrai jusqu’à des distances assez grandes) on peut en déduire la distance d’une galaxie en mesurant simplement sa vitesse d’éloignement. Comme nous allons le voir, cette méthode a été largement utilisée (Figure 3.20). Mais elle nécessite que H0 soit connu avec précision car une erreur sur sa valeur entraîne une erreur relative égale sur la distance et, par conséquent, une plus grande erreur sur la luminosité qui est proportionnelle au carré de la distance. Comme je l’ai dit plus haut, la détermination des distances est un travail extrêmement difficile. Les mesures

75

76

Figure 3.20. Détermination de la distance des galaxies lointaines à l’aide de la loi de Hubble. Les spectres des galaxies sont montrés au centre de chaque panneau de droite. Ces spectres ont été obtenus dans les années soixante et sont naturellement bien meilleurs que ceux qui ont servi à Hubble pour trouver sa loi. On distingue les deux raies jumelles en absorption H et K du calcium (indiquées par la flèche). Ces spectres sont entourés de part et d’autre des « spectres de comparaison ». On voit que les raies H et K se décalent de plus en plus vers la droite (le rouge) à mesure que la distance augmente. On détermine les distances des galaxies (données à gauche) en appliquant la loi de Hubble. On a utilisé ici la valeur de la constante de Hubble de 70 km/s/Mpc acceptée actuellement et non celle déterminée par Hubble lui-même, qui aurait donné des distances huit fois plus faibles.

Des quasars aux trous noirs

sont entachées de nombreux biais qu’il faut savoir corriger. Diverses méthodes peuvent être utilisées : celle des céphéides n’en est qu’une parmi d’autres, mais c’est celle qui concerne les galaxies les plus proches et toutes les autres en résultent plus ou moins directement. L’astronome franco-américain de Vaucouleurs avait ainsi comparé la détermination des distances dans l’Univers à une tour Eiffel : une énorme base soutient toute la structure, car si la base est mal construite, la tour s’effondre. La base, dans notre cas, ce sont les parallaxes des étoiles. D’elles découlent d’autres critères de distance, comme la relation période-luminosité des Céphéides, d’où l’on déduit celles de galaxies voisines (voir Figure 3.11 et l’encadré correspondant). De proche en proche, on peut alors baliser l’Univers, mais il est clair que si l’on commet une erreur sur un critère, il rejaillit sur les distances des objets les plus lointains. Or, l’astronome américain Baade découvrit que les céphéides ne forment pas une classe homogène mais qu’elles sont de deux types, chacun obéissant à une relation différente entre la période et la luminosité. Il fallait donc réévaluer H0 . En 1956, trois astronomes américains travaillant au Mont Palomar, Humason, Mayall et Sandage, analysèrent dans un

Une découverte étrange qui nous fait remonter loin dans le passé

77

Figure 3.21. Le paramètre de Hubble en fonction de l’époque, en kilomètres par seconde et par mégaparsec. Pendant vingt ans, la constante de Hubble a été surestimée par un facteur environ huit, puis elle a été revue à la baisse pendant les dix années suivantes pour se stabiliser à une valeur voisine de cinquante kilomètres par seconde et par mégaparsec vers 1965. Elle a été revue récemment à la hausse, se situant vers 70 km/s/Mpc, avec l’addition d’une constante cosmologique Λ non nulle. Figure 3.22. L’âge correspondant de l’Univers exprimé en milliards d’années. J’ai donné une barre d’erreur correspondant à un Univers fermé** (c’est-à-dire ayant la densité critique) et à un Univers ouvert et sans matière puisque la question n’était pas résolue jusqu’à récemment. L’âge de l’Univers a augmenté lorsque le paramètre de Hubble a diminué : on voit qu’il est passé de deux milliards d’années au début des années cinquante à une quinzaine de milliards d’années dix ans plus tard. Actuellement, il est de 14 milliards d’années.

article approfondi un ensemble de données, au moyen de diverses méthodes, et ils en déduisirent une valeur de H0 égale à 180 km/s/Mpc, soit trois fois plus petite que la valeur de Hubble [48]. Enfin, en 1958, Sandage montra que H0 devait se situer entre 50 et 100 km/sec/Mpc [83]. Les distances déduites précédemment de la loi de Hubble étaient donc sousestimées par un facteur cinq à dix (Figure 3.21). Évidemment, chaque fois que l’on diminuait H0 on augmentait d’autant l’âge de l’Univers (Figure 3.22). Il circulait ainsi, au début des années soixante, un graphique humoristique montrant que l’Univers vieillissait incroyablement vite et que si H0 continuait à

78

Des quasars aux trous noirs

diminuer au même rythme, il aurait bientôt plus de cent milliards d’années. . . Pendant les trente années suivantes, H0 oscilla dans la fourchette déterminée par Sandage, pour se stabiliser récemment à 70 km/sec/Mpc, après que les observations aient conduit à réviser encore une fois l’échelle des distances. Pour la valeur actuellement admise de H0 , l’âge de l’Univers est de quatorze milliards d’années. Il dépend également d’autres constantes que H0 : on croyait jusqu’à récemment qu’il était plus petit que 1/H0 , mais il semble qu’il soit au contraire légèrement plus grand. Un grand débat a agité la communauté astronomique pendant longtemps, opposant à l’« école américaine » de Sandage et Tamman, partisans d’une valeur de l’ordre de 50 km/sec/Mpc, une « école française » impulsée par le français de Vaucouleurs qui travaillait aux États-Unis. Il prônait une valeur de l’ordre de 100 km/sec/Mpc. Elle fut ramenée à 80 km/sec/Mpc par un groupe de radio-astronomes de l’Observatoire de Meudon, dont Lucienne Gouguenheim et Lucette Bottinelli11 . Deux astronomes américains, Brent Tully et Richard Fisher, avaient en effet découvert une relation entre la luminosité des galaxies spirales et leur vitesse de rotation12 **. Or, celle-ci pouvait être mesurée avec précision dans le gaz froid des galaxies grâce à la raie de l’hydrogène à 21 cm*, longueur d’onde à laquelle travaillait le grand radiotélescope de Nançay. Lucienne, Lucette et leurs collaborateurs l’utilisèrent donc intensivement pour déterminer la luminosité de nombreuses galaxies spirales et par conséquent leur distance. Comme elles mesuraient en même temps le décalage, elles en déduisaient la constante de Hubble. On sait maintenant que la vérité est plus proche de la valeur prônée par les Français. L’école de Sandage et Tamman a été pourtant plus écoutée, puisque sa valeur a été adoptée dans presque tous les travaux de cosmologie jusqu’à ces dernières années. La sous-estimation des fourchettes d’erreur a donc conduit à utiliser une constante de Hubble trop petite 11 Lucette et Lucienne, que l’on voyait souvent ensemble, avaient été surnommées « les Rosettes », surnom qu’elles ont gardé toute leur vie. La plupart des astronomes en ignorent la raison ; pendant sa thèse de troisième cycle, l’une d’elles avait étudié la nébuleuse de la « Rosette ». 12 Vingt ans plus tard, on retrouvera une relation semblable entre la dispersion de vitesse et la luminosité de la partie sphéroïdale des galaxies, comme on le verra dans le chapitre 12.

Une découverte étrange qui nous fait remonter loin dans le passé

pendant trente ans. C’est l’un des exemples où la renommée des chercheurs a occulté l’incertitude des résultats. Il faut donc prendre conscience que pendant 25 ans, de 1929 jusqu’au milieu des années cinquante, la constante de Hubble a été surestimée pratiquement par un facteur dix, puis par un facteur trois jusqu’au début des années soixante. Ce n’était pas sans conséquence. En premier lieu, l’âge de l’Univers n’était compatible ni avec l’âge du Soleil et de la Terre, ni surtout avec celui des amas globulaires* que l’on avait commencé à déterminer dans les années cinquante par l’étude de leur diagramme HR, comme je l’ai mentionné dans le chapitre précédent. Il était de douze à quinze milliards d’années pour les plus vieux. L’âge de l’Univers ne fut réconcilié avec celui des amas globulaires qu’après la réévaluation de Sandage. Ce désaccord explique pourquoi des astronomes et non des moindres n’ont pas accepté d’emblée la théorie de l’expansion de l’Univers. Par ailleurs, j’ai dit plus haut qu’une surestimation de H0 entraînait une sous-estimation de la luminosité pour un objet dont la distance était déterminée à partir de son décalage et de la loi de Hubble. Notons d’ailleurs qu’il ne s’agit pas là de DISTANCE RÉELLE, mais de la distance parcourue par la lumière pendant son voyage jusqu’à nous. La distance réelle est beaucoup plus grande, par suite de l’expansion de l’Univers. Étant donné que la constante de Hubble était surestimée par un facteur dix jusqu’au milieu des années cinquante et que la distance des galaxies était sous-estimée par ce même facteur, leur luminosité était donc sous-estimée par un facteur cent. C’est énorme. Cela explique pourquoi il aura fallu presque dix ans pour se rendre compte du problème énergétique que posaient les radiosources. Et si la constante de Hubble n’avait pas été révisée avant la découverte des quasars, il est probable qu’on serait également passé à côté de leurs propriétés les plus remarquables et que l’on aurait fait pendant longtemps une erreur sur leur nature réelle.

Le Big Bang : une blague dans les années quarante. . . On ne peut parler de l’expansion de l’Univers sans mentionner ce que l’astronome anglais Fred Hoyle a appelé par dérision le « Big Bang », nom qui est resté et qui est devenu maintenant un paradigme de la cosmologie.

79

80

Des quasars aux trous noirs

Figure 3.23. Le Big Bang.

L’existence de l’expansion de l’Univers amena immédiatement l’abbé Lemaître à déduire que l’Univers devait avoir été plus petit hier qu’aujourd’hui, et qu’il y avait même eu un moment sans hier, définissant le commencement de l’Univers. Son intuition géniale fut de parler dès 1932 d’un « atome primitif », introduisant sans le savoir le concept de « Big Bang » (Figure 3.23). Mais cet atome était dans son idée une boule solide et froide de la taille du système solaire qui se serait brisée pour donner naissance à l’Univers et aux différents éléments. Sa théorie était fondée sur la physique connue à son époque, la radioactivité et la fission nucléaire. On ignorait encore la fusion nucléaire. Elle ne pouvait donc pas expliquer les quantités d’hydrogène et d’hélium présents en abondance dans l’Univers, ni comment s’étaient construits les autres éléments. C’est la découverte des réactions nucléaires qui permit à Gamow et Alpher de décrire l’univers comme un système thermodynamique suffisamment chaud et dense à l’origine pour que se forment des particules élémentaires dont les protons, puis de l’hélium par la fusion de protons et de neutrons initiaux. Ils prédirent ainsi en 1948 l’existence du « Big Bang » sous sa forme quasi actuelle. Ils s’étaient adjoints par humour le grand physicien Bethe et leur article signé « Alpher, Bethe, Gamow », qu’on a appelé évidemment par la suite l’article « alpha-beta-gamma », parut – par hasard – le 1er avril 1948 [2]. Je gage que peu de physiciens et d’astronomes seraient capables actuellement d’ajouter un auteur à leur article et de modifier l’ordre des signatures dans le seul but de faire un gag. . . L’une des prédictions de Gamow était l’existence d’une trace fossile du Big Bang sous forme d’un rayonnement d’une température d’environ 5 degrés absolus ou 5 K, dans lequel devait baigner l’Univers tout entier13 . Cette prévision remarquable fait la force de la théorie du Big Bang, même si le chiffre lui-même n’était pas exact puisque la température du Corps Noir cosmologique* est seulement de 3 K. Il est d’ailleurs curieux de noter que ce chiffre de 5 K était basé sur une estimation erronée que Gamow lui-même corrigea par la suite, pour conclure à une valeur de 7 K, puis de 15 K, basée sur un calcul plus juste pensa-t-il, mais contenant encore une erreur. Qui oserait lui en faire le reproche, comme à Hubble celui d’avoir surestimé sa constante par un facteur 13 Je rappelle qu’il s’agit de degrés absolus auxquels il faut enlever 273 pour obtenir des degrés centigrades. On appelle ces degrés « kelvin » et on les note par la lettre K.

Une découverte étrange qui nous fait remonter loin dans le passé

dix ? Dans cette grande aventure scientifique, les idées nouvelles comptent beaucoup plus que les nombres exacts. Ce rayonnement fossile fut découvert vingt ans plus tard, en 1965, par Arno Penzias et Robert Wilson – par pur hasard, une fois de plus. La découverte vaut la peine d’être contée car elle est assez exemplaire du fonctionnement de la science. Dans les années 54-56, trois radio-astronomes français dont j’ai déjà parlé, Denisse, Lequeux et Leroux, avaient cherché s’il existait un rayonnement provenant de toutes les directions du ciel. Ils avaient seulement trouvé une limite supérieure de sa température, 3K. On sait maintenant qu’il existe et que la valeur exacte de sa température est 2,725 K. Il était donc juste à la limite de détection de leurs instruments : auraient-ils disposé d’un radiotélescope un peu plus puissant que les vieilles antennes des radars allemands, qu’ils auraient fait l’une des plus grandes découvertes du siècle. Penzias et Wilson (Figure 3.24) travaillaient à la compagnie Bell Telephone (comme Jansky). Ils essayaient d’adapter une antenne de communication radio qu’ils avaient récupérée pour la transformer en radiotélescope et mesurer le rayonnement de la Voie lactée. Surprise ! Ils détectèrent un bruit de fond constant, à une longueur d’onde de 7,35 cm correspondant à une température d’environ 3 K. Et comme ce bruit était exactement le même dans toutes les directions du ciel (« isotrope », comme on dit), il ne pouvait être dû à la Voie lactée. En parlant de leur découverte, ils apprirent que non loin de chez eux, à Princeton, Robert Dicke venait de monter avec quelques collègues une expérience pour détecter le fond diffus cosmologique – le rayonnement résiduel du Big Bang – dont il avait prédit la forme dès les années cinquante. Dicke, visitant leur laboratoire, confirma qu’il s’agissait bien du rayonnement cosmologique qu’il cherchait et qu’il observera d’ailleurs lui-même l’année suivante. Penzias et Wilson publièrent leur résultat [73] en même temps qu’un article de Dicke, Peebles, Roll et Wilkinson, cosmologistes de renom, qui en donnèrent l’interprétation [29]. D’ailleurs, l’article de Penzias et Wilson s’intitulait modestement : « Une mesure de l’excès de température d’antenne à 4080 MHz », et dans leur résumé, ils ajoutaient « qu’une explication possible pour l’excès de température est donnée par Dicke, Peebles, Roll et Wilkinson dans le même numéro de l’Astrophysical Journal ». L’impact de la découverte fortuite de Penzias et Wilson s’en trouva considérablement accru car elle apparut immédiatement comme ce qu’elle était, c’est-à-dire la preuve du Big Bang. Quelques années plus tard, ils reçurent le prix Nobel

81

Figure 3.24. Penzias et Wilson devant l’instrument qui leur permit de détecter le rayonnement cosmologique.

82

Des quasars aux trous noirs

Figure 3.25. Les auteurs de l’article « B2FH » en 1971, lors du congrès sur les étoiles supermassives à Cambridge organisé pour le soixantième anniversaire de Fowler : de gauche à droite, Margaret, puis Geoffrey Burbidge, William Fowler, Fred Hoyle.

pour leur découverte alors que Dicke, sans tomber complètement dans l’anonymat, n’eut aucune récompense. Il est vrai qu’il s’était contenté de faire une prédiction, ce qui est toujours spéculatif, et qu’il l’avait vérifiée un an trop tard. . . Mais ce n’est pas tout. Gamow, le véritable inventeur du rayonnement cosmologique, n’était même pas mentionné dans les deux articles qui en annoncèrent la découverte. Il en fut très amer toute sa vie et ne le pardonna jamais à ses collègues.

De la difficulté d’être objectif en cosmologie Fred Hoyle fut l’un des fondateurs de la théorie de nucléosynthèse dans les étoiles, celle qui montrait que nous ne sommes que « poussière d’étoiles », comme le dit si joliment Hubert Reeves. Il joua un rôle central dans les années cinquante en publiant à ce sujet avec Fowler, Margaret et Geoffrey Burbidge (Figure 3.25) un article que l’on appela le « B2FH », et qui fut l’une de nos bibles de jeunes chercheurs. Hoyle était opposé au Big Bang et le resta toute sa vie. Il arguait qu’admettre l’expansion conduisait à un âge de l’Univers incompatible avec celui des plus vieilles étoiles. C’était parfaitement juste dans les années quarante et même encore cinquante. Mais les raisons de Hoyle pour refuser le Big Bang n’étaient certainement

Une découverte étrange qui nous fait remonter loin dans le passé

pas purement scientifiques car il heurtait probablement ses convictions philosophiques. Le fait que le pape l’ait déclaré en accord avec la religion y était sûrement pour quelque chose. Hoyle proposa donc avec Bondi et Gold une théorie de « l’Univers stationnaire ». En fait, ils gardaient le « principe cosmologique » postulant que l’Univers est identique partout dans l’espace et dans toutes les directions, mais ils lui adjoignaient l’hypothèse d’être également identique dans le temps. L’Univers n’avait donc ni commencement ni fin et l’expansion était expliquée par une création continue de matière partout dans l’univers. On peut faire la comparaison avec un ballon de baudruche que l’on gonfle en lui ajoutant de l’air, avec la différence que dans le cas de l’Univers l’air ne serait pas injecté par un seul trou mais par tous les pores du ballon. Il ne fallait pas beaucoup de matière pour que la densité de l’Univers reste constante au cours du temps, seulement deux atomes d’hydrogène par kilomètre cube et par an, ce qui ne semble pas excessif, on l’admettra. Ce modèle ne reposait pas sur des lois physiques précises et, après la découverte du rayonnement fossile et la révision de la constante de Hubble, il battait de l’aile et il aurait été raisonnable de l’abandonner. Pourtant, Hoyle le développa et le peaufina jusqu’à sa mort trente ans plus tard. D’autres, comme en France Jean-Pierre Vigier, allèrent encore plus loin, expliquant le décalage vers le rouge des galaxies par un « vieillissement du photon ». Nous verrons que la découverte des quasars a ravivé ce débat : il a culminé dans les années soixante-dix et plusieurs astronomes de renom s’y sont investis pendant leur vie entière. Je ne suis pas une spécialiste de cosmologie, ni surtout de « cosmologie primordiale », mais je ne crois pas que l’on puisse encore douter de l’existence du Big Bang. Outre la découverte – prédite – du rayonnement fossile, d’autres résultats sont en très bon accord avec cette théorie, encore que de nombreuses incertitudes planent sur les tout premiers instants de l’Univers et que les valeurs de certains paramètres ne sont pas encore entièrement justifiées. L’élève de Hoyle, l’indien Narlikar, a d’ailleurs l’habitude de comparer la cosmologie actuelle à la théorie épicyclique des Grecs, où l’on rajoutait un cercle déférent chaque fois qu’une planète n’avait pas le bon goût d’obéir aux prédictions de la théorie aristotélicienne. La cosmologie reste donc assez spéculative et il n’est pas impossible par exemple que le modèle « standard » actuel doive être remplacé un jour par un autre. N’oublions pas que l’existence de la constante cosmologique était récusée jusqu’à ces

83

84

Des quasars aux trous noirs

dernières années, alors qu’elle domine apparemment la dynamique de l’Univers. Mais cela ne remet pas en cause le Big Bang dans sa généralité. Plus tard, dans les années quatre-vingt-dix, devant les évidences qui s’imposaient, Hoyle, Burbidge et Narlikar remanièrent la théorie de « l’Univers stationnaire ». L’Univers devint « quasi stationnaire », oscillant avec une période de l’ordre de quarante milliards d’années et c’est au cours des minima successifs que la matière apparaît, le dernier minimum ayant eu lieu il y a environ quatorze milliards d’années, comme le Big Bang (ce n’est pas un hasard. . . ). De telle sorte que, finalement, cette théorie peut absorber celle du Big Bang dans un cadre plus général. La théorie de l’Univers quasi stationnaire a été aussi habillée de physique par l’introduction d’un nouveau « champ scalaire » et elle parvint effectivement à rendre compte de plusieurs observations cruciales, comme le rayonnement fossile et l’abondance des éléments légers (on appelle éléments légers l’hydrogène, le deutérium, le lithium et le béryllium), mais de façon plus ou moins ad hoc. En aucun cas, ce ne furent de réelles prédictions, contrairement à la théorie du Big Bang qui a en effet l’avantage d’avoir été à plusieurs reprises véritablement prédictive : elle n’a pas seulement anticipé l’existence du rayonnement fossile, mais elle nécessite la présence de « matière noire » pour rendre compte de la formation des grandes structures dans l’Univers. Or, cette même matière est également indispensable pour expliquer que les amas de galaxies ne se disloquent pas (comme l’avait conjecturé Zwicky dès les années trente), et que la vitesse de rotation dans les galaxies spirales reste constante au delà de sa partie visible. Et elle explique la formation et l’abondance des éléments légers comme l’hélium, le lithium, le béryllium, impossibles à synthétiser dans les étoiles. Tandis que la seule véritable prédiction de l’Univers quasi stationnaire est l’existence de très vieilles étoiles de quarante milliards d’années ; elle est pour le moment invérifiable et le restera sans doute longtemps. Mais en l’état actuel des choses, on peut considérer que rien ne prouve que la théorie de l’Univers quasi stationnaire soit fausse, puisqu’elle englobe celle du Big Bang. Jamais la théorie de l’Univers stationnaire ou de son avatar l’Univers quasi stationnaire ne réussit à s’imposer dans le milieu des cosmologistes. Et il est triste de constater que Hoyle, qui était un scientifique d’exception plein de talents divers et d’imagination créatrice (par exemple ses livres de science fiction sont parmi les meilleurs du genre), soit à cause de cette

Une découverte étrange qui nous fait remonter loin dans le passé

obstination, resté en marge toute sa vie, sans jamais accéder aux responsabilités et aux honneurs auxquels il aurait eu légitimement droit, récusé par la communauté astronomique dont il était pourtant l’un des plus beaux fleurons. On ne peut par exemple douter que s’il n’avait pas continué envers et contre tous à défendre une théorie iconoclaste, il aurait reçu le prix Nobel, probablement avec Fowler dont il avait partagé un moment le travail. Dans une moindre mesure, il en est de même pour Burbidge et Narlikar, mais la parole passionnée du premier (nous la verrons à l’œuvre dans « la controverse des décalages anormaux »), et la popularité du deuxième en Inde où il fait une œuvre extraordinaire de vulgarisateur et a où il a construit un institut de grand renom, leur a évité de sombrer dans l’amertume, oubliés comme le fut Hoyle. Il est difficile à un cosmologiste et encore plus à un nonscientifique ne connaissant pas les limites imposées par la physique, de se défaire de présupposés philosophiques. C’est encore plus vrai pour la cosmologie que pour toute autre discipline, car elle se donne pour objet d’étude l’Univers dans son ensemble, qui a la propriété d’être unique, qui n’est probablement pas observable dans sa totalité et dont nous faisons nous-mêmes partie. Contrairement aux autres branches de l’astrophysique, l’observation et l’application des lois de la physique ne suffisent pas pour la bâtir, il faut lui adjoindre des « principes » non démontrés comme le « principe cosmologique », postulant qu’il n’existe aucune position privilégiée de l’espace ou tout simplement l’idée que l’Univers est ordonné. Une aventure m’est arrivée lorsque je n’étais pas encore une « scientifique » et me paraît bien illustrer cette tendance à laisser en cosmologie le champ de la science être débordé par celui de la philosophie. C’était en 1958, lors d’une soirée organisée par le centre Richelieu, un lieu de réunions pour les étudiants catholiques situé au coin du boulevard Saint-Michel et de la place de la Sorbonne (il n’existe plus). J’y avais été invitée avec Pierre Souffrin par quelqu’un connaissant notre goût pour l’astronomie. Un orateur, dont je ne me rappelle plus le nom, devait faire une conférence suivie d’un débat, portant sur : « Doit-on interpréter la loi de Hubble comme une expansion de l’Univers, ou peut-il y avoir une autre explication ? Et, en conséquence, y a-t-il eu un commencement à l’Univers ? » Cette question était alors immanquablement liée à la religion, car l’idée que l’Univers ait été créé à un instant donné semblait plus acceptable pour un chrétien que celle d’un univers ayant existé de tout temps. Pour les athées que nous étions, et pour Évry Schatzman dans son livre l’Origine des mondes

85

86

Des quasars aux trous noirs

que je venais de lire, elle paraissait au contraire difficile à admettre. L’orateur adhérait à la théorie de l’abbé Lemaître, qui s’est en fait toujours défendu de confondre Big Bang, et création au sens religieux. Dans son livre, Évry Schatzman prônait l’univers stationnaire. Nous essayâmes d’opposer des arguments à l’orateur, dont celui de l’âge de l’Univers, mais il les balaya comme fétus de paille en nous ridiculisant, et le débat fut entièrement à son avantage, surtout dans le contexte où il se plaçait. Cette anecdote dont j’ai gardé un souvenir cuisant montre qu’il faut à tout prix « raison garder » en sciences, en évitant de se laisser entraîner par des présupposés religieux ou autres et en restant critique devant une théorie qui n’est pas encore étayée par des expériences ou des observations. Et surtout, qu’il faut savoir abandonner ses idées lorsqu’elles sont prouvées fausses...

Découverte d’étoiles aux raies spectrales mystérieuses Après cette longue digression, revenons à Cygnus A. En 1954, Baade et Minkowski avaient donc identifié cette radiosource avec une étrange galaxie double dont le spectre présentait des raies brillantes. J’ai déjà dit que le décalage de ces raies était de 5,6 %, correspondant à une vitesse de fuite de 16 800 km/s. Ce qui signifiait d’après la loi de Hubble qu’il s’agissait d’une galaxie lointaine (pour l’époque du moins : on en connaît maintenant de bien plus éloignées). Si elle était lointaine, cela impliquait, en vertu de la décroissance de l’éclat apparent en raison inverse du carré de la distance, qu’elle avait une énorme luminosité radio : environ cent fois plus que la Voie lactée tout entière. D’autre part, comme ils avaient utilisé la valeur de H0 déterminée par Hubble, Baade et Minkowski avaient sousestimé la luminosité de Cyg A d’un facteur cent ! Mais plus que la luminosité, c’était la forme sous laquelle cette énergie se manifestait qui posait problème. Lorsqu’on avait découvert le rayonnement radio de la Voie lactée, on s’était vite rendu compte qu’il était beaucoup trop intense pour être expliqué par la simple émission d’un gaz chaud. Mais quel pouvait alors en être le mécanisme ? Puis, on avait découvert que le rayonnement de la nébuleuse du Crabe (la source Taurus A), ainsi que celui de Virgo A, étaient fortement polarisés**. C’était une énigme. Or, à la fin des années quarante, on commençait à observer dans les grands accélérateurs de particules que l’on venait

Une découverte étrange qui nous fait remonter loin dans le passé

de construire et que l’on nommait des « synchrotrons », une lumière bleutée et polarisée, naturellement baptisée « rayonnement synchrotron »**. Elle est émise par les particules chargées, principalement des électrons, se déplaçant dans le champ magnétique* de l’accélérateur avec des vitesses très proches de celle de la lumière. On dit que ces particules sont « relativistes » par référence à la relativité restreinte selon laquelle aucune vitesse matérielle ne peut être supérieure à celle de la lumière. Leur vitesse ne diffère en effet de celle de la lumière que dans des proportions infimes et leur énergie est d’autant plus grande que cette proportion est petite14 . Une autre caractéristique de ces radiogalaxies était de présenter un spectre « en loi de puissance »**. Or, c’est également l’un des attributs du rayonnement synchrotron. Dès le milieu des années cinquante, on avait donc acquis la conviction que le rayonnement des radiogalaxies était dû à l’effet synchrotron. Mais puisque l’on était obligé de développer d’énormes potentiels électriques pour obtenir la faible lumière bleutée émise par un accélérateur de quelques centaines de mètres de longueur, que dire de la machinerie nécessaire pour créer ces rayonnements nous parvenant de régions situées à des milliards d’années-lumière ? En utilisant la théorie du rayonnement synchrotron qui venait d’être élaborée pour les grands accélérateurs, il était possible de calculer l’énergie contenue dans les radiogalaxies. L’astronome anglais Geoffrey « Gef » Burbidge montra alors que pour expliquer le rayonnement synchrotron en provenance de la radiogalaxie Cyg A, l’énergie minimum15 stockée sous forme de champ magnétique et de particules relativistes devait être égale à toute la lumière rayonnée par notre Galaxie pendant dix milliards d’années [13]. Comme Burbidge avait utilisé la constante de Hubble en vogue à cette époque, il avait même sous-estimé cette énergie. 14

Si on appelle mo la masse de la particule, v sa vitesse, et c celle de la lumière, l’énergie de mouvement de la particule est égale à mo c2 divisé par  le facteur 1 − (v/c)r. On voit que si v/c se rapproche fortement de l’unité, l’énergie peut devenir extrêmement grande.

15 C’est une propriété de la nature que l’énergie minimum d’un système correspond à une équipartition (ou égale distribution) entre les différentes formes qu’elle peut prendre. Dans le cas des radiogalaxies, l’énergie est stockée d’une part dans les particules relativistes et d’autre part dans le champ magnétique. On détermine donc l’énergie minimum en supposant que ces deux formes d’énergie sont égales. Pour Cyg A, Burbidge trouvait ainsi 4 x 1053 joules et un champ magnétique modeste de 0,0002 gauss. Si le champ magnétique était plus grand, l’énergie stockée l’était également. Une incertitude provient aussi de la quantité de protons associés aux électrons produisant le rayonnement synchrotron. Le calcul postulait qu’il y avait autant de protons que d’électrons pour respecter la neutralité électrique qui existe dans l’Univers.

87

88

Des quasars aux trous noirs

Puis Burbidge, Fowler et Hoyle en déduisirent qu’un phénomène correspondant à la conversion complète d’une masse de dix ou cent millions d’étoiles (conformément à la fameuse loi E = mc2 ) s’était produit dans un passé assez récent dans cette galaxie. Comme on va le voir, cette découverte était très en avance sur son temps car on montrera trente ans plus tard que cette radiogalaxie contient bel et bien un quasar caché. Dès la fin des années cinquante, quelques astronomes avaient donc conclu que les galaxies comme Cyg A abritaient un colossal réservoir d’énergie. Or, cette découverte suscita peu d’engouement à l’époque, à part chez les radioastronomes, et il fallut attendre la découverte des quasars pour que la communauté astronomique commence à s’y intéresser. Ainsi, comme pour les galaxies de Seyfert que je décrirai dans le chapitre 4, les quasars servirent de catalyseur à des prises de conscience qui auraient pu être réalisées bien avant. L’existence de ces particules relativistes en quantité phénoménale posait déjà un grave problème, mais on pouvait lui trouver des explications. On pouvait imaginer qu’elles avaient été accumulées lentement au cours de la vie de la galaxie, ou bien au contraire qu’elles avaient été créées instantanément au moment d’une explosion donnant naissance à la radiosource. Cependant le problème ne s’arrêtait pas là. Il était facile de mesurer la dimension des sources radio associées aux galaxies, car elles étaient résolues par les radiotélescopes de l’époque. Pour Cyg A comme pour les autres radiogalaxies, la radiosource était bien plus grande que la galaxie elle-même. Certaines radiosources avaient une dimension d’un million d’années-lumière (maintenant on en connaît de dix fois plus grandes). On pouvait en déduire facilement qu’elles devaient être âgées d’au moins un million d’années, le temps pour que des particules se déplaçant à une vitesse proche de celle de la lumière parcourent cette distance. De plus, il ne faut pas s’imaginer que les particules se propagent en ligne droite à la vitesse de la lumière. Elles ont un parcours erratique, se heurtant à des îlots de champ magnétique qui les dévient, et elles mettent au moins dix fois plus de temps pour parvenir aux confins des radiosources : de ce fait, celles-ci devaient être âgées d’au moins dix millions d’années. Les particules devaient donc vivre au moins dix millions d’années si elles provenaient de la galaxie. Mais était-ce possible ? Car elles rayonnent d’une façon redoutablement efficace (le rayonnement synchrotron justement) et sont par conséquent rapidement ralenties. Cela signifiait que les radiosources devaient être réapprovisionnées en permanence en

Une découverte étrange qui nous fait remonter loin dans le passé

particules relativistes créées in situ. Or, l’existence de « jets » comme celui de Virgo A prouvait que la partie centrale de la galaxie était à l’origine du phénomène (le jet est montré dans le chapitre 10). C’était encore un mystère qui ne sera résolu que bien ans plus tard. Retenons de cette histoire que les découvertes les plus importantes – surtout théoriques – passent parfois inaperçues car trop en avance sur leur temps. On peut citer l’idée des étoiles à neutrons avancée en 1933, oubliée ensuite et validée seulement après la découverte des pulsars trente-cinq ans plus tard. En revanche, d’autres découvertes déclenchent un raz de marée d’articles très surdimensionné par rapport à leur intérêt réel parce qu’elles arrivent « au bon moment », qu’elles s’insérent dans un cadre déjà constitué, qu’elles ne heurtent pas les idées en place, ou qu’elles peuvent donner lieu immédiatement à toutes sortes de vérifications observationnelles. Et lorsqu’un astronome a la chance de faire une découverte observationnelle sur laquelle se greffe une théorie déjà connue, sa renommée monte en flèche, contrairement à celui qui découvre quelque chose d’incompréhensible au premier abord. Si l’on avait admis plus rapidement quelle était la source d’énergie des quasars, et si surtout on en avait été complètement certain, probablement leurs découvreurs auraient-ils également reçu le prix Nobel, comme Penzias et Wilson, découvreurs du Corps Noir cosmologique, ou comme Hewish et Ryle, découvreurs des pulsars. Entre temps, les radio-astronomes continuaient leur travail de fourmi, cataloguant les radiosources et mesurant avec de plus en plus de précision leur position ainsi que leur intensité et leur taille. Dès 1952, on avait compris que les radiosources se divisaient en deux classes : celles qui sont étendues et sont concentrées dans le plan de la Galaxie, et celles qui sont petites et distribuées uniformément sur le ciel. Les premières furent rapidement identifiées à des restes de supernovae comme Taurus A ou Cas A ou à des nébuleuses chaudes appartenant à notre Galaxie. Les radiogalaxies faisaient partie de la deuxième catégorie. Le troisième catalogue de Cambridge, le « 3C », publié en 1959 et révisé en 1962, couvrait pratiquement la moitié de la sphère céleste et donnait avec une assez bonne précision les positions de 328 radiosources. On en identifia immédiatement environ la moitié, en grande partie grâce à l’Atlas du Ciel, le Sky Atlas, établi avec le télescope de Schmidt du Mont Palomar, dont j’ai déjà parlé.

89

90

Des quasars aux trous noirs

L’une des sources les plus intéressantes du catalogue, située dans la constellation du Bouvier, portait le numéro 295. Des mesures interférométriques* en radio montrèrent qu’elle était en apparence dix fois plus petite que Cygnus A. Minkowski, qui avait déjà participé à l’identification de Cyg A, se passionna pour cet objet. Il ne trouva rien sur le Sky Atlas à la position de la radiosource. Il s’agissait donc d’un objet extrêmement faible optiquement. Faisant partie de la douzaine d’astronomes privilégiés qui pouvaient disposer du télescope de cinq mètres de Palomar pratiquement à leur guise, il décida de prendre une photo de la région. Il découvrit un amas de galaxies très faible, par conséquent lointain. Il réussit à prendre des spectres de la galaxie la plus brillante de cet amas en posant chaque fois plusieurs heures, fait très inhabituel à l’époque. Mais le jeu valait la chandelle, car sur le spectre de cette galaxie il y avait une raie brillante intense qu’il supposa être la même que celle qu’il avait lui-même trouvée dans le spectre de Cyg A, mais cette fois décalée de 46,1 % ! Comme cette valeur était très supérieure à toutes celles trouvées jusqu’alors, Minkowski prit soin de vérifier que d’autres raies plus faibles étaient également décalées de la même quantité. Pas de doute : il s’agissait bien d’une galaxie située presque dix fois plus loin que Cygnus A. On eut alors l’espoir d’identifier toutes les sources du catalogue avec des galaxies lointaines. Ce fut loin d’être le cas. En 1960, presque la moitié des sources restaient non identifiées, bien qu’émettant abondamment des ondes radio. En 1961, le radioastronome américain Tom Matthews découvrit avec Sandage que dans la « boite d’erreur » de la source numéro 48 (3C 48, par conséquent), il n’y avait qu’un seul objet, une petite étoile de seizième magnitude de couleur très bleue. Sandage en prit des spectres avec le télescope du Palomar et il trouva des raies brillantes, mais aucune à une longueur d’onde connue ! Cette observation fut rapportée en 1960 lors de la 107e réunion de la Société astronomique américaine, dans une note annonçant « qu’il était peu probable qu’il s’agisse d’une galaxie distante », mais plus vraisemblablement « d’une étoile proche ayant des propriétés très particulières ». Personne n’y prêta attention, y compris les auteurs de la découverte euxmêmes. Or, ils auraient dû penser à l’aventure de Minkowski avec la source 3C 295 car elle aurait pu leur donner la solution de l’énigme. Mais 3C 48 en différait trop, d’abord par son aspect d’étoile excluant une galaxie à moins d’être très

Une découverte étrange qui nous fait remonter loin dans le passé

compacte, et surtout par son éclat trop important ne pouvant en aucun cas provenir d’une simple galaxie. Il est vraiment étonnant qu’une telle nouvelle soit tombée dans l’indifférence générale et n’ait même pas été publiée. En effet, non seulement jamais encore une « étoile » n’avait été associée à une radiosource intense, mais de surcroît cette étoile avait un spectre incompréhensible. Probablement, la communauté astronomique n’était-elle pas prête pour une découverte qui allait bouleverser bien des idées reçues, ou peut-être les astronomes concernés mettaient-ils en doute leurs observations et préféraient-ils eux-mêmes ne plus en parler. On a toujours peur (souvent à juste titre) lorsqu’on fait une découverte révolutionnaire. Par chance, la radiosource numéro 273 du catalogue de Cambridge devait être éclipsée par la Lune à trois reprises en 1962 et ces éclipses allaient être visibles en Australie. Le radioastronome anglais Cyril Hazard décida de déterminer, avec la plus grande précision possible, la position de la source en utilisant ces occultations. C’est une technique à la fois simple et puissante consistant à suivre le déclin de la source et à noter l’instant précis de son occultation lorsqu’elle passe derrière la Lune. Cette technique peut d’ailleurs également être utilisée si la source est occultée par une planète. Malheureusement, cela ne se produit pas fréquemment. Hazard observa ces occultations en Australie avec le radiotélescope de Parkes pendant le printemps et l’été 1962 et il put ainsi déterminer la position de 3C 273 avec la précision extraordinaire pour l’époque d’une seconde d’arc. Il donnait même la position et la forme d’une source radio allongée se trouvant à environ quinze secondes d’arc du quasar, une sorte de « jet ».

Le mystère est résolu, un autre se pointe C’est à un astronome hollandais travaillant au California Institute of Technology à Pasadena (le Caltech), Marteen Schmidt, qu’il appartint de trancher le nœud gordien de cette énigme. Dans les jours qui suivirent la mesure de la position de 3C 273, Hazard lui fit parvenir les coordonnées de « l’étoile ». Schmidt trouva à la position exacte de la radiosource une étoile de treizième magnitude présentant une sorte de jet ressemblant à celui de Virgo A (on commence peut-être à entrevoir les similitudes entre tous ces objets...) (Figure 3.26). Il en prit un spectre en décembre 1962 avec le télescope de cinq mètres de Palomar. Et là, vint l’illumination.

91

92

Des quasars aux trous noirs

Figure 3.26. Photographies de 3C 273, montrant le jet et « l’étoile ». Celle de gauche (négatif) a été prise en 1963, celle de droite est plus récente et montre clairement un jet avec des sortes de « nodules ». Figure 3.27. Un spectre (en négatif) de 3C 273 obtenu en 1963, avec, au dessous, le spectre de comparaison d’un arc d’hydrogène, hélium et néon. On voit que la raie Hβ de l’hydrogène à 4 861 angströms est décalée dans le spectre de 3C 273. La raie indiquée comme [OIII] est en fait un ensemble de raies du fer. On peut réaliser, en comparant cette figure avec la suivante, les progrès extraordinaires des techniques spectrographiques – on en verra des exemples plus tard – et quelle habileté il fallait alors aux astronomes pour détecter les raies spectrales d’astres faibles et mesurer avec précision leur longueur d’onde.

Sur le spectre qu’il avait devant les yeux, Schmidt observait des raies brillantes, mais aucune n’était située à une longueur d’onde connue. Il réalisa que ces raies étaient espacées dans les mêmes proportions que le sont les raies de la série de Balmer de l’hydrogène** Hβ, Hγ et Hε, mais toutes décalées vers les grandes longueurs d’onde (vers le « rouge ») de 16 % par rapport à leurs longueurs d’onde habituelles. Schmidt appela son collègue Oke qui avait obtenu également un spectre de 3C 273 au Palomar, cette fois dans l’infrarouge, et lui demanda de vérifier s’il n’y avait pas sur son spectre une raie brillante vers 7 980 angströms. C’était la position de la première raie de Balmer, Hα, décalée de 16 % vers le rouge. Elle y était. Une autre raie que Schmidt détectait, décalée de 16 %, était la raie « interdite » de l’oxygène deux fois ionisé à 5 007 angströms, dont nous allons reparler dans le chapitre suivant. Toutes ces raies étaient observées depuis longtemps dans le spectre des nébuleuses planétaires ou des régions HII*. Schmidt trouvait également une raie ultraviolette du magnésium ionisé bien connue dans le spectre du Soleil, qu’on a retrouvée depuis dans les nébuleuses planétaires lorsqu’on commença à les observer dans le domaine ultraviolet grâce aux missions spatiales (Figures 3.27 et 3.28).

Une découverte étrange qui nous fait remonter loin dans le passé

93

Figure 3.28. Enregistrement microphotométrique du spectre de 3C 273 obtenu beaucoup plus tard. La technique consiste à enregistrer en chaque point du spectre l’intensité de l’illumination (en général maintenant digitalisée grâce à des Charge Coupled Devices ou CCD). Les raies apparaissent à une longueur d’onde décalée de 16 % par rapport à leur longueur d’onde au repos (indiquée par les flèches).

3C 273 est, comme 3C 48, un astre très bleu. C’est ce qui convainquit Greenstein et Matthews de ressortir des tiroirs les spectres de 3C 48 et cette fois, ils purent identifier des raies bien connues de l’oxygène, du néon et du magnésium, normalement situés dans le domaine ultraviolet, mais ici décalées dans le domaine optique de 37 %. En mars 1963, parurent dans le même numéro de la revue Nature quatre articles annonçant la nouvelle : Hazard, Mackey et Shimmins publièrent la position de 3C 273 et son identification avec un objet visible [43], Schmidt la découverte du décalage de 3C 273 [86], Oke complétant avec une mesure de la couleur de l’objet [71], enfin Greenstein et Matthews publièrent le décalage et l’identification de 3C 48 [40]. La photo de Marteen Schmidt parut le même mois en première page du Time, ce qui illustre bien l’impact de la découverte sur le public (Figure 3.29). La figure 3.30 montre la photo du télescope de 5 mètres du Mont Palomar où travaillait Marteen Schmidt, car il joua un rôle fondamental dans l’histoire qui nous préoccupe ici. Le mystère des spectres des « radio-étoiles » était résolu. Mais par pour autant celui de leur nature. . . On peut facilement imaginer l’ambiance qui régna au Palomar dès que les premiers résultats concernant 3C 273 furent connus. Il est tout à fait impensable à l’heure actuelle que de telles découvertes ne fassent pas la première des quotidiens le jour même. Pourtant, leurs découvreurs attendirent d’un commun accord avant de les publier qu’elles fussent absolument indiscutables. Dans ce contexte, la confirmation de la

Figure 3.29. La couverture du Time montrant la photo de Marteen Schmidt, qui annonçait « l’exploration des confins de l’Univers ».

94

Des quasars aux trous noirs

Figure 3.30. Le télescope de cinq mètres du Mont Palomar. Ce télescope resta le plus grand du monde pendant 26 ans, jusqu’à ce qu’il fût supplanté par le télescope de six mètres soviétique de Zelentchuk. Mais ce dernier n’atteignit jamais les performances du Palomar.

présence de Hα était d’une importance capitale, car il s’agissait véritablement d’une prédiction, et l’interprétation était ainsi « réfutable ». On a là un bel exemple de la façon dont devrait toujours se dérouler la recherche. Par ailleurs, Schmidt s’étonnait dans son article, de trouver au voisinage de la raie de l’oxygène trois bandes larges et intenses en émission et il avouait honnêtement n’avoir aucune explication pour ce phénomène, mais il pensait qu’elles étaient réelles. Il avait tout à fait raison, car ces bandes ont été identifiées depuis à des raies du fer dont la présence dans le spectre des quasars pose des problèmes encore non résolus à l’heure actuelle. Quelle était la cause de ces « décalages » énormes ? On se rappelle que Minkowski venait de s’apercevoir que la radiosource 3C 295 était en fait une galaxie ayant un décalage de 46 %. Mais ces nouveaux objets ne ressemblaient pas à des galaxies dont ils n’avaient pas l’aspect nébuleux et, de surcroît, ils étaient bien plus brillants que des galaxies lointaines. Pourtant, l’idée s’imposa à tous ces astronomes que leur décalage était « cosmologique » comme celui des galaxies, c’està-dire dû à l’expansion de l’Univers. Cette conclusion avait des conséquences importantes. La loi de Hubble donnait pour 3C 273 et pour 3C 48 des distances voisines de deux et cinq milliards d’années-lumière (rappelons que cette distance est déterminée avec la même incertitude que la constante de Hubble). Pour les magnitudes observées,

Une découverte étrange qui nous fait remonter loin dans le passé

ces distances correspondaient à des puissances mille fois plus grandes que celle de la Voie lactée tout entière. Tout ceci fut publié courant 1963 ainsi que les décalages de deux autres « Quasi-Stellar Radio Sources » comme on les avait appelés, 3C 196 et 3C 286. Naturellement, la plaisanterie sur le fait que 3C 273 a été découvert par « Hazard » a été maintes fois faite. Mais de façon plus sérieuse, il faut reconnaître que plusieurs hasards heureux ont concouru à cette découverte extraordinaire et que chacun a su les saisir immédiatement. C’est peut-être le secret de la bonne recherche. Parmi ceux-ci, le fait que 3C 273 était extrêmement brillant, en fait de loin le plus brillant des « objets quasi stellaires » du catalogue, qu’il passât plusieurs fois derrière la Lune et que son décalage fût petit, ce qui permettait de reconnaître dans son spectre les raies couramment observées dans les nébuleuses planétaires. Si le décalage de 3C 273 avait été deux fois plus grand, il est probable qu’on aurait encore attendu plusieurs années avant de pouvoir en identifier les raies. Mais cette suite de hasards heureux a aussi son revers de médaille. On peut dire en effet que les quasars ont été découverts trop tôt et que c’est la raison pour laquelle on a eu tant de mal à identifier le phénomène permettant de les expliquer. Les aurait-on découverts dix ans plus tard, après les pulsars et après ce que l’on a appelé les « sources X compactes » sur lesquelles nous allons revenir, les choses se seraient mises en place bien plus rapidement et probablement la grande controverse qu’ils ont déclenchée n’aurait-elle pas eu lieu. L’engouement pour cette découverte fut tel, qu’avant la fin de l’année 1963 un colloque fut organisé à Dallas au Texas pour discuter de ces premiers résultats. Un deuxième colloque se tint l’année suivante également au Texas, à Austin cette fois. Mais l’excitation provoquée par le sujet ne décroissait pas, elle s’amplifiait au contraire chaque année. Aussi devint-il clair qu’il fallait un colloque régulier pour permettre l’échange d’information sur ce sujet. Ce furent les Texas Symposium on Relativistic Astrophysics qui se tiennent tous les deux ans depuis cette époque. Ils ont gardé le nom de Texas Symposium, bien qu’ils aient rarement lieu au Texas mais dans diverses grandes villes qui se disputent l’honneur de les organiser. Celui de 1998 a eu lieu à Paris, puis ce fut Chicago en 2000, Florence en 2002, Stanford près de San Francisco en 2004, Melbourne en 2006. . . Ils attirent chaque fois un millier de participants, ayant été étendus à tous les phénomènes énergétiques du cosmos,

95

96

Des quasars aux trous noirs

comme les pulsars, les rayons cosmiques, les explosions de supernova, les « sursauts gamma » ou encore le Big Bang. La plupart des astronomes d’autres spécialités étaient restés dans un premier temps assez indifférents à cette découverte. J’avais assisté pour la première fois en 1964 au congrès de l’Union astronomique internationale (UAI, IAU en anglais) qui se tenait cette année-là à Hambourg. Ces congrès, destinés à faire le point sur les progrès de l’astronomie dans tous les domaines, rassemblent tous les trois ans pendant une quinzaine de jours une grande partie de la communauté astronomique. C’est une expérience passionnante pour un jeune que d’assister à cette sorte de grand-messe où l’on a l’occasion d’entendre discourir sur des sujets variés ceux que l’on connaît seulement par leurs livres et leurs articles. En 1964, les « phénomènes énergétiques » ou « les hautes énergies » comme on les a appelés par la suite ne faisaient pas partie des grands sujets discutés au congrès de l’UAI. Ils constituent maintenant l’un des thèmes majeurs en astronomie sur lequel se focalisent les « grands projets » et se cristallisent postes, bourses, crédits, etc. Schmidt fit un exposé sur « les propriétés des radiosources quasi stellaires » et cette fois les astronomes commencèrent à s’y intéresser sérieusement. Les choses se compliquèrent rapidement. Matthews et Sandage avaient publié fin 1963 un article concernant les observations de trois de ces objets, annonçant la détection de variations de lumière de 3C 48 de l’ordre de 0,4 magnitude en quelques mois, soit 50 % de leur éclat [63]. De plus, en ce qui concernait 3C 273, cet objet était répertorié depuis près d’un siècle comme une étoile variable erratique (c’est-à-dire une étoile dont l’éclat fluctue au cours du temps) à la station d’Arequipa au Pérou, annexe de l’Observatoire de Harvard. L’Observatoire de Harvard s’était en effet donné pour tâche de mesurer systématiquement l’éclat des étoiles variables, afin de comprendre la cause de leurs variations et de rechercher d’éventuelles périodicités (c’était là qu’avaient été observées les céphéides de Miss Henrietta Leavitt). En examinant les résultats de ces observations, Smith et Hoffleit découvrirent que 3C 273 subissait, outre des variations de grande amplitude sur plusieurs années, des sortes de « flashes » au cours desquels sa luminosité pouvait augmenter d’un facteur deux en une semaine [94]. C’était là un problème majeur : ces observations signifiaient en effet que la dimension de la source lumineuse était extraordinairement petite (Encadré 3.3).

Une découverte étrange qui nous fait remonter loin dans le passé

Encadré 3.3. Des variations importantes ne peuvent être observées dans un laps de temps inférieur à R/c, où R est le rayon du corps qui émet le rayonnement et c la vitesse de la lumière. En effet, si la surface d’un astre se met brusquement à rayonner avec plus d’intensité, un observateur ne verra son éclat augmenter que progressivement, puisqu’il recevra d’abord la lumière émise par les zones les plus proches et ensuite seulement celle émise par les zones les plus lointaines, à cause de la vitesse finie de la lumière. Supposons que le flux émis par une source augmente brutalement au temps t = 0. Des photons sont émis simultanément par tous les points de la source, en particulier par les points A et B. Le moment d’arrivée des photons émis par le point B, à un observateur situé à une distance D, est t = D/c, tandis qu’il est t = D/c + R/c pour les photons émis par le point A. La variation est donc « étalée » sur le temps R/c (Figure 3.31).

Figure 3.31. Comment on détermine la taille maximum d’une source variable.

Dans le cas de 3C 273, la source lumineuse était donc plus petite qu’une semaine-lumière. Même s’il s’agissait de sortes d’éruptions s’allumant ou s’éteignant à différents endroits dans le quasar et que celui-ci fût globalement plus grand, il n’en demeurait pas moins qu’une quantité d’énergie gigantesque était émise au cours du flash dans un volume minuscule. Anticipant sur la suite des évènements, on peut noter que plus tard on observera dans le domaine X des variations dans des temps plus courts encore, jusqu’à quelques heures. Donc la taille de la région émissive est inférieure à quelques heures-lumière, c’est-à-dire au rayon du système solaire, soit un milliardième de la taille de la Galaxie pour une puissance égale à mille galaxies...

97

98

Des quasars aux trous noirs

Comme le scepticisme était grand, Greenstein et Schmidt firent une analyse extrêmement poussée des deux objets les mieux connus, 3C 273 et 3C 48, et publièrent un article qui parut en juillet 1964. C’est celui que je mentionnais au début du chapitre et qui entraîna mon choix de recherche. Ils y discutaient les différentes causes possibles de décalages et les éliminaient au bénéfice de celui dû à la loi de Hubble. Une première cause possible de décalage était « l’effet gravitationnel » lié à la relativité générale**. Il provient de la difficulté qu’éprouvent les photons de lumière à s’extraire d’un champ de gravité intense. Ils sont obligés d’abandonner une partie de leur énergie, comme un coureur cycliste montant une forte côte perd des calories. Cette perte d’énergie s’accompagne d’une diminution de la fréquence de la lumière, donc d’une augmentation de sa longueur d’onde, en d’autres termes d’un « décalage vers le rouge ». Dans le cas des quasars, les raies spectrales proviennent d’une sorte d’atmosphère ayant une grande extension spatiale que l’on peut estimer (on verra comment dans le chapitre suivant)16 . La gravité s’exerçant sur la base de « l’atmosphère » est donc beaucoup plus grande que sur le sommet. La partie des raies spectrales émises par le sommet devrait alors être bien moins décalée que celle émise par la base, et les raies spectrales devraient par conséquent être non seulement décalées mais également « élargies » d’une quantité comparable. Elle devraient donc s’étendre sur une bonne partie du domaine visible et devenir de ce fait pratiquement inobservables ce qui n’est évidemment pas le cas. Greenstein et Schmidt concluaient que le décalage ne pouvait être gravitationnel (Encadré 3.4).

Encadré 3.4. En réalité, mon attention a été récemment attirée sur ce problème lors d’un échange de courrier électronique avec un ingénieur à la retraite, M. Brauns, qui me demandait des informations sur l’origine du décalage des quasars. Je lui répondis en lui conseillant la lecture de l’article de Greenstein et Schmidt qui à mon sens avaient réglé définitivement le problème. Or, leur démonstration était basée sur les propriétés du quasar 3C 273 qui a la particularité, comparé aux autres quasars découverts par la suite, d’avoir des 16 Cette « atmosphère » est au moins mille fois plus étendue que la source visible variable.

Une découverte étrange qui nous fait remonter loin dans le passé

raies très larges et un petit décalage. En suivant le raisonnement de Greenstein et Schmidt, on voit qu’il existe une solution pour laquelle le décalage peut être d’origine gravitationnelle, à condition que 3C 273 ait une masse voisine de dix milliards de masses solaires et que les raies proviennent d’une région de l’ordre d’un millième d’année-lumière, ce qui était marginalement possible. En fait, Greenstein et Schmidt avaient éliminé cette solution parce que « postuler l’existence d’objets stables ou pratiquement stables dans l’espace intergalactique avec des masses de l’ordre de celle d’une galaxie, de taille inférieure à une annéelumière, n’est pas réellement justifié dans l’état actuel des choses. Si des configurations stables existent pour des objets massifs nous devrons réexaminer cette possibilité », disaient-ils. Ce qui est amusant, c’est que l’on a observé récemment dans le spectre en rayons X de plusieurs galaxies de Seyfert – objets apparentés aux quasars dont nous parlerons dans le chapitre suivant – des raies très élargies et l’on suspecte que c’est à cause de l’effet gravitationnel. Ces raies subissent en fait deux sortes de décalages : le décalage cosmologique plus le décalage gravitationnel. Comme nous le verrons plus tard, les raies X sont sensibles au décalage gravitationnel car elles sont émises au voisinage immédiat d’une énorme masse compacte, ce qui n’est pas le cas des raies observées dans le domaine visible émises beaucoup plus loin. Une autre cause possible de décalage est l’effet Doppler**. Dans les cas de 3C 273 et de 3C 48, les décalages observés correspondent respectivement à des vitesses d’éloignement de 48 000 et 110 000 kilomètres par seconde. Ces vitesses représentent d’énormes énergies de mouvement pour des corps célestes de la dimension d’une étoile. D’où auraient pu être éjectés ces bolides lancés à des vitesses comparables à celle de la lumière ? De notre Galaxie ? Rien, dans son histoire, ne permettait de supposer que de tels phénomènes se soient produits à un moment donné. Greenstein et Schmidt rejetèrent donc cette possibilité sur la base de ces arguments énergétiques. Dans un article ultérieur, Hoyle et Fowler suggérèrent que la radiogalaxie Centaurus A pouvait être à l’origine de telles éjections. Mais, il y eut rapidement un argument très fort contre les décalages Doppler. Ils n’expliquaient pas pourquoi on observait systématiquement une vitesse d’éloignement. Certains

99

100

Des quasars aux trous noirs

auraient dû se rapprocher de nous. Or, parmi les dizaines de quasars découverts presque tout de suite après les deux premiers, et parmi la centaine de milliers qui sont connus actuellement, aucun ne présente un décalage vers les courtes longueurs d’onde. À moins d’imaginer un Univers dont nous serions le centre et où les quasars auraient été éjectés du Système solaire lui-même et s’éloigneraient tous, ce fait est inexplicable. Donc la seule solution restait le décalage cosmologique avec ses conséquences sur la nature de ces objets : ils devaient être très lointains et par conséquent extraordinairement lumineux. À moins que le décalage ne fût d’une origine inconnue. Et c’est bien ce que certains astronomes prônèrent pendant de nombreuses années et même encore à l’heure actuelle, en dépit de multiples preuves qu’il s’agit bien de décalage cosmologique.

Chapitre 4

Regain d’intérêt pour des galaxies oubliées Avant d’aller plus loin dans l’histoire des quasars, je vais revenir sur ma recherche personnelle qui prit un autre tour à partir de 1965. On avait donc découvert l’existence « d’objets quasi stellaires », et Greenstein et Schmidt avaient montré qu’ils étaient incroyablement lointains et lumineux. Lorsque je pris connaissance de leur article, je fus enthousiasmée, car il s’agissait sans conteste de la plus grande découverte faite depuis de nombreuses années et elle devait être associée à des phénomènes très énergétiques. Je décidais d’en faire mon sujet de recherche. J’écrivis à un jeune collègue, Philippe Véron, qui effectuait alors une thèse avec Sandage à Caltech sur l’identification de nouveaux quasars. Je lui fis part de mon désir de travailler sur le sujet, en lui demandant conseil puisque lui-même était alors immergé dans le milieu le plus actif en ce nouveau domaine. Il me répondit qu’un nombre de plus en plus grand d’astronomes travaillaient sur les quasars aux États-Unis et que la compétition y était intense. En conséquence, il me suggérait plutôt que de m’intéresser aux quasars eux-mêmes, d’étudier des objets paraissant avoir des propriétés très semblables, découverts vingt ans plus tôt par un jeune chercheur allemand, Carl Seyfert. Et il me conseillait de commencer par les observer pour approfondir leur nature. Ils sont en effet plus brillants que les quasars parce que plus proches et ils n’avaient quasiment pas été réobservés depuis leur découverte. Philippe pensait, comme d’autres astronomes autour de lui, que l’explication de leurs propriétés pourrait permettre d’élucider celles des quasars. Je me plongeais immédiatement dans l’article de Seyfert publié en 1943 [89], pour découvrir que les objets dont parlait Philippe étaient constitués en fait de six galaxies très bizarres.

102

Des quasars aux trous noirs

Elles avaient un « noyau » central bleu ressemblant à une étoile et leur spectre présentait des raies brillantes larges et très intenses1 . Cela les rapprochait effectivement des quasars, mais c’était tout de même peu. Car les noyaux en question, pourtant pratiquement aussi brillants à eux seuls que toute la galaxie au centre de laquelle ils se trouvaient, étaient environ cent fois moins lumineux que les quasars, du moins si l’on supposait ceux-ci situés à leur « distance cosmologique ». Dès la découverte des premiers quasars, quelques astronomes, convaincus qu’ils étaient bien à une distance très grande, avaient cherché à trouver leurs analogues dans notre environnement proche. On pouvait en fait les rapprocher de deux sortes de galaxies : les radiogalaxies dont il a été question dans le chapitre précédent et ces « galaxies de Seyfert » pratiquement oubliées. Ce qui est surprenant en ce qui concerne les galaxies de Seyfert plus encore que les radiogalaxies, c’est que leur ressemblance avec les quasars ne fera que se renforcer au fil du temps : chaque observation nouvelle, chaque domaine de longueur d’onde ouvert par l’astronomie spatiale, confirma sans cesse cette similitude. La seule différence tient dans leur plus faible luminosité et, naturellement, dans leur proximité. Et également dans le fait que les galaxies de Seyfert sont généralement faiblement émetteurs dans le domaine radio, contrairement aux premiers quasars découverts. Mais nous allons très vite voir que la plupart des quasars ne sont pas non plus des émetteurs radio comme on le croyait juste après leur découverte. Et il est devenu clair à présent que les galaxies de Seyfert et les quasars sont génériquement liés et recouvrent exactement les mêmes phénomènes physiques. Mais pour le prouver, il fallut attendre plus de vingt ans. Et l’on comprend maintenant aussi pourquoi les « galaxies de Seyfert » sont moins lumineuses que les quasars. Lorsque je me lançai dans le sujet, rien ne laissait supposer que les galaxies de Seyfert prendraient immédiatement une importance presque aussi grande que les quasars. C’était en tout cas la meilleure suggestion qu’on pouvait me faire dans le contexte où je me trouvais et je suis restée très reconnaissante à Philippe de me l’avoir généreusement donnée sans pratiquement me connaître. 1 En fait, l’article de Seyfert mentionnait douze galaxies, dont huit seulement correspondaient aux critères que je viens de mentionner, et il en étudia en détail seulement six.

Regain d’intérêt pour des galaxies oubliées

103

Figure 4.1. Le « diapason » de Hubble.

En même temps, c’était un programme ambitieux pour quelqu’un désirant faire rapidement une thèse. Je me trouvais en premier lieu confrontée à un problème difficile : il fallait observer ces objets et en prendre des spectres, ce qui n’était pas une tâche aisée à l’époque en France, en particulier pour une néophyte comme moi. Mais là encore le problème allait trouver une solution grâce à la générosité d’une astronome qui me permit de réaliser ce programme en un temps record. Il est d’abord nécessaire de donner une brève description des galaxies en général pour situer celles de Seyfert parmi elles. Hubble ne s’était pas contenté de mettre en évidence l’expansion de l’Univers. Son génie s’était également manifesté par l’introduction dès 1926 d’une classification des galaxies reposant sur leur morphologie, qui a été le fondement de toute l’astronomie extragalactique. Il y avait les « elliptiques », les « spirales » dont font partie notre galaxie et celle d’Andromède (M 31), et les « irrégulières », avec, dans chaque classe, des sous-classes selon le degré d’ellipticité ou le développement des bras spiraux des galaxies. Les spirales étaient divisées en deux branches : celles dont le centre est traversé par une « barre » (les « spirales barrées ») et les autres. On a appelé cette classification « le diapason de Hubble » (Figure 4.1). On pourrait la croire naïve et trop élémentaire et pourtant elle recouvre les propriétés principales des galaxies liées à leur formation et à leur évolution et même à la façon dont l’Univers dans son ensemble s’est structuré. Mais n’anticipons pas trop.

104

Des quasars aux trous noirs

Les galaxies elliptiques ont l’aspect de sphéroïdes plus ou moins aplatis. Elles contiennent une grande proportion de vieilles étoiles et très peu de gaz. Il y en a de très massives. Les galaxies spirales contiennent d’autant plus de gaz et d’étoiles jeunes que les bras spiraux sont plus développés. Quant aux irrégulières, qui n’ont aucune forme définie, elles sont en général très peu massives et contiennent beaucoup d’étoiles jeunes (ce sont par exemple nos petits satellites, les Nuages de Magellan). Plus tard, ont été rajoutées à cette classification les « lenticulaires » ressemblant à des galaxies elliptiques sur lesquelles se superpose un disque aplati d’étoiles. Rapidement, se posa la question de l’origine de cette différentiation entre les galaxies : avait-on affaire à une séquence évolutive, les galaxies passant des elliptiques aux spirales (ou l’inverse), ou bien les propriétés des galaxies étaient-elles dues à une formation initiale et une évolution différentes ? Et c’est là que l’on retrouve une fois de plus un aspect dogmatique de la science avec lequel il faut savoir prendre ses distances. . . En effet, il régna d’abord pendant vingt ans l’idée que la classification de Hubble correspondait à une séquence évolutive. L’ennui est que l’on ne pouvait dire dans quel sens se produisait l’évolution. D’un côté, les galaxies elliptiques semblaient plus vieilles, mais de l’autre elles étaient souvent plus massives que les spirales et il était difficile d’imaginer qu’elles se soient fractionnées au cours de leur vie. Puis, la vapeur s’inversa et l’opinion prédomina au contraire que les galaxies étaient nées telles qu’on les voit actuellement et qu’il fallait chercher l’origine de leur forme et de leurs propriétés dans le nuage protogalactique. Les elliptiques se seraient formées à partir de gros nuages de gaz ayant peu de rotation, qui se seraient effondrés rapidement sur eux-mêmes, le gaz donnant naissance immédiatement à des étoiles. Les spirales au contraire correspondraient à des nuages tournant très vite sur eux-mêmes qui, en s’effondrant, auraient donné naissance à des disques plats en rotation plus ou moins rapide et auraient gardé beaucoup de gaz où les étoiles continuaient encore à se former actuellement. Cette conception était effectivement raisonnable, et j’ai moi-même effectué les vingt premières années de ma recherche en partageant ce credo. Ce n’est qu’à partir des années quatre-vingts qu’on en revint à une vision évolutive des galaxies. Mais cette fois, contrairement à ce qui se passait cinquante ans plus tôt, elle était motivée par la reconnaissance de l’importance des « collisions » entre les galaxies. Les images de plus en plus détaillées obtenues avec les grands télescopes au sol et avec le télescope

Regain d’intérêt pour des galaxies oubliées

spatial de Hubble montraient en effet un grand nombre de couples ou de plusieurs galaxies en train d’interagir, du gaz et des étoiles coulant de l’une à l’autre. Et l’on devinait qu’à la suite de cet événement majeur, le cours de la vie de chacune en serait profondément modifié, que dans certains cas même deux galaxies finiraient par n’en faire plus qu’une seule. Il ne devait pas s’agir d’une sorte de catastrophe rare dans la vie d’une galaxie, mais au contraire d’un accident très commun devant se produire souvent. Notre Voie lactée n’est-elle pas en interaction actuellement avec les Nuages de Magellan qui y déversent en permanence un flot de gaz, et avec la galaxie naine Sagittarius dont elle est en train de capturer les étoiles ? Avec le développement des ordinateurs, on parvint alors à simuler ces interactions, ce qui confirma en particulier que la fusion de deux grosses galaxies spirales pouvait conduire à la naissance d’une galaxie elliptique. Il est maintenant clair que ces immenses corps que sont les galaxies, sont instables et même fugaces : elles naissent, elles grandissent et elles changent de forme. Toutes les galaxies, à l’exception des irrégulières, ont une symétrie et par conséquent un centre de symétrie. Dans ce centre, on trouve toujours ce que l’on nomme un « noyau » plus ou moins brillant, correspondant à une condensation d’étoiles et de gaz. Il a parfois un aspect diffus, mais la plupart du temps il ressemble à une simple étoile, parfois pratiquement invisible. Lorsque l’on en prend un spectre, il s’apparente souvent à celui de la galaxie, avec des raies sombres en absorption traduisant la présence d’un amas d’étoiles. Les galaxies que Seyfert avait observées étaient des galaxies spirales, à l’exception de l’une d’entre elles qui n’était pas facilement classifiable, NGC 1275 (c’était d’ailleurs la seule à émettre beaucoup de rayonnement radio) (Figures 4.2). Mais à la différence des noyaux d’autres galaxies, ceux des galaxies de Seyfert étaient bleus et très brillants et leurs spectres montraient des raies en émission intense. Certaines galaxies de Seyfert avaient été repérées depuis longtemps. En 1909, l’américain Fath avait noté dans le spectre de l’une d’elles, NGC 10682, les six raies en émission caractéristiques des spectres du gaz qui constitue les nébuleuses planétaires dont en particulier celles de la « série de Balmer » de l’atome d’hydrogène. Puis Slipher, dont j’ai longuement parlé 2 L’acronyme NGC reviendra souvent par la suite ; il signifie simplement New General Catalogue. Ce catalogue, compilé à la fin du xixe siècle par le danois Dreyer, contient 7 840 nébuleuses, galaxies, et amas d’étoiles.

105

106

Des quasars aux trous noirs

(a)

Figure 4.2. Les six galaxies étudiées par Seyfert en 1943, non pas comme Seyfert les avaient observées lui-même, mais comme elles l’ont été cinquante ans plus tard avec le télescope Hubble : il permet d’obtenir l’image du noyau très brillant d’aspect stellaire, tout en distinguant clairement la structure de la galaxie spirale qui l’entoure. De haut en bas, a : NGC 1068, b : NGC 1275, c : NGC 3516, d : NGC 4051, e : NGC 4151, f : NGC 5548. Seule la galaxie NGC 1275 n’est pas une spirale. C’est aussi la seule à être une radiosource intense, et nous verrons plus loin qu’elle a d’autres propriétés particulières.

(b)

(c)

(e)

(d)

(f)

à propos de la loi de Hubble, avait remarqué en 1917 que chaque raie couvrait un grand domaine de longueur d’onde. En d’autres termes, les raies étaient « larges »3 . Hubble, ensuite, mentionna que parmi les galaxies qu’il avait étudiées, trois d’entre elles, NGC 1068, NGC 4051 et 3 Par exemple, une raie comme la raie Hα de l’hydrogène, située en principe à 6 563 angströms dans le spectre, s’étend en fait de part et d’autre sur plus de 60 angströms.

Regain d’intérêt pour des galaxies oubliées

NGC 4151, avaient un noyau ressemblant à une étoile brillante et présentaient un spectre de raies semblable à celui des nébuleuses planétaires. Carl Seyfert fut le premier à en entreprendre une étude systématique. Ce jeune astronome avait passé quelques années plus tôt une thèse sur « une étude des galaxies extérieures » sous la direction de Shapley et il venait d’être nommé en 1940 à l’Observatoire du Mont Wilson. Rien, me semble-t-il, ni avant ni après, dans sa carrière relativement courte (puisqu’il est mort à l’âge de 49 ans), ne laissait prévoir que son nom serait l’un des plus souvent prononcés en astronomie extragalactique. Évidemment, avoir Shapley comme directeur de thèse n’était peut-être pas sans conséquence. Minkowski (celui qui avait identifié la radiogalaxie Cygnus A) travaillait au Mont Wilson en même temps que Seyfert et il me confirma que c’était un astronome intelligent et surtout très méticuleux (Figure 4.3). Seyfert prit les spectres de six galaxies à noyau brillant et bleu, NGC 1068, 1275, 3516, 4051, 4151 et 7469. Dans tous, il trouva un spectre classique de galaxie, avec des raies sombres d’origine stellaire4 , mais y étaient superposées des raies brillantes « en émission » semblables à celles des régions HII ou des nébuleuses planétaires, en particulier la série de Balmer de l’atome d’hydrogène. Mais ces raies étaient bien plus « larges » que dans les nébuleuses galactiques (Figure 4.4).

107

Figure 4.3. Carl Seyfert au télescope de 60 cm de l’Université Vanderbilt, USA.

Figure 4.4. Spectres de trois galaxies de Seyfert publiés par lui-même en 1943. On donne ici non les spectres bruts mais leurs « enregistrements », c’est-à-dire la variation de l’intensité en fonction de la longueur d’onde mesurée par un « microphotomètre » (la méthode est décrite un peu plus loin dans ce chapitre). Les raies sont toutes très larges, mais des différences entre les trois spectres apparaissent clairement. 4

Les galaxies étant faites d’un ensemble d’étoiles de divers types, présentent les raies sombres – en absorption – caractéristiques de ces étoiles.

108

Des quasars aux trous noirs

Des raies spectrales que l’on n’attendait pas Ces raies observées à la fois dans les galaxies de Seyfert et dans les quasars, vont constituer par la suite l’une des clefs de notre problème et caractériser mieux que n’importe quel autre phénomène le mécanisme à l’œuvre dans ces deux types d’objets (à l’exception des rayons X dont nous reparlerons plus tard). Il est donc utile de nous y arrêter et de décrire les processus conduisant à leur émission. Les raies brillantes des nébuleuses ont mis pratiquement vingt ans à être interprétées, grâce au travail acharné de plusieurs astronomes entre 1925 et 1945, comme l’allemand Zanstra, le norvégien Rosseland, l’arménien Ambartsumian et les américains Aller et Menzel. On comprit en premier lieu la formation des raies de l’atome d’hydrogène**. Elles sont produites par un mécanisme bien connu dans nos laboratoires et même dans notre vie courante : la fluorescence. Au centre d’une nébuleuse planétaire, il existe une étoile très chaude ayant une température de l’ordre de cent mille degrés, qu’on ne voit pratiquement pas en lumière visible car elle rayonne presque entièrement dans le domaine ultraviolet invisible à nos yeux. Les atomes de la nébuleuse absorbent ce rayonnement ultraviolet, ce qui les ionise, c’est-à-dire leur arrache un ou plusieurs électrons. Là aussi, il s’agit d’un mécanisme auquel nous sommes habitués, puisque c’est l’effet photoélectrique, celui qui actionne par exemple les cellules du même nom (mais dans ce cas l’agent ionisant est le rayonnement visible et non le rayonnement ultraviolet). Très rapidement, d’autres atomes déjà ionisés captent ces électrons qui redescendent de niveau en niveau en émettant une série de photons de lumière**, situés dans le domaine visible cette fois. On peut se représenter ce mécanisme comme un ballon (le photon ultraviolet) envoyé sur un palier au sommet d’un escalier, qui dégringole ensuite d’une marche à l’autre en restituant l’énergie fournie au départ. La lumière ultraviolette invisible a été ainsi convertie en lumière visible dans les raies spectrales : c’est de la fluorescence (Figure 4.5). Outre les raies de l’hydrogène, on remarquait aussi dans le spectre des nébuleuses et dans celui des galaxies de Seyfert des raies dites « interdites », présentes également dans les quasars. Ces raies sont appelées ainsi, car on pensait jusque dans les années trente qu’elles ne pourraient jamais être observées. Or

Regain d’intérêt pour des galaxies oubliées

109

Figure 4.5. Comment sont formées les raies spectrales dans les nébuleuses : les raies permises sont formées lorsqu’un photon ultraviolet ionise un atome qui se recombine puis se désexcite spontanément de niveau en niveau ; les raies interdites sont formées à partir de chocs entre les atomes et les électrons qui les font monter sur un niveau supérieur ayant une très longue durée de vie (voir aussi l’Annexe B sur les théories physiques).

elles le sont et même elles sont très intenses. Pourquoi s’est-on trompé à ce point ? C’est une histoire intéressante, montrant combien la science peut faire fausse route lorsque la théorie et l’observation ne se développent pas parallèlement. Elle vaut la peine d’être contée. En 1918, W.H. Wright prit des spectres d’une belle nébuleuse planétaire dans la constellation du Dragon, NGC 6543 (qu’on appelle également la nébuleuse de l’« Œil de Chat », il suffit de regarder la figure 4.6. pour en comprendre la raison !).

Figure 4.6. Image composite de la nébuleuse planétaire NGC 6543 obtenue en 2002. Si elle était en couleur, on verrait en rouge près du centre l’émission des raies interdites de l’azote ionisé (situées à 6 548 et 6 583 angströms, dans le rouge, donc), et successivement vers l’extérieur en bleu et en vert celle des raies des raies interdites de l’oxygène une et deux fois ionisé (respectivement à 3 727 angströms dans le bleu, et à 4 959 et 5 007 angströms dans le vert).

110

Des quasars aux trous noirs

Wright identifia sans difficulté de nombreuses raies, dont les raies de Balmer de l’hydrogène déjà mentionnées, mais demeura incapable d’en identifier quelques autres, en particulier deux raies intenses de longueurs d’onde 4 959 et 5 007 angströms. Il les attribua à un nouvel élément qu’il appela le « nebulium ». Il paraissait toutefois artificiel d’invoquer un élément inconnu, nécessairement très abondant, ce qui conduisit H. Russell (celui du diagramme Hertzsprung-Russell) à prédire qu’il « devait s’agir d’atomes d’une espèce connue, mais émettant leurs raies dans des conditions inhabituelles, par exemple dans un gaz extrêmement dilué ». C’était exactement le cas (Encadré 4.1).

Encadré 4.1. La mécanique quantique nous apprend que les atomes et les ions sont constitués de noyaux et d’électrons dont les niveaux d’énergie** sont « quantifiés », c’est-à-dire prennent seulement des valeurs discrètes. Certains niveaux présentent la particularité d’avoir une très longue durée de vie. Ils donnent très rarement lieu à une transition spontanée avec émission d’un photon. Par ailleurs, ces niveaux ne peuvent pas être peuplés par l’absorption d’un photon venant d’un niveau inférieur qui « l’exciterait », mais seulement par des chocs avec d’autres particules**. L’atome excité reste alors si longtemps dans l’état supérieur qu’il a une forte chance d’être désexcité par un autre choc avant d’émettre un photon. Cette transition ne sera donc pas observée : elle est « interdite ». Mais si le milieu est extrêmement dilué, les chocs sont très rares et l’atome excité n’aura pas le temps de subir un nouveau choc avant de subir une transition spontanée donnant lieu à l’émission d’un photon. Le photon de la raie interdite sortira du milieu et la raie interdite pourra être observée. Les raies permises, elles, sont excitées généralement par fluorescence, ainsi que nous venons de le voir. Mais ce processus est relativement peu fréquent car il faut des photons ultraviolets en grande quantité. Les raies interdites peuvent donc être aussi intenses, sinon plus intenses, que les raies permises.

Ira Bowen, un physicien travaillant à Caltech, résolut l’énigme du nebulium en 1928. Il comprit que les raies en question étaient en fait des raies interdites qui ne sont jamais

Regain d’intérêt pour des galaxies oubliées

observées sur Terre car la condition requise est que la densité soit inférieure à environ un milliard d’atomes par litre. Ce nombre a l’air d’être gigantesque et pourtant il est cent mille milliards de fois moins grand que la densité de l’atmosphère terrestre ! Un tel vide est encore actuellement impossible à atteindre en laboratoire. Bowen montra que les deux raies à 4 959 et 5 007 angströms sont tout simplement les transitions interdites de l’atome d’oxygène « deux fois ionisé », c’est-à-dire auquel deux électrons sur les huit que comporte cet atome ont été enlevés. L’oxygène est en effet, après l’hydrogène et l’hélium, l’élément le plus abondant dans l’Univers, et le rayonnement ultraviolet des étoiles chaudes situées au centre des nébuleuses planétaires lui arrache facilement un ou plusieurs électrons. Cette découverte permit alors de régler un problème bien plus ancien, celui du coronium. On observait depuis longtemps dans la couronne solaire, au cours des éclipses, une raie intense située à 5 303 angströms que l’on appelait « la raie verte ». Comme on ne pouvait l’identifier, on l’avait attribuée à un élément inconnu, le coronium (décidément les astronomes manquent d’imagination). Pendant un demi-siècle cette raie donna lieu à de nombreuses spéculations, jusqu’à ce que en 1939 les physiciens Grotrian et Edlén l’identifient à une raie interdite des atomes de fer auxquels treize électrons avaient été arrachés. De nouveau, en effet, il s’agit d’un des éléments les plus abondants dans le cosmos. Cette identification posa un nouveau problème : comment les électrons pouvaient-ils être ainsi arrachés à leurs atomes ? On comprit rapidement que c’était dû à la température extrêmement élevée de la couronne, proche de dix millions de degrés. Mais pourquoi la couronne atteint-elle des températures aussi élevées, alors que la surface du Soleil est à une température bien plus modeste de 5 600 K ? On voit ici que la solution d’un problème amène souvent à se poser de nouvelles questions, comme un écheveau qu’il faut dévider et dont on ne parvient jamais à trouver le bout. Le mystère du chauffage de la couronne solaire est actuellement à peu près résolu, mais je ne le développerai pas ici. Cette affaire montre à quel point il faut se défier en astrophysique des idées préconçues acquises dans les conditions habituelles des laboratoires terrestres. Le cosmos est en effet un laboratoire de l’extrême et souvent, rien, sauf la physique considérée et traitée ab initio, ne peut donner une idée de ce qui s’y passe et une réponse à un problème. Rappelons-nous que l’on trouve dans l’Univers des densités extraordinairement

111

112

Des quasars aux trous noirs

faibles de quelques atomes par mètre cube dans l’espace intergalactique (pour avoir un kilogramme de matière, il faudrait prendre un cube de 1017 kilomètres de côté), et aussi gigantesques que 1020 grammes par mètre cube, dans les « étoiles à neutrons »* (une cuillère à café de la matière d’une étoile à neutrons pèserait cent mille tonnes) ; ou bien des milieux très froids, à une dizaine de degrés absolus à l’intérieur des nuages de matière interstellaire et à l’inverse, des milieux à des milliards de degrés dans le cœur des étoiles. Il est évident que dans des conditions aussi différentes, les mêmes lois de la physique ne conduisent pas aux mêmes effets. Nous avons vu que les raies spectrales des quasars et des galaxies de Seyfert sont semblables à celles des nébuleuses planétaires avec leurs « raies permises » et leurs « raies interdites ». Nous en déduisons qu’elles sont produites dans les deux cas par une région très diluée et par conséquent de grande dimension (il faut bien avoir un nombre suffisant d’atomes pour expliquer l’intensité des raies). Comme je l’ai dit, il existe cependant une différence importante entre les raies des quasars ou des galaxies de Seyfert et celles des nébuleuses planétaires : dans les nébuleuses elles sont confinées à quelques dixièmes d’angström autour de la longueur d’onde centrale. Dans les quasars et les galaxies de Seyfert, les raies interdites observées dans le domaine visible s’étendent sur plusieurs angströms et les raies permises sur plusieurs dizaines d’angströms. Comment expliquer ces élargissements ? Nous avons déjà parlé à propos des quasars de l’effet gravitationnel qui peut donner un décalage et en même temps un élargissement des raies. Mais étant donnée la grande dimension de la région où sont produites les raies, l’effet gravitationnel ne peut pas être important à moins que la masse centrale ne soit absolument gigantesque5 . Donc il faut faire appel à l’effet Doppler** : ce sont les mouvements des atomes émettant la raie qui l’élargissent. Si une raie, dont la longueur d’onde est 5 000 angströms par exemple, s’étend de part et d’autre sur 100 angströms, cela signifie que 5

Le décalage gravitationnel z est à peu près égal à GM/Rc2 , où G est la constante de la gravitation universelle, M la masse du corps central, R le rayon de la région émissive et c la vitesse de la lumière. Donc si R est grand, M doit l’être aussi pour que z soit grand. La dimension typique de la région où se forment les raies interdites dans les galaxies de Seyfert est de quelques centaines d’années-lumière, ainsi qu’on peut l’observer directement sur les images. Pour expliquer par l’effet gravitationnel un élargissement de seulement 5 angströms d’une raie ayant une longueur d’onde de 5 000 angströms, il faudrait que la masse de l’objet central soit égale à 1012 fois la masse du Soleil.

Regain d’intérêt pour des galaxies oubliées

certains atomes émettant ces photons se rapprochent de nous avec une vitesse de quelques milliers de kilomètres par seconde et que d’autres s’en éloignent avec la même vitesse. Les questions qui se posent sont alors : quels mouvements induisent ces vitesses ? S’agit-il de gaz qui tombe vers le centre ? Ou bien est-ce du gaz en rotation autour d’un objet central ? Ces questions ont agité les spécialistes pendant de nombreuses années et ne sont toujours pas résolues. En tout état de cause, ils traduisent un phénomène commun aux galaxies de Seyfert et aux quasars et c’est, comme on le comprit plus tard, la présence d’une grande masse centrale (mais pas aussi grande que pour un élargissement gravitationnel). Les observations de Seyfert étaient assez difficiles à interpréter car les six galaxies différaient par des aspects importants. Dans plusieurs d’entre elles, les raies interdites étaient plus étroites que les raies permises. Ce n’était pas le cas de NGC 1068, la plus brillante d’entre elles, où les largeurs des raies interdites et permises étaient les mêmes et correspondaient à des mouvements de l’ordre de 2 000 kilomètres par seconde. De plus, les raies permises étaient beaucoup moins intenses que dans les autres galaxies. Tout ceci ne fut compris que beaucoup plus tard. Est-ce cette apparente complexité qui éloigna les chercheurs du sujet pendant de nombreuses années ? Les galaxies étudiées par Seyfert furent oubliées pendant une quinzaine d’années et suscitèrent un regain d’intérêt seulement vers la fin des années cinquante, lorsque les radiogalaxies commencèrent elles-mêmes à occuper les astronomes. Et pendant seize ans, aucune citation ne fut faite de cet article pourtant fondateur. Il est amusant de noter à ce propos que, suivant les critères retenus maintenant pour le recrutement d’un chercheur en astronomie, entre autres un « indice de citations » contenant au moins plusieurs dizaines de citations, Seyfert serait refusé sans même une minute de discussion.

Où l’on prend conscience qu’il se passe des choses bizarres dans les noyaux des galaxies de Seyfert : début d’une controverse Les deux premiers articles revenant sur la question furent ceux des Américains Margaret et Geoffrey « Gef » Burbidge, avec Kevin Prendergast [15], et du Hollandais Lodewijk « Lo »

113

114

Des quasars aux trous noirs

Woltjer [104], articles publiés curieusement dans le même volume de l’Astrophysical Journal en 1959. Visiblement aucun n’avait eu connaissance de l’autre étude. Or, ils parvenaient à des conclusions diamétralement opposées. Avant d’exposer le problème, résumons ce que je viens de dire. Les spectres des noyaux des galaxies de Seyfert présentent en général deux systèmes de raies en émission : les unes (essentiellement des raies interdites) sont relativement étroites et correspondent à des vitesses de l’ordre de quelques centaines de kilomètres par seconde, les autres (seulement des raies permises) sont larges et correspondent à des vitesses de plusieurs milliers de kilomètres par seconde. Mais certaines des Seyfert n’ont que le premier système, celui des raies relativement étroites. NGC 1068 est l’une d’entre elles. L’explication en sera trouvée seulement dans les années quatre-vingts et elle ouvrira une ère nouvelle dans les recherches sur les quasars et les galaxies de Seyfert. En 1959, on ignorait évidemment qu’il s’agissait d’une différence fondamentale. Les Burbidge et Prendergast s’étaient intéressés seulement à NGC 1068 dont ils avaient pris des spectres. C’est une galaxie spirale comme la nôtre, ressemblant à un disque plat tournant autour de son centre, et ils avaient donc cherché à déterminer sa masse en construisant sa « courbe de rotation », suivant en cela une technique largement utilisée avant et depuis (Encadré 4.2). Ils obtenaient un résultat bien clair : la masse localisée à l’intérieur de quelques centaines d’annéeslumière était inférieure à un milliard de masses solaires6 . Ils avaient utilisé pour cette détermination les raies en absorption produites par les étoiles, qui sont beaucoup moins larges que les raies en émission.

Encadré 4.2. Une application très importante de l’effet Doppler** est la détermination de la « courbe de rotation » des galaxies. L’effet Doppler permet de mesurer la projection de la vitesse sur la ligne de visée. Imaginons une galaxie spirale (disque circulaire mince en rotation) vue par la tranche (Figure 4.7a). À un rayon R, supposons que la galaxie tourne avec une vitesse V. Par effet Doppler, nous mesurerons une vitesse V au point C, et une vitesse −V au point D, tandis que la vitesse mesurée sera nulle aux points A et B. Si la galaxie n’est pas vue 6

Nous appellerons désormais la masse du Soleil la « masse solaire ».

Regain d’intérêt pour des galaxies oubliées

exactement par la tranche mais avec une inclinaison θ par rapport à la ligne de visée (Figure 4.7b), nous mesurerons des vitesses V cos(θ) et −V cos(θ), et nous pourrons déterminer l’angle θ puisque sa tangente est égale au rapport entre le petit et le grand axe de la galaxie (qui est en réalité circulaire). En plaçant la fente d’un spectrographe le long du grand axe apparent de la galaxie, on peut ainsi mesurer la vitesse de rotation en fonction de la distance au centre. C’est ce que l’on nomme la « courbe de rotation ». Notons que la méthode ne peut être utilisée si la galaxie est vue de face, car la vitesse mesurée est nulle. Plus loin du noyau, la densité d’étoiles et de gaz commence à décroître, et l’on s’attend à ce que M(R) reste constante à partir d’un certain rayon, et par conséquent √ que V décroisse comme 1/ R (Figure 4.8). Les courbes de rotations étaient traditionnellement construites grâce aux vitesses déterminées par les raies en absorption provenant des étoiles. Celles-ci ne sont pas observables à de grandes distances du centre, car le continu devient très faible. Or dans les années soixante-dix, on commença à obtenir des courbes de rotation jusqu’à de grandes distances du centre, en utilisant la raie 21 cm de l’hydrogène provenant du gaz interstellaire, qui est observable à de plus grandes distances. À la surprise générale, on s’aperçut alors que la masse de la galaxie continuait à croître bien au delà de ses limites visibles (Figure 4.9) ! C’est la découverte de ce phénomène qui a alerté les astronomes sur l’existence d’une « matière invisible » à l’extérieur de la partie visible des galaxies, bientôt identifiée avec des halos de « matière noire ».

115

Figure 4.7. Vitesse VR mesurée par effet Doppler sur une galaxie ayant une vitesse de rotation V : a : la galaxie est vue exactement par la tranche ; b : la galaxie est vue sous l’inclinaison θ.

116

Des quasars aux trous noirs

Figure 4.8. Courbe de rotation d’une galaxie, telle qu’elle devrait être, et telle qu’on l’observe en réalité loin du centre. C’est la preuve de l’existence de matière noire.

Figure 4.9. Courbe de rotation de la galaxie NGC 5746, qui est vue pratiquement par la tranche. Lorsque l’on corrige du décalage d’ensemble de la galaxie, on voit que le côté droit s’éloigne de nous, et le côté gauche se rapproche. La courbe de rotation est très perturbée par des bandes de gaz et de poussière visibles sur l’image de la galaxie.

Or les raies en émission produites par le gaz et non par les étoiles, provenaient d’un noyau de quelques centaines d’années-lumière – on le savait car la région était résolue sur les photographies – et leur largeur plus grande indiquait une masse bien plus élevée qu’un milliard de masses solaires, du moins si le gaz était entraîné par les étoiles dans leur rotation. Ces deux résultats semblaient donc absolument contradictoires. La seule explication possible était que le gaz produisant les raies spectrales en émission ne fût pas en rotation (comme un satellite tournant autour de la Terre), mais éjecté avec une grande vitesse du noyau de la galaxie (comme un satellite qui échappe à l’attraction terrestre et part dans l’espace)**.

Regain d’intérêt pour des galaxies oubliées

Woltjer, qui s’appuyait non pas sur la seule galaxie NGC 1068 mais sur les résultats de Seyfert en général, concluait au contraire que le gaz devait être en rotation, ou éventuellement avoir des mouvements erratiques, mais que dans les deux cas il était attiré par une énorme masse centrale. Cette conclusion était exactement contraire à celle des Burbidge. Woltjer suggérait même que « la présence de noyaux denses devait être une caractéristique commune à de nombreuses galaxies » (Encadré 4.3).

Encadré 4.3. L’argument de Woltjer était le suivant. De l’étude des raies spectrales, il déduisait que le gaz avait une masse de l’ordre d’un million de masses solaires. Si ce gaz s’éloignait du centre, il devait quitter le noyau en cent mille ans grâce à sa vitesse. Le gaz devait donc être renouvelé tous les cent mille ans, c’est-à-dire qu’une masse égale à dix Soleils devait s’échapper chaque année du noyau de ces galaxies. Par ailleurs, d’après la proportion de galaxies de Seyfert parmi toutes les spirales (environ deux pour cent), Woltjer estimait que la durée de vie d’une galaxie de Seyfert devait être de cinq cents millions d’années s’il s’agissait d’une phase traversée par toutes les galaxies ; dans le cas contraire la durée de vie des Seyfert devait être encore plus grande. En cinq cent millions d’années, c’est cinq milliards de masses solaires qui devaient ainsi se volatiliser. Où trouver une telle quantité de gaz au sein du noyau ? D’où proviendrait-elle ? Quel gigantesque moteur pouvait l’expulser ? Cela semblait impossible. Woltjer en déduisait que le gaz ne s’échappait pas mais était attiré par un amas d’environ un milliard d’étoiles situé au cœur du noyau. Sa première erreur était de calculer la masse en supposant tout le volume du noyau rempli par ce gaz alors qu’il pouvait l’être seulement en partie, de façon inhomogène, ce qui est d’ailleurs le cas. La seconde était de calculer la masse du gaz éjecté en se servant de la densité déterminée à partir des raies interdites (c’est d’ailleurs le meilleur moyen pour cela7 ) et d’utiliser cette masse comme étant celle de la région émettant les raies permises. C’est moi qui proposerai dans ma thèse, pratiquement en même temps que deux astronomes soviétiques, que les deux régions soient dis7 On peut déterminer la densité et la température, par exemple en comparant entre elles les intensités des raies interdites d’un même ion.

117

118

Des quasars aux trous noirs

jointes, l’une – la région émettant les raies permises – étant beaucoup plus dense et plus petite que l’autre, réconciliant par conséquent les résultats des Burbidge et de Woltjer. La masse de gaz est en effet égale au volume multiplié par la densité. Par ailleurs, on peut montrer que l’intensité des raies est proportionnelle au carré de la densité multipliée par le volume émissif, donc à la masse multipliée par la densité. Une raie ayant une intensité donnée peut donc être produite par une petite masse avec une grande densité ou par une grande masse avec une petite densité. Dans le premier cas, le volume (la masse divisée par la densité) sera beaucoup plus petit. Si on suppose que la densité de la région émettant les raies permises est beaucoup plus grande que celle de la région émettant les raies interdites, on trouvera que cette région a une petite masse et un petit volume. C’est ce qui se passe. La région émettant les raies permises a une dimension cent fois plus petite (quelques années-lumière) que celle qui émet les raies interdites, son volume est par conséquent un million de fois plus petit et sa densité un million de fois plus grande. Et du coup, le gaz a beaucoup plus de mal à s’échapper dans la région qui émet les raies permises. Un objet de masse relativement faible suffit donc à le retenir, à le « confiner gravitationnellement ». Alors comment expliquer le désaccord entre les auteurs ? Où était l’erreur ? En fait, comme Curtis dans le « Grand Débat », Woltjer se trompait dans son analyse, mais non dans ses conclusions. Ses arguments étaient mauvais, mais on ne pouvait pas le savoir à cette époque. Et les Burbidge et Prendergast avaient également raison. Lo Woltjer était à l’époque un brillant jeune astronome8 . Curieusement – si je me réfère à mon propre parcours – il avait commencé par étudier le Soleil, un domaine particulièrement développé en Hollande, puis la nébuleuse du Crabe, avant de s’intéresser aux galaxies de Seyfert. Dans cette étude, il commettait plusieurs fautes bien excusables le conduisant à surestimer la masse de gaz et son argument sur la trop grande quantité de gaz éjecté n’était donc pas valable. Margaret et Gef Burbidge étaient des astronomes déjà chevronnés et très connus et l’on ne pouvait les suspecter 8 Par la suite, il fut pendant de nombreuses années directeur de l’Observatoire européen austral (l’ESO) et impulsa en particulier la construction du Very Large Telescope (le VLT).

Regain d’intérêt pour des galaxies oubliées

d’erreurs d’observation (Margaret Burbidge fut la première et pendant longtemps la seule femme Astronomer Royal du Royaume-Uni ; je reparlerai d’elle plus loin). Leur analyse était fouillée et ils avaient envisagé plusieurs causes d’erreur. Ils avaient également examiné la possibilité d’une toute petite région contenant une très grande quantité d’étoiles, mais ils ne pouvaient aller trop loin dans cette direction sans être en désaccord avec leurs observations. Leur résultat ne pouvait être mis en doute en ce qui concernait NGC 1068. Malheureusement, NGC 1068 est une galaxie de Seyfert très particulière et ils ne le savaient pas : ce qu’ils avaient trouvé pour cette galaxie ne s’appliquait pas à d’autres galaxies de Seyfert. Nous mettons ici le doigt sur un problème récurrent en astrophysique, qui a conduit à de nombreuses idées fausses. C’est que l’on observe le plus aisément les objets les plus brillants. Or s’ils sont plus brillants que les autres, c’est que, souvent, ils ne leur sont pas complètement identiques. On fait alors de ces objets une profusion d’observations et l’on élabore des théories autour d’eux. Ils deviennent les représentants d’une classe dont ils sont en fait marginaux. NGC 1068 et NGC 4151 ont été ainsi pendant longtemps les archétypes des galaxies de Seyfert, or chacun a des particularités qui le distinguent de l’ensemble des autres galaxies. Il en est de même pour le quasar 3C 273. C’est même certainement une cause majeure du retard qu’ont pris les théoriciens à comprendre le fonctionnement de ces objets. Si j’ai insisté lourdement sur les conclusions de ces deux articles c’est qu’elles furent à mon avis à l’origine d’une confusion profonde dans les esprits et initièrent un long débat qui dura plus de vingt ans. Pour schématiser la situation, disons qu’il y eut plus tard les partisans des « explosions », qui pensaient comme les Burbidge que le phénomène fondamental dans les noyaux de galaxies et les quasars était l’éjection de gaz et de particules relativistes. Comme ce phénomène était difficilement explicable, il pouvait éventuellement avoir des causes étranges, non prévues par les lois classiques de la physique. Et il y eut ceux qui pensaient qu’il devait exister une autre explication dont les éjections ne représentaient que les épiphénomènes, incluant par exemple la présence d’un corps très massif. Dans la lignée de l’article des Burbidge et Prendergast, parut en 1963 dans Reviews of Modern Physics un gros article des Burbidge et de Sandage [14]. Les quasars venaient à peine d’être découverts et ils n’étaient certainement pas connus des

119

120

Des quasars aux trous noirs

auteurs lors de l’envoi de leur article à l’impression. L’article s’intitulait « Evidence for the Occurrence of Violent Events in the Nuclei of Galaxies » (« évidence pour la présence d’évènements violents dans les noyaux des galaxies »). Il mettait en parallèle les galaxies de Seyfert et les radiogalaxies, suggérant que dans les deux cas, il se produisait fréquemment dans le noyau central de gigantesques « explosions », éjectant gaz et particules « relativistes » hors de la galaxie dans le milieu extragalactique. Il était très intéressant de rapprocher les deux types d’objets, dont on sait maintenant que sous des aspects différents ils participent exactement de la même physique. Mais à l’inverse, il était faux de penser que le phénomène commun fût constitué par des explosions. Ces idées seront amplement discutées au cours des années suivantes (Encadré 4.4). Si l’article avait été publié seulement quelques semaines plus tard, c’est-à-dire après la découverte des quasars, les auteurs auraient pu l’appliquer aux quasars sans en changer une virgule. Les quasars n’attendaient donc plus que d’être découverts et pourtant, lorsqu’ils le furent, l’étonnement fut général. . .

Encadré 4.4. Les auteurs discutaient divers scénarios. Ils éliminaient l’hypothèse d’une énergie produite par la collision de deux galaxies, arguant que seul Cygnus A et, éventuellement, l’une des galaxies de Seyfert, NGC 1275, semblaient être des galaxies doubles en collision. Ils rejetaient l’hypothèse avancée à propos des radiogalaxies en 1962 par un astronome soviétique connu, Shklovskii, que leur noyau très massif pouvait attirer la matière d’une autre galaxie car « il est difficile d’expliquer comment un processus de chute de la matière peut conduire à un événement violent qui semble émaner du centre ». Nous allons voir pourtant que, bien plus tard, un scénario très proche sera reconnu comme le meilleur, mais il fallait pour cela disposer de simulations numériques qui n’étaient pas envisageables à l’époque. Ils mentionnaient les premières discussions concernant la possibilité d’étoiles supermassives qui pourraient s’effondrer en créant des sortes de gigantesques supernovae. Il me semble (mais ce n’est pas très clair dans leur article, car rien n’était clair encore à l’époque) qu’ils privilégiaient la possibilité d’un amas d’un milliard d’étoiles très compact au centre du noyau, pouvant subir une évolution particulière avec des explosions de supernovae en chaîne et des collisions d’étoiles donnant également lieu à des explosions.

Regain d’intérêt pour des galaxies oubliées

Comment on observait dans les années soixante. . . et avant On en était là, en 1965, lorsque je commençais à étudier les galaxies de Seyfert. Malheureusement pour moi, les choses commencèrent à s’accélérer justement à cette époque. Deux articles concernant les galaxies de Seyfert parurent dans le courant de l’année 1965 : l’un de Dibai et Pronik9 , dans une revue russe [27] qui ne me parvint que l’année suivante lorsque ma thèse était déjà bien engagée ; l’autre dans la revue américaine Astrophysical Journal de deux astrophysiciens américains, Donald Osterbrock et Robert Parker [72]. Osterbrock était déjà très connu pour ses études sur la matière interstellaire. Il fut pendant longtemps directeur de l’Observatoire de Lick et devint le grand spécialiste des galaxies de Seyfert auxquelles il consacra pratiquement toute sa vie. Il vient de disparaître à plus de quatre-vingts ans, après avoir continué à être actif et à publier presque jusqu’à ses derniers jours. Les deux articles portaient sur l’étude de NGC 1068 que les auteurs avaient réobservé soigneusement. Celui de Dibai et Pronik était en russe et n’apportait pas de nouveaux résultats importants. Heureusement, le langage scientifique est très pauvre et les équations parlent d’elles-mêmes. J’avais d’ailleurs quelques notions de russe. Après leur premier article sur NGC 1068, Dibai et Pronik en publièrent un second beaucoup plus complet en 1967 dans Astronomischeskii Journal portant sur les six galaxies de Seyfert qu’ils avaient réobservées et dont ils analysaient les résultats [28]. Il parut en anglais en 1968, après que j’aie soutenu et publié en partie ma thèse. En effet, le lancement du premier Spoutnik en 1957 avait violemment secoué les scientifiques américains : ils avaient brutalement réalisé que, sur le plan spatial au moins, les soviétiques les avaient largement devancés. Ils décidèrent donc de traduire et de publier en anglais les principales revues scientifiques. Ainsi la revue la plus importante d’astronomie, Astronomischeskii Journal, était traduite en anglais sous le nom de Soviet Astronomy, revue qui paraissait environ un an après l’original russe, c’est à dire environ deux ans après la soumission de l’article. Les scientifiques soviétiques purent donc faire connaître leurs résultats souvent remarquables, ce qui n’était 9 J’ai découvert par la suite qu’il y avait deux époux Pronik, mais comme ils travaillaient sur des sujets très proches, je n’avais jamais fait la distinction ! En l’occurrence, il s’agissait de Monsieur Pronik.

121

122

Des quasars aux trous noirs

pas le cas des Français à cette époque car ils publiaient encore systématiquement dans la langue de Molière. En 1965, je me demandais comment j’allais faire pour observer les galaxies de Seyfert, car je n’avais pratiquement jamais mis l’œil derrière un télescope. Quelqu’un me suggéra de m’adresser à Yvette Andrillat, travaillant à l’université de Montpellier. Elle observait fréquemment à l’Observatoire de Haute-Provence (l’OHP) et étudiait surtout les nébuleuses planétaires et les novae mais, dès l’annonce de la découverte des quasars, elle avait pris des spectres de 3C 273. Convaincue de l’intérêt de ce sujet, elle accepta immédiatement de s’investir dans l’étude des galaxies de Seyfert et de m’apprendre à les observer, puis à « dépouiller » mes observations (on dit maintenant « réduire »). Je ne saurai jamais lui exprimer assez ma reconnaissance pour cela ainsi que pour la disponibilité qu’elle a toujours manifestée lorsque je faisais appel à elle. Dans les années soixante, il n’était pas du tout facile de réaliser en France la spectrographie des noyaux des galaxies de Seyfert car ce sont des astres faibles (le plus brillant, celui de NGC 1068, est de douzième magnitude), et a fortiori de quasars, encore plus faibles. Par ailleurs, nous avions besoin de spectres s’étendant depuis l’ultraviolet proche jusqu’à l’infrarouge proche, afin de pouvoir comparer de nombreuses raies spectrales entre elles et en déduire les informations que nous voulions. Il fallait donc disposer de spectrographes peu dispersifs10 montés sur un grand télescope. Or, il n’y avait en France que le télescope de 1,20 mètres de l’Observatoire de Haute-Provence (le « 120 de l’OHP » comme on disait, Figure 4.10) qui possédait de tels spectrographes ; et il était vraiment petit pour des observations d’objets faibles. À titre de comparaison, les Soviétiques observaient à cette époque les quasars et noyaux des galaxies de Seyfert sur le télescope de 2,60 mètres de l’Observatoire de Crimée et les Américains sur le télescope de 5 mètres du Palomar, ce qui signifie qu’ils captaient respectivement quatre et seize fois plus de lumière que nous. On peut se demander pourquoi la France ne disposait pas de spectrographe adapté à ces observations. Comme je l’ai expliqué dans le premier chapitre, la France avait une grande tradition d’observations stellaires. Or les étoiles sont des objets proches, donc brillants, et les spectrographes utilisés pour les 10 La lumière est très « dispersée » lorsque le spectre est étalé sur un grand domaine de longueur. Plus il est étalé, moins il y a de lumière par unité de longueur du spectre, donc plus il faut observer des objets brillants.

Regain d’intérêt pour des galaxies oubliées

observer avaient une grande dispersion permettant de distinguer des raies très faibles et de faire des études fines. Un seul spectrographe permettait d’observer des objets peu brillants sur le télescope de 2 mètres de l’OHP, car il était couplé avec la caméra électronique que j’ai déjà mentionnée ; c’était une sorte de multiplicateur de photons très complexe inventé par Lallemand. Malheureusement, le spectre était tellement dispersé qu’on ne pouvait l’obtenir que dans un domaine de longueur d’onde très réduit. Ce manque de spectrographe adapté aux objets faibles a constitué un gros handicap pour les études des quasars et des noyaux de galaxies en France jusqu’au début des années quatre-vingts, expliquant le retard que nous avons pris dans ce domaine11 . 11

Les premières observations précises de quasars effectuées par des Français l’ont été à l’ESO en 1978, lorsqu’un spectrographe muni d’une caméra à « comptage de photons » fabriquée par un astronome anglais, Alex Boksenberg, a été implanté sur le télescope de 3,60 mètres. Et ce n’est qu’à la fin des années quatre-vingts que ces observations sont devenues courantes sur le télescope franco-canadien de Hawaï ainsi que sur le télescope de 2 mètres de l’OHP, avec des spectrographes munis de détecteurs performants.

123

Figure 4.10. À gauche, le télescope de 1,20 mètres, à l’Observatoire de Paris en au xixe siècle, et à droite son avatar actuellement à l’Observatoire de Haute-Provence. On peut deviner la position inconfortable qu’il est parfois nécessaire d’adopter pour observer. . .

124

Des quasars aux trous noirs

Le télescope de 120 cm avait été construit pour l’Observatoire de Paris où il avait été installé en 1872. À l’époque, c’était l’un des plus grands du monde. Puis il avait été transporté à l’OHP où il était rentré en service en 1943. C’est dire qu’il n’était plus tout jeune en 1965, bien qu’il ait été modernisé. En particulier le miroir – très mauvais jusque là – avait été refait par André Couder, l’un des meilleurs opticiens au monde. Le télescope était muni d’un foyer « Newton »12 et les spectrographes étaient donc montés sur le côté du télescope. L’inconvénient d’une telle monture est que les instruments suivent le déplacement du télescope. Pour maintenir l’image au centre de la fente, il fallait donc se placer derrière le spectrographe qui pouvait prendre diverses positions, et il arrivait que l’on fût obligé de rester pendant plusieurs heures en porteà-faux au bout d’une échelle, ou au contraire presque allongé sur le sol. Aussi, nous allions être amenés à travailler en hiver, saison où de nombreuses galaxies sont observables. Les nuits sont longues, ce qui nous permettrait des poses longues, mais elles sont aussi très froides. Au cours de l’une de nos missions, en mars 1965, la température tomba à environ moins vingt degrés centigrades et le télescope se bloqua complètement pendant plusieurs jours. Heureusement pour nous d’ailleurs, car nous aurions été gelés sur place si nous avions continué à observer. Je dois dire que lorsqu’il faisait ainsi très froid la beauté du firmament et « le silence des espaces infinis » nous laissaient assez indifférents et que le meilleur moment de la nuit était l’incursion que nous faisions dans la « Maison Jean Perrin »13 pour nous réchauffer et prendre un repas substantiel en bavardant avec les collègues observant sur d’autres télescopes. Ces difficultés n’étaient cependant rien en comparaison de celles des pionniers de l’observation en haute montagne. Au Pic du Midi par exemple, dans les années cinquante, ils devaient monter à dos d’homme, jusqu’à 2 870 mètres d’altitude, leurs instruments et leurs objets de survie lorsqu’ils se rendaient en mission et le trajet prenait dix à douze heures. Les difficultés ne faisaient pas peur à Yvette Andrillat. Elle m’a raconté qu’en 1947, pendant un été caniculaire qui a été comparé à celui de 2003, elle avait observé pendant trois mois d’affilée sans une seule mauvaise nuit. Elle utilisait le télescope de 120 cm depuis presque vingt ans et elle le connaissait 12 Dans les télescopes de Newton, les rayons lumineux sont réfléchis par un miroir principal et renvoyés sur le côté du tube par un petit miroir plan incliné à 45◦ . 13

Du nom du fondateur du CNRS, puisque l’OHP était un institut propre du CNRS.

Regain d’intérêt pour des galaxies oubliées

comme sa poche. Elle pensait que nous pouvions obtenir les spectres de quatre noyaux de galaxies sur les six de Seyfert, moyennant des poses extrêmement longues et par conséquent très délicates. Il fallait maintenir l’image de l’astre observé exactement à la même position sur la fente du spectrographe pendant toute la durée de la pose, et celle-ci atteignit trois nuits pour l’une des galaxies ! Il fallait donc repositionner en permanence le télescope, au prix d’un suivi de chaque instant. Un technicien de nuit nous aidait, mais Yvette Andrillat préférait souvent accomplir cette tâche elle-même. Les poses devaient d’ailleurs souvent être interrompues pour prendre des étoiles de comparaison et pour remettre en place le « secteur » qui permettait d’orienter le télescope. Nous observâmes donc pendant plusieurs années les galaxies de Seyfert, à raison d’environ deux missions de quinze jours par an. Lorsque je passais ma thèse en 1968, nous avions déjà un matériel d’observation important pour trois d’entre elles, NGC 1068, NGC 3516 et NGC 4151. S’y ajouta plus tard NGC 4051. Ces quatre galaxies étaient en fait chacune le prototype d’une espèce différente, ainsi qu’on le comprit plus tard. Elles ont donc été réobservées des centaines de fois depuis. Je me rendais après chaque observation à Montpellier, où se trouvait le laboratoire d’Yvette Andrillat et où j’apprenais les bases du métier. La plaque photographique sur laquelle avait été pris le spectre d’une galaxie de Seyfert ou d’une étoile était passée dans un « densitomètre » mesurant le noircissement en chaque point en convertissant la lumière en courant électrique. Cet instrument est encore utilisé dans de nombreux domaines, par exemple en biologie pour mesurer des concentrations bactériennes dans des suspensions. Mais il ne l’est plus depuis belle lurette en astronomie. On enregistrait le noircissement dans la direction de la dispersion du spectre, pour différents points de la fente : le noyau de la galaxie évidemment, mais également des points extérieurs au noyau qui permettraient plus tard de soustraire la contribution de la galaxie. Le densitomètre fournissait la courbe correspondant à ce noircissement sur une longue feuille de papier millimétré mesurant parfois une dizaine de mètres (Figure 4.11). Sur cette feuille, on commençait, à l’aide d’une règle millimétrée, par « calibrer le spectre en longueur d’onde » grâce à un spectre de comparaison obtenu par exemple avec une lampe au néon dont les longueurs d’onde sont connues avec une grande précision. Ensuite, avec une règle millimétrée mais cette fois logarithmique, on mesurait la hauteur de la courbe traduisant le noircissement en chaque point et on la

125

126

Des quasars aux trous noirs

Figure 4.11. Enregistrement du spectre d’une étoile passé au densitomètre.

Figure 4.12. Mon planimètre.

convertissait en intensité par un long processus de corrections, celle de la réponse de la plaque photographique, la soustraction du ciel et finalement la comparaison à des étoiles bien étalonnées. Pour déterminer les intensités des raies spectrales, il fallait mesurer la surface entre le tracé de la raie et celui du continu sous-jacent. On se servait pour cela d’un planimètre. Cet instrument astucieux inventé au xixe siècle par l’ingénieur Bryon était et est encore sous une forme modernisée utilisé pour mesurer de manière précise la surface d’une figure même très irrégulière et compliquée, tracée sur une surface plane. Dans sa forme la plus simple, il consiste en deux bras connectés par un pivot. Le bout d’un bras se termine par une aiguille verticale avec laquelle on suit la courbe dont on veut déterminer la surface intérieure. Le planimètre que j’utilisais était pratiquement identique à celui de Bryon (Figure 4.12). Comme je détestais « perdre du temps » en répétant les mêmes opérations mécaniques, une amélioration fut introduite à ma demande. Il existait à l’IAP et à Montpellier des « machines à mesurer » permettant, si l’on suivait point par point une courbe avec un pointeur, d’en « digitaliser » les coordonnées, c’est-à-dire de les transformer en chiffres. J’écrivis alors un petit programme permettant de faire ces calculs à l’ordinateur, évitant en particulier d’avoir à planimétrer des courbes. Il fut plus tard considérablement amélioré par la « chef du bureau de calculs » de l’IAP, Madame Hernandez dont j’ai déjà parlé, et la plupart des chercheurs se convertirent à la méthode dans les années suivantes.

Regain d’intérêt pour des galaxies oubliées

Tout cela doit paraître incroyablement archaïque, alors que l’on peut obtenir maintenant les spectres réduits presque immédiatement après leur observation et les visualiser sur l’écran de son ordinateur. À l’époque, ce processus prenait plusieurs semaines. Et de fait je crois que nous travaillions dans les années soixante presque exactement comme on le faisait au début du xxe siècle. Il était cependant nécessaire de regarder en détail les résultats et parfois de refaire à la main certains dépouillements car rien n’était simple et réductible à un travail purement mécanique. Il fallait bien connaître les conditions d’observation et les spectrographes utilisés, avoir une bonne compréhension de la nature des objets observés (par exemple ne pas confondre des raies en absorption avec des raies en émission, ce qui arrive parfois, ou ne pas chercher désespérément à identifier des raies d’éléments très ionisés dans un milieu froid). Tout ceci est encore vrai de nos jours. Aucun instrument, aussi sophistiqué soit-il, ne remplace la réflexion. L’expérience de l’astronome et son intervention sont toujours nécessaires à un moment ou un autre. Il en est qui négligent cet aspect, subjugués par les possibilités extraordinaires des instruments actuels. C’est pourquoi des résultats bizarres – quand ils ne sont pas révolutionnaires – apparaissent parfois dans la littérature. Ce travail m’a appris à relativiser certaines conclusions fondées sur des observations dont les incertitudes sont quelquefois plus grandes que leurs auteurs ne le croient. Le même principe doit être naturellement appliqué aux travaux théoriques et en particulier aux résultats des énormes simulations numériques effectuées à l’heure actuelle. En ce qui concerne le reste du programme, apprendre à observer, ce fut une autre histoire. J’ai honte de l’avouer surtout si des astronomes amateurs me lisent, eux qui doivent considérer que nous sommes des privilégiés car nous pouvons observer avec de très grands télescopes, je suis toujours restée une piètre observatrice. Après ma thèse, je décidai d’ailleurs d’abandonner ce travail auquel j’étais totalement inapte. Je n’ai observé ensuite que très épisodiquement, à l’Observatoire du Pic du Midi, pour essayer de tester le spectrographe « Astragal » destiné à l’observation des quasars, et une autre fois au 3,60 mètres de Hawaï pour assister à une observation très particulière concernant les galaxies de Seyfert. J’ai en effet deux handicaps majeurs. Le premier est une mauvaise vue, avec l’absence de vision binoculaire et l’impossibilité de corriger le « flou » qui en découle, d’autre part un énorme temps d’adaptation à la vision nocturne. À une époque où

127

128

Des quasars aux trous noirs

l’on réglait la position d’une étoile à l’œil, après avoir regardé longuement une « carte du ciel » bien éclairée, c’était rédhibitoire. Mon deuxième handicap est en un sens moins grave, mais tout de même bien ennuyeux. C’est que je suis une « lève-tôt », dormant peu et surtout incapable de décaler mon sommeil en moins de deux ou trois semaines. Je me couchais à sept ou huit heures du matin et j’étais réveillée à neuf, malgré les somnifères auxquels je devenais immédiatement accro. Au bout de quinze jours à ce régime (car les missions étaient longues), j’étais sur les genoux et incapable d’additionner deux plus deux. Une autre astronome, Nina Morguleff, qui avait le même problème, me racontait que les missions étaient de véritables supplices pour elle. Elle a continué à observer plusieurs fois par an malgré tout. C’est d’ailleurs à elle et à Barbier qu’il est arrivé une aventure amusante montrant qu’il faut toujours se défier des résultats des observations lorsqu’ils sont un peu étranges. Nina Morguleff et Daniel Barbier découvrirent un jour dans les spectres d’étoiles au demeurant ordinaires une raie intense du potassium. Ce résultat extraordinaire fut publié dans l’Astrophysical Journal. Des astronomes américains cherchèrent intensivement cette raie dans de nombreuses étoiles mais ne la retrouvèrent jamais ; ils en déduisirent qu’elle était certainement produite par les allumettes suédoises dont Barbier et Nina se servaient pour allumer leurs cigarettes, car ils fumaient tous deux comme des sapeurs y compris sous la coupole du télescope. C’était un bon point à la fois pour les allumettes et pour la qualité des spectres. . .

De la difficulté de faire passer certains messages Nous publiâmes un certain nombre d’articles dans les Comptes rendus de l’Académie des sciences (les « CRAS ») concernant nos résultats d’observation. Ensuite, je me penchais sur le problème de l’interprétation qui allait constituer l’essentiel de ma thèse et dont je vins à bout en deux ou trois mois : c’est que le terrain était prêt, les années « perdues » au début de ma carrière de chercheur m’ayant peut-être préparée à celle de « trouveur ». L’ambiance électrique de ce début d’année 1968 était aussi particulièrement favorable à la créativité. Je passais donc ma thèse en 1968. Osterbrock accepta d’en être rapporteur. Elle apparut sous forme de trois articles dans les Annales d’Astrophysique [97] et dans la toute nouvelle revue européenne Astronomy and Astrophysics [98]. Malheureusement,

Regain d’intérêt pour des galaxies oubliées

ne réalisant pas l’importance de l’enjeu (comme la plupart de mes collègues à l’époque), je les publiai en français ! Je mentionnerai ici un petit exemple pour montrer que la vie privée peut rejaillir sur la vie professionnelle. Osterbrock vint passer en 1971 une année « sabbatique »14 en Angleterre. J’en profitais pour l’inviter à donner un séminaire à l’IAP car, à cette époque, les Américains ne se déplaçaient pas fréquemment en Europe (d’ailleurs lui-même n’était pas un grand voyageur). Il vint donc passer trois jours à Paris. Mais lorsqu’il arriva, je traversais une période bouleversée dans ma vie personnelle, et en conséquence je ne l’invitais pas à déjeuner ni ne l’accompagnais dans une visite touristique de Paris et de l’Observatoire comme on le fait ordinairement dans ces cas. J’appris à mon grand étonnement bien plus tard qu’il m’en avait beaucoup voulu. . . En ce qui concernait les conditions régnant dans le gaz, je parvenais à peu près aux mêmes conclusions que Dibai et Pronik la même année : ces noyaux de galaxies devaient contenir deux systèmes différents de gaz, l’un dense et de petite dimension émettant les raies larges permises, l’autre plus dilué et plus étendu émettant les raies interdites. J’en déterminais les températures, les pressions et les masses. La masse du système dilué était beaucoup plus élevée que celle du système dense, qui se réduisait à quelques masses solaires. Il est assez incroyable, lorsqu’on y songe, que les raies larges dans les spectres des galaxies de Seyfert (et dans les quasars également) proviennent d’une masse aussi minuscule, totalement négligeable en comparaison avec celle du noyau (un milliard de masses solaires, je le rappelle), et que pourtant c’est l’étude de ces raies qui a permis de comprendre une grande partie des phénomènes en jeu dans ces objets. On pouvait aussi déduire de ces résultats que le gaz dense était retenu par une énorme masse centrale, c’est-àdire « confiné gravitationnellement » comme le prônait Woltjer, tandis que le gaz plus dilué pouvait s’échapper de la galaxie comme le proposaient les Burbidge, ce qui réconciliait les deux interprétations. L’idée de la séparation en deux systèmes n’a été prise en compte que quatre ans plus tard dans un article de trois Américains où j’en ai été créditée [92], et elle n’a jamais été remise en cause depuis. De ce moment, on a parlé de la « BLR » et 14 C’est-à-dire une année pendant laquelle un chercheur continue a être payé par son institution d’origine, mais il est déchargé de ses tâches annexes comme l’enseignement, à condition de passer cette année dans un laboratoire étranger. Cette institution a surtout un sens pour les enseignants.

129

130

Des quasars aux trous noirs

de la « NLR », pour Broad Line Region (région des raies larges) et Narrow Line Region (région des raies étroites), sans que mon nom n’ait plus jamais été mentionné d’ailleurs (il faut dire que j’en avais changé). Notons que les Russes n’ont même pas été cités à ce propos. Je m’étais attaquée également à un autre problème dans ma thèse. J’ai parlé jusqu’à maintenant seulement des raies de l’oxygène deux fois ionisé**. Mais on observait également du néon quatre fois ionisé, du fer cinq et six fois ionisé. Quelle était la cause de ce véritable déshabillage des atomes ? Osterbrock et Parker avaient proposé qu’il fût dû à des flots de particules très rapides traversant le gaz et arrachant les électrons des atomes, en même temps qu’ils les mettaient en mouvement et leur donnaient des vitesses semblables aux leurs. C’est comme si on lançait violemment une boule de billard sur d’autres boules au repos. En même temps qu’elle les met en mouvement, elle en arrache des morceaux. Mais en fait, le choc ne met pas en mouvement les autres boules d’une façon ordonnée, il les projette dans tous les sens. La même chose devait se produire pour les particules : les particules rapides devaient mettre en mouvement celles au repos d’une façon « aléatoire », c’est-à-dire conduire à un échauffement du gaz – puisque la température n’est rien d’autre que la moyenne des vitesses aléatoires des particules. Je montrai que ce processus aurait dû immanquablement conduire à des températures de l’ordre de plusieurs millions de degrés alors que la température déterminée à partir des raies spectrales était de l’ordre de quelques dizaines de milliers de degrés tout au plus. L’ionisation des atomes devait donc être due à un autre processus. Elle était probablement créée par le rayonnement ultraviolet, pour peu que celui-ci soit aussi intense qu’on pouvait le supposer d’après une simple extrapolation du domaine visible15 . Deux astronomes américains, Weyman et Williams, parvenaient aux mêmes conclusions à peu près au même moment et l’avenir montra qu’elles étaient justes. 15 Le rayonnement ultraviolet « lointain » n’est en effet pas observable directement au dessous de 912 angströms, sauf pour des étoiles très proches, car il est absorbé par la « matière interstellaire » de notre Galaxie. Cette absorption est due aux atomes d’hydrogène qui sont ionisés (on dit « photoionisés ») par les photons de longueur d’onde inférieure à 912 angströms. Inversement, le rayonnement ultraviolet lointain des quasars de grand décalage peut être observé car il est reporté dans le domaine ultraviolet proche et dans le domaine visible où il ne subit pas l’absorption interstellaire.

Regain d’intérêt pour des galaxies oubliées

131

Figure 4.13. Comparaison de l’enregistrement du spectre de NGC 3516 obtenu en 1943 par Seyfert et en 1967 par Yvette Andrillat et moi-même. La correction de la réponse de la plaque photographique a été effectuée. L’aspect différent des deux raies de [OIII] est simplement dû à la différence de résolution spectrale alors que celui de la raie Hβ traduit une véritable variation.

Enfin, ma thèse contenait un dernier point important. Mais pour le faire admettre, il me fallut plus de cinq ans et une bataille homérique avec le rapporteur d’un de nos articles. Yvette Andrillat avait remarqué que le spectre que nous obtenions pour NGC 3516 était très différent de celui que Seyfert avait publié en 1943 dans la région de la raie Hβ de la série de Balmer de l’hydrogène. Chez ce dernier, la raie était très large et intense. Or chez nous, elle était faible (Figure 4.13). Il pouvait y avoir plusieurs causes à cette différence. La première était la réponse de la plaque photographique qui n’était pas du même type chez nous que chez Seyfert. Mais un tel effet est en principe pris en compte au cours de la réduction des données grâce à des comparaisons avec des étoiles dont le flux est étalonné en fonction de la longueur d’onde. Nous avions effectué le travail de réduction avec le plus grand soin et on pouvait évidemment supposer que c’était aussi le cas de Seyfert. Le désaccord pouvait aussi tenir à un déplacement de l’image de objet sur la fente du spectrographe ou à une mauvaise prise en compte de la réfraction atmosphérique qui varie beaucoup au cours de la nuit. C’était justement la galaxie sur laquelle nous avions posé pendant trois nuits.

132

Des quasars aux trous noirs

Mais aucune explication ne nous paraissait pouvoir rendre compte de cette énorme variation. Pour nous, elle était bien réelle. De plus, j’avais des raisons théoriques pour y croire (Encadré 4.5).

Encadré 4.5. J’ai dit que les quasars montraient des variations d’éclat au cours du temps, dans des durées de l’ordre de quelques semaines. Ces variations ne semblaient affecter que le « rayonnement continu »** et non les raies spectrales. On découvrit rapidement qu’il en allait de même pour les noyaux des galaxies de Seyfert : leur éclat augmentait ou diminuait d’une façon apparemment erratique. J’avais montré que c’était le rayonnement ultraviolet qui « excitait » le gaz émettant les raies spectrales. Plus précisément, on a vu que les raies comme celles de l’hydrogène se produisent par fluorescence lorsqu’un photon de grande énergie (ultraviolet) arrache un électron à l’atome et que cet électron est ensuite capturé et dégringole « de marche en marche » sur les niveaux quantifiés de l’atome. Alors si le flux de photons ultraviolets variait au cours du temps, on devait s’attendre à une variation semblable des raies de l’hydrogène : elles devaient suivre les variations de brillance de l’objet. Comme je pensais que les raies permises provenaient d’une toute petite région de dimension inférieure à quelques années-lumière, la variation de l’excitation devait être perceptible et se traduire par des variations des intensités des raies sur une échelle de temps de quelques années ou moins.

Le grand astronome anglais Eddington, peut-être le meilleur du siècle dernier (en tout cas le bruit courait qu’il se considérait comme tel. . . ), a dit un jour par boutade : « Ne croyez jamais une observation qui n’est pas démontrée par la théorie », alors que le bon sens serait de ne croire à une théorie que si elle est démontrée par une observation. Il voulait sans doute avec ce bon mot aller à contre courant du positivisme ambiant qui conduisait à ne croire que ce que l’on voyait de façon évidente. Il y a cependant du vrai dans cet aphorisme qui pourrait être corrigé en « Ne croyez jamais une observation qui est absolument contraire à une théorie simple et bien établie, mais vous pouvez la croire si elle est en accord avec la théorie ». Je croyais dur comme fer à nos variations car elles étaient en

Regain d’intérêt pour des galaxies oubliées

parfait accord avec mon modèle à deux composantes, dont la plus dense devait avoir une dimension inférieure à quelques années-lumière et devait répondre aux variations d’éclat (bien admises, celles-là). Yvette Andrillat et moi avons publié ce résultat en 1968, en anglais cette fois, dans une revue, Astrophysical Letters, qui périclita malheureusement assez rapidement [3]. Cet article a été peu cité, mais j’ai tout de même eu le plaisir de constater qu’il l’est actuellement, presque quarante ans après sa publication. Et nous l’annonçâmes également dans le premier congrès sur les « galaxies de Seyfert et objets reliés » qui se tint en février 1968, à Tucson, en Arizona. L’assistance de ce congrès était composée essentiellement d’Américains et d’Anglais ; à l’époque ils étaient pratiquement seuls à travailler sur les quasars et les galaxies de Seyfert. J’y présentai mon modèle à deux systèmes et mes spéculations sur l’ionisation. Ce seul point fut souligné dans les deux « concluding remarks », faites par Woltjer et par Osterbrock qui l’acceptèrent d’emblée mais aucun ne mentionna ni la variabilité des raies de NGC 3516, ni les deux systèmes de raies, auxquelles personne ne crut. C’est pourquoi Woltjer, se déjugeant lui-même par rapport à ses conclusions de 1959, conclut que « si les raies de Balmer indiquent effectivement des mouvements de matière, alors il est évident que ce gaz ne peut être confiné dans le noyau ». Ce congrès avait été pour moi une expérience éprouvante. Ce n’était pas le premier où je me rendais, mais c’était le premier où je prenais la parole et, qui plus est, pour y exposer des idées nouvelles et peu orthodoxes, dans un anglais approximatif. Je savais que je serai peu convaincante devant cet auditoire presque exclusivement masculin et américain. J’y étais heureusement accompagnée par quelques autres Français, Yvette Andrillat, Évry Schatzman qui proposait un modèle composé de matière et d’antimatière (malheureusement il s’avéra plus tard non-viable), et Jacqueline Bergeron, une jeune chercheuse récemment recrutée au CEA qui faisait une thèse concernant l’impact des quasars sur l’espace intergalactique. Elle passa une grande partie de sa vie à l’étranger et prit de nombreuses responsabilités (dont secrétaire générale de l’UAI et directeur scientifique de l’ESO ; elle a été également responsable de nombreux comités d’experts internationaux). J’ai eu de nombreuses collaborations avec elle dans les années soixante-dix. Elle fut à l’origine de la découverte des galaxies sur la ligne de visée des quasars (voir chapitre 5).

133

134

Des quasars aux trous noirs

Anticipant sur la suite des évènements, je peux dire que nous nous sommes accrochées à notre idée de variation des raies envers et contre tous. Yvette Andrillat continua sans répit à observer NGC 3516 dans les années qui suivirent, puis Danielle Alloin, qui fut ma première étudiante en thèse, put l’observer en 1970 photo-électriquement au télescope de 2,50 mètres de l’université d’Arizona où elle effectuait un séjour16 . Les nouvelles observations montraient sans ambiguïté que la raie Hβ était effectivement variable, cette fois sur une échelle de temps de l’ordre de l’année. Nous écrivîmes derechef un article pour annoncer des variations, non plus par rapport à celles de Seyfert mais par rapport à nos propres observations antérieures [22]. Nous nous sommes battues presque un an avant que cet article soit accepté. J’ai eu un échange épistolaire vigoureux avec le rapporteur de l’article (j’ignorais naturellement son nom) dans lequel j’osais lui écrire que si la même observation était annoncée par un astronome – homme et américain – et non par trois Françaises, il ne l’aurait jamais mise en doute. Mais je dois reconnaître que ses critiques ont contribué à améliorer l’article et à le rendre plus convaincant. . . Il est rapidement devenu clair que les variations des raies dans les galaxies de Seyfert étaient un phénomène très courant et, bientôt, une campagne d’observations fut entreprise au niveau mondial pour suivre ces variations. Plusieurs télescopes y furent consacrés à temps partiel et certains furent braqués à temps plein sur les galaxies de Seyfert. Cette campagne dure maintenant depuis plus de 25 ans. Elle a permis entre autres de déterminer dans une quarantaine de noyaux de galaxies de Seyfert et de quasars la masse de « l’objet compact central » dont la nature ne fut élucidée que dans les années quatre-vingts. Si j’ai insisté si longuement sur ces points, ce n’est pas pour montrer que j’ai fait des découvertes sensationnelles, mais combien il est difficile de faire passer des idées nouvelles lorsqu’on n’a ni une bonne maîtrise de l’anglais, ni un nom déjà connu et une reconnaissance acquise dans un domaine. 16 Les observations photo-électriques utilisent la propriété d’extraction des électrons par les photons, permettant par conséquent de transformer le rayonnement en un courant électrique. Elles se développaient rapidement à cette époque aux États-Unis où elles étaient utilisées pour mesurer le spectre continu des étoiles et des galaxies. Leur avantage sur la simple photographie est qu’elles sont beaucoup plus sensibles et surtout qu’il s’agit d’une mesure absolue, ne nécessitant pas de faire des corrections de réponse de plaque. On ne pouvait donc plus nous objecter qu’il s’agissait d’un problème de réponse de la plaque photo.

Regain d’intérêt pour des galaxies oubliées

Ce qui est également irritant, c’est qu’une fois une idée acceptée, son promoteur – s’il est peu connu – est généralement oublié malgré le mal qu’il a eu à l’imposer. Brusquement dans les années suivantes, des dizaines d’articles sur les galaxies de Seyfert virent le jour, chacun y allant de son observation ou de sa théorie. Cela compensait le désintérêt dont elles avaient été l’objet pendant plus de vingt ans. J’aurais de beaucoup préféré travailler sur un sujet moins « chaud », mais il était trop tard et il fallait suivre le mouvement. Une observation considérée comme révolutionnaire à l’époque, qui nous apparaîtrait presque comme dérisoire maintenant avec l’avènement des techniques « d’optique adaptative* » permettant de s’affranchir de la turbulence atmosphérique et avec la mise en service du télescope spatial Hubble, fut celle du noyau de la galaxie de Seyfert NGC 4151 : il fut alors avéré que sa dimension était inférieure à 0,2 seconde d’arc. Cette découverte avait demandé un effort considérable puisqu’elle avait nécessité l’envoi d’un télescope d’un mètre de diamètre à trente kilomètres de hauteur dans un ballon stratosphérique. Une équipe d’astronomes de Princeton avait réalisé cet exploit. Ils annoncèrent que l’essentiel du rayonnement provenait d’une région plus petite que trente années-lumière. Ce n’était qu’une confirmation de ce que l’on déduisait déjà des variations d’éclat mais, en même temps, une grande première technologique. Ils attribuaient comme tout le monde cette émission au rayonnement synchrotron. Cette idée était bien implantée à l’époque où l’on pensait que la couleur très bleue des noyaux des galaxies de Seyfert était due à ce processus. C’était faux mais l’idée perdura presque vingt ans et elle créa beaucoup de confusion. L’une des découvertes importantes réalisées au cours des trois années précédentes était la suivante. On se rappelle peutêtre la « raie verte » du fer auquel treize électrons avaient été arrachés, que j’ai mentionnée au début du chapitre à propos de la couronne solaire. Eh bien cette raie était présente également dans le spectre des noyaux des galaxies de Seyfert. C’était une nouvelle différence avec les nébuleuses planétaires. On crut qu’elle traduisait la présence d’un gaz chaud à des millions de degrés comme dans la couronne solaire. On se trompait : c’était la signature d’un puissant rayonnement X mais on ne pouvait le soupçonner à cette époque. On avait également découvert que certains de ces objets avaient une luminosité plus grande dans l’infrarouge que dans le domaine visible. On pensa alors que la majeure partie de

135

136

Des quasars aux trous noirs

leur émission se produisait dans l’infrarouge alors que l’on sait maintenant qu’elle est dans l’ultraviolet et l’X, ce qui est fondamental pour la compréhension des mécanismes en jeu. De plus, l’origine de ce rayonnement était mystérieuse. S’agissaitil de rayonnement synchrotron comme le rayonnement radio ? Ou du rayonnement d’un cocon de poussières chaudes ? Et pourquoi dans une telle proportion ? Bref, il régnait alors une confusion totale concernant les mécanismes de rayonnement.

Grandeur et décadence de la science soviétique Les Soviétiques avaient été les grands absents au congrès de Tucson. Comme je l’ai dit, ils avaient pourtant fait des contributions importantes dans le domaine. Mais ils ne pouvaient sortir de leur pays (Encadré 4.6).

Encadré 4.6. Les Russes ont toujours eu une tradition de physique de très haut niveau et l’ont encore dans certains domaines. Dans celui qui nous intéresse ici, on pourrait citer plusieurs grands théoriciens comme Zeldovich, Novikov, Sunyaev et Shklovskii, travaillant dans le domaine des hautes énergies, de la relativité et de la cosmologie. Une autre branche de l’astronomie dans laquelle ils excellaient était le transfert du rayonnement : Sobolev, Ivanov, Ambartsumian et d’autres ont laissé leur empreinte dans le sujet. Cette prééminence s’est prolongée jusqu’à la fin du régime soviétique qui a protégé certains de ses scientifiques, par exemple au point de maintenir en survie pendant plusieurs années le grand physicien Landau en état de mort clinique après un grave accident de voiture juste après avoir obtenu le prix Nobel. Il est vrai que la série de livres qu’il avait publiés dans les années cinquante (souvent en collaboration avec Lifschitz) est une véritable somme des connaissances de physique de l’époque ; elle a été la référence pour une génération de chercheurs, comme le cours du grand physicien américain Feynman le fut plus tard pour les étudiants en physique. Les scientifiques ayant des positions en vue vivaient donc sur un assez grand pied. En revanche, d’autres refusèrent la loi du silence et furent moins bien traités. On connaît évidemment le cas de Sakharov. Plusieurs astro-

Regain d’intérêt pour des galaxies oubliées

physiciens furent également brimés, pour ne pas dire plus, dont Shklovskii, peut-être le plus génial de tous, qui souffrit non seulement de persécution due à ses idées et à son caractère querelleur mais également de l’antisémitisme. On se demande comment ces scientifiques arrivaient malgré tout à écrire des articles de tout premier plan dans des conditions terribles. Nous ne connaissions généralement les chercheurs soviétiques que par leurs écrits. Et souvent, nous ne les avons découverts en personne qu’après la chute du régime qui a également sonné l’hallali de la science soviétique, car ils se sont alors expatriés en masse essentiellement vers les États-Unis. Ceux qui sont restés vivent des situations très difficiles. J’ai collaboré avec plusieurs d’entre eux. En général, ils exercent un autre métier en plus de leur recherche pour compléter les quelques cent dollars que gagne actuellement par mois un professeur d’université, ou ils trouvent des contrats leur permettant de passer un mois ou deux chaque année à l’étranger. Ce qui leur reste alors de la bourse leur permet de subsister le reste de l’année dans les pays de l’ex-Union soviétique (il faut dire qu’en général leur nourriture, du moins en France, se limite aux repas de midi de la cantine de leur laboratoire). Donc, à moins d’un changement très rapide de la situation, on peut prédire un effondrement complet de cette science naguère si brillante. . . Un astronome soviétique dont j’entendis le nom pendant le congrès de Tucson pour la première fois et qui n’était naturellement pas présent, était l’arménien Markarian. Son nom est resté attaché à des galaxies parmi les plus étranges de l’Univers et il a été mentionné des milliers de fois. Il est en effet l’auteur d’un catalogue de galaxies appelées « galaxies de Markarian ». La plupart d’entre elles se sont avérées être des « galaxies de Seyfert » au sens de la compacité du noyau, des raies larges et de la couleur. Mais elles sont parmi les plus lumineuses et elles sont encore aujourd’hui des sources d’étonnement et de découvertes permanentes. Par exemple plusieurs d’entre elles ont été détectées au cours de ces dernières années dans la bande d’énergie la plus élevée jamais explorée, le « téra-électron-volt »17 . Une autre de ces galaxies 17 Un tel photon a une énergie égale à mille milliards de fois celle d’un photon visible, et un million de fois celle des photons émis lors des réactions thermonucléaires.

137

138

Des quasars aux trous noirs

est la source infrarouge la plus lumineuse de l’Univers local. Une autre encore qui n’est pas une galaxie de Seyfert était jusqu’à il y a peu la galaxie contenant le moins d’éléments « lourds » – le carbone, l’oxygène et l’azote – de tout l’Univers (elle avait été également découverte par Zwicky, l’astronome américano-suisse dont j’ai déjà parlé). L’idée de constituer ce catalogue revient à Victor Ambartsumian, alors directeur de l’Observatoire de Buyrakan en Arménie. Il jouissait d’un prestige immense, ayant été pendant presque toute sa vie scientifique président de l’Académie des sciences d’Arménie. Il faisait donc partie de la nomenklatura soviétique et disposait d’un pouvoir presque absolu sur ses chercheurs. Il pouvait impulser toutes les recherches qu’il désirait et favoriser les chercheurs qu’il estimait (Encadré 4.7).

Encadré 4.7.

Figure 4.14. Un télescope de Schmidt. Un tel télescope a un miroir de grande courbure, ce qui lui permet d’avoir un très grand champ, et il possède une lame correctrice qui supprime l’aberration sphérique due à cette courbure. Il est donc très compact. On l’utilise pour faire de grands relevés du ciel.

Ambartsumian avait fait construire dès le début des années soixante, un télescope de Schmidt d’un diamètre de 1,30 mètres, l’un des plus grands instruments au monde de ce type, qui permit de réaliser les grands relevés dont il rêvait (Figure 4.14). Un peu plus tard, il fit construire un télescope de 2,60 mètres, l’un des plus grands d’Europe de l’époque. Il y fit adjoindre de bons instruments focaux comme un spectrographe de faible dispersion muni de récepteurs photoélectriques (qu’on appelait « tubes image » et qui ressemblaient à notre caméra électronique). Les Arméniens disposaient ainsi d’un excellent matériel adapté aux études des galaxies, bien meilleur que le nôtre en tout cas. Ses idées conduisirent Ambartsumian à faire réaliser à partir de 1965 le relevé (comme on dit en Anglais, le survey) de galaxies compactes présentant un excès de rayonnement ultraviolet dont j’ai parlé plus haut. Ces deux critères – compacité, ultraviolet – lui semblaient fondamentaux pour la détection des régions où la matière était générée dans l’Univers. Il eut la chance de trouver un observateur remarquable en la personne de Beniamin Markarian. D’une grande modestie, travailleur acharné, Markarian commença par participer lui-même au montage du télescope de Schmidt, puis il eut l’idée d’y adjoindre un prisme à faible dispersion permettant d’obtenir un petit spectre de chaque source dans le champ. C’était alors une technique largement utilisée pour obtenir les « vitesses radiales » des étoiles dans la Galaxie (c’est-à-dire projetées sur la ligne

Regain d’intérêt pour des galaxies oubliées

de visée) en France en particulier. Mais dans ce cas, elle servit à déterminer la couleur des objets et la présence de raies en émission, en même temps naturellement que leur taille était visible directement sur la plaque photo. Cette technique permettait donc à Markarian de sélectionner les objets à excès d’ultraviolet les plus compacts et de voir s’ils présentaient des raies en émission. Markarian poursuivit ce relevé jusqu’à sa mort en 1985 et il découvrit ainsi environ un millier de galaxies de Seyfert. Le télescope de 2,50 mètres lui permit plus tard d’étudier de façon précise les spectres de ces galaxies. L’œuvre de Markarian a été fondamentale dans le domaine que nous traitons ici.

Je visitai l’Observatoire de Buyrakan en 1973, car à l’époque je n’étais pas loin d’accepter les vues scientifiques d’Ambartsumian pour qui j’avais beaucoup d’admiration à cause de ses travaux sur le rayonnement. Il vivait dans l’opulence, sa table offrant caviar et fruits délicieux, alors que les autres membres de l’Observatoire vivaient pratiquement dans le dénuement. Pourtant, la plupart l’adoraient presque à l’égal d’un dieu. Ils avaient une foi complète en ses vues et par conséquent ils étaient extraordinairement motivés et accomplissaient des prouesses remarquables en dépit de leurs conditions très rudes d’existence. Car non seulement Markarian a laissé son nom à des galaxies, mais il y eut également Arakelian, Shakbazian, et plusieurs autres astronomes arméniens qui s’expatrièrent et devinrent assez connus. Il était très bien vu dans l’ex-Union soviétique d’avoir des idées « non-conventionnelles » concernant la science, en réfutation à une science bourgeoise et rétrograde. On l’a vu avec l’exemple célèbre de Lyssenko en biologie. Ambartsumian avait des idées non-conventionnelles concernant l’Univers, en particulier les galaxies et il désirait les vérifier, ce qui est louable. Il pensait que la matière était créée par des sortes d’explosions dans des régions très denses et qu’il s’y produisait des phénomènes déterminant l’évolution de structures beaucoup plus grandes. Cette conception s’avéra fausse et pourtant elle fut à l’origine de découvertes foisonnantes. Comme je l’ai déjà souligné en effet, il est moins important dans une recherche, et d’ailleurs rare, que le pronostic initial se révèle exact. Il est beaucoup plus important qu’il existe une volonté forte avec un but précis et que le travail soit effectué par des chercheurs excellents et motivés.

139

140

Des quasars aux trous noirs

Ambartsumian avait constaté que les étoiles jeunes étaient souvent membres de groupes en expansion et il en déduisait qu’elles se formaient à partir d’une explosion initiale, par exemple celle d’une supernova. Étendant cette idée aux noyaux des galaxies, il suggéra que la matière jaillissait au centre des galaxies comme d’une source, ce qui allait d’ailleurs dans le sens de l’Univers stationnaire de Hoyle. Beaucoup plus tard, en 1980, il écrivait encore dans la prestigieuse Annual Review of Astronomy and Astrophysics : « Tandis que toutes les formes d’activité dans les noyaux de galaxies plaident directement en faveur d’une explosion et d’un processus d’expansion, beaucoup de théoriciens en sont encore à construire des modèles de noyaux dans lesquels les processus d’éjection sont précédés par l’effondrement d’une grande quantité de matière diffuse. Selon ces modèles, les éjections sont seulement la conséquence d’un processus plus fondamental d’effondrement. Il n’est pas nécessaire de dire que je suis très sceptique devant un mode de pensée aussi spéculatif, car n’y a pas la moindre évidence de tels évènements. Il semble qu’une telle approche soit le résidu de la vieille notion selon laquelle les processus d’évolution dans l’Univers vont toujours dans la direction de la contraction et de la condensation ». Je pense que la dernière phrase était une allusion à la théorie de Laplace sur la formation du Système solaire. On avait pourtant, en 1980, de bonnes raisons de penser que, dans le cas des noyaux de galaxies comme dans celui des étoiles, « les processus d’évolution allaient dans la direction de la contraction et de la condensation » et, en tout cas, c’est une certitude maintenant. Les idées d’Ambartsumian n’étaient cependant pas complètement injustifiées car on n’avait – et on n’a maintenant encore – aucune preuve directe de la chute de la matière vers l’intérieur ! Longtemps, il a donc plané un doute conduisant de très bons scientifiques à adopter ces vues. Les seules manifestations indubitables observées ont toujours été des éjections : jet et présence de particules relativistes dans les radiogalaxies, puis plus tard découverte de « vents » chassés par les quasars et les noyaux actifs de galaxies, etc. Probablement influencés par leur étude de la galaxie NGC 1068 qui les avaient persuadés de la prédominance de mouvements d’éjection, les Burbidge privilégiaient également le phénomène d’explosion. Cela conduisit Gef Burbidge et l’astronome américain Halton Arp (auteur d’un catalogue de galaxies particulières) à militer toute leur vie pour l’existence de « décalages anormaux » et à prôner que les quasars sont éjectés par les noyaux des galaxies de Seyfert.

Regain d’intérêt pour des galaxies oubliées

L’ennui avec les explosions est qu’il n’existe pas la moindre justification physique d’un tel phénomène. Pour les supernovae, on sait que c’est l’effondrement du cœur central d’une étoile vidée de son combustible nucléaire qui provoque par réaction l’expansion violente des couches superficielles, récupérant « l’énergie gravitationnelle » de l’étoile. Mais on n’avait aucun modèle identique à l’échelle des noyaux de galaxies et des radiogalaxies. C’était bien là qu’était le mode de pensée purement spéculatif et sans fondement physique que dénonçait Ambartsumian. Il fallait donc faire intervenir une « physique non-conventionnelle » faisant appel à des lois encore non découvertes. C’était un véritable acte de foi qui entraîna dans les années soixante-dix un énorme débat sur lequel je reviendrai longuement. On pense maintenant que les mouvements sont, pour l’essentiel, bel et bien dirigés vers l’intérieur et correspondent à « l’accrétion » de gaz et non pas à son éjection. Si nous ne les voyons pas, c’est que la matière ne « tombe » pas directement vers le centre en quelques années, mais s’y rend en plusieurs milliers d’années en décrivant des spirales. Avant de terminer ce chapitre et de retrouver les quasars que nous avons abandonnés en 1964, je voudrais revenir sur le congrès de Tucson, sorte de point d’orgue dans ces recherches. Il faut d’abord remarquer que son titre mentionnait les « objets reliés » aux galaxies de Seyfert. Les objets en question étaient les radiogalaxies et les quasars, que désormais l’on associa toujours aux galaxies de Seyfert18 . La majeure partie du congrès se passa en descriptions assez fastidieuses des particularités des spectres, de la variation, de la couleur et de la morphologie des galaxies de Seyfert et des radiogalaxies. On cherchait visiblement un principe unificateur et l’on n’en trouvait pas, sauf la taille très petite du noyau et les raies en émission. Mais là aussi, on piétinait car même les galaxies de Seyfert originelles présentaient des différences assez grandes de ce point de vue. Et, comme toujours lorsqu’on ne dispose pas de critères de choix, on se noyait dans les détails. Ce fut le début d’une longue période où furent accumulées des milliers d’observations, souvent sans but précis, 18 Concernant les radiogalaxies, il s’était produit curieusement une sorte de marche arrière et on ne les considérait comme apparentées aux Seyfert que si elles étaient compactes. La découverte des quasars faisait en effet pencher la balance en faveur de cette caractéristique plutôt qu’en faveur de l’énorme quantité d’énergie stockée sous forme de particules relativistes et de champ magnétique. Car on avait découvert pendant ces années-là que la plupart des quasars ne rayonnaient pas dans le domaine des ondes radio. Mais c’était une erreur que de négliger les autres radiogalaxies.

141

142

Des quasars aux trous noirs

car on ne disposait d’aucun fil conducteur ni d’aucune théorie valable. Il manquait des chaînons essentiels, ceux qui seraient apportés plus tard par les missions spatiales et l’observation des rayons ultraviolets et X, et surtout d’une théorie explicative et unificatrice. On proposait en fait divers modèles théoriques. Je reviendrai sur le sujet dans le chapitre suivant car ils avaient pour objectif d’expliquer non seulement les galaxies de Seyfert mais également les quasars. Un aperçu de la situation est donné dans les Concluding Remarks de Woltjer à Tucson : « La situation théorique concernant la source de l’énergie et sa conversion en modes non-thermiques variés19 est encore extrêmement confuse. Il semble que des objets très massifs ne peuvent pas vivre assez longtemps. Nous avons entendu à ce symposium discuter de la coalescence, des fragments en collision, de l’accrétion. . . Tout cela est encore très obscur. Mais on peut espérer que grâce à la relative proximité des galaxies de Seyfert, on aura des indications précises à mesure que le matériel observationnel s’accumulera. De tels indices pourront être vitaux pour la compréhension des quasars, étant données les nombreuses similitudes entre les Seyfert et ces derniers. » Deux articles assez courts publiés dès 1964 auraient cependant pu donner la solution de l’énigme mais ils étaient passés complètement inaperçus. C’était naturel car ils se fondaient dans le bruit ambiant et rien ne permettait de les distinguer des autres spéculations qui avaient cours à l’époque. Ce qui est intéressant pourtant c’est que chacun avait été écrit sans avoir connaissance de l’autre par deux des meilleurs astronomes de leur génération, l’américain Salpeter[81] et le russe Zeldovich [107]. Nous y reviendrons évidemment. Le congrès de Tucson prouva donc qu’il est impossible, malgré un luxe d’observations, d’expliquer un phénomène tant qu’il manque les observations essentielles (en l’occurrence les observations spatiales). Non, l’imagination ne peut être seule au pouvoir ! Nous avons déjà fait la même remarque à propos du Grand Débat et des modèles d’Univers d’Einstein et de Friedmann-Lemaître, de l’évolution des galaxies et de la bataille du Big Bang. Il est pourtant indispensable de continuer à avancer des théories et des interprétations et à faire des observations, car c’est seulement de leur confrontation permanente que finit par jaillir la lumière, un jour. 19 C’est-à-dire en particules relativistes, en rayonnement synchrotron. On n’envisageait pas à l’époque la possibilité de transformation en « rayonnement thermique », comme celui d’un gaz chaud. Et pourtant, c’est précisément le cas.

Chapitre 5

La déferlante des « quasars » et la controverse des « décalages anormaux » Nous avons abandonné ceux que l’on n’appelait pas encore les « quasars » en 1964, à une époque où l’on en avait identifié seulement quatre dont les célèbres 3C 48 et 3C 273. On savait déjà que c’étaient des sources extrêmement éloignées et puissantes. Il fallait absolument en trouver d’autres. Dès 1963, avait été publiée une liste d’objets situés près des radiosources du catalogue 3C de Cambridge. Matthews et Sandage avaient découvert que l’un d’entre eux, 3C 286, présentait, outre l’aspect d’une étoile, la propriété d’être très bleu et même « ultraviolet » comme les deux objets précédents (c’est-à-dire rayonnant beaucoup entre 3 000 et 4 000 angströms, dans ce que l’on nomme usuellement les « UVA »). Cet « excès d’ultraviolet » attira l’attention de Sandage qui décida d’utiliser cette propriété pour identifier de nouvelles radiosources. Avec le télescope du Mont Wilson, il prit sur la même plaque deux photos de plusieurs objets d’aspect stellaire, proches de radiosources, l’une avec un filtre bleu, l’autre avec un filtre ultraviolet, le télescope ayant été déplacé légèrement entre les deux poses. Il obtenait donc deux images. Celles des étoiles normales étaient à peu près identiques, alors que les objets ultraviolets avaient une image ultraviolette plus intense et l’on pouvait les distinguer immédiatement des autres. Cette méthode permit d’identifier plusieurs nouvelles « QuasiStellar Radio-Sources », comme on les appelait encore.

144

Des quasars aux trous noirs

Ils étaient donc ultraviolets (ce n’est pas le cas pour les objets de très grand décalage) ce qui allait désormais permettre d’identifier facilement les radiosources. Mais l’histoire ne s’arrêta heureusement pas là car sans cela nous en serions restés pendant longtemps à quelques centaines d’objets seulement. Sandage découvrit en effet par accident sur les photos dont il se servait pour ses identifications ce qu’il nomma des « interlopers » ou « intrus », sortes d’étoiles très bleues qui n’étaient pas associées à des radiosources. Elles étaient en dehors du plan galactique (celui de la Voie lactée), là où l’on ne s’attend par conséquent pas à trouver beaucoup d’étoiles. Sandage décida d’en prendre des spectres pour élucider leur nature. La plupart étaient de vieilles étoiles bleues du halo* de la Galaxie ayant quitté la séquence principale (voir l’encadre 2.1). Elles sont en dehors du plan galactique car le halo est pratiquement sphérique. Mais plus du tiers avaient un grand décalage spectral. Sandage avait donc découvert une façon nouvelle et puissante de détecter de nouveaux quasars, qui ne s’appelaient pas encore ainsi. Il entreprit une recherche systématique avec Philippe Véron et tous deux en découvrirent rapidement plusieurs dizaines. À la surprise générale, une grande partie ne rayonnaient pas en radio. On commença alors à les appeler « Quasi-Stellar Objects », ou QSOs, (« objets quasi stellaires ») pour signifier qu’ils semblaient être des étoiles sur les plaques photographiques mais que ce n’était pas nécessairement des radiosources. Puis on décida de contracter leur dénomination en « quasars ». Ce mot a pris depuis des relents de mystère et d’exotisme. Si on le cherche sur Internet, on découvre qu’il a été donné à des logiciels, à des agences de publicité, à des compagnies diverses et même à des systèmes philosophiques. La méthode d’identification de Sandage était d’autant plus intéressante que les vraies étoiles étaient plus brillantes que les quasars et qu’au-dessus de la quinzième magnitude (c’està-dire les objets moins brillants) pratiquement tous les objets détectés étaient des quasars. Sandage considéra donc qu’on allait en découvrir à la pelle (ce qui est exact) et il annonça, avec un peu d’exagération peut-être, « la découverte d’un nouveau constituant majeur de l’Univers » [82]. Une autre méthode d’identification des quasars fut également bientôt utilisée. Elle était basée sur leurs variations rapides au cours du temps. Il suffisait de prendre des photos d’un même champ à plusieurs semaines ou plusieurs mois d’intervalle, puis de comparer les deux photos à l’aide d’un appareil permettant de les visualiser rapidement l’une après

La déferlante des « quasars » et la controverse des « décalages anormaux »

l’autre. Les astres variables semblaient alors scintiller ; on isolait ceux d’entre eux qui étaient très bleus, puis on en prenait des spectres pour confirmer l’identification par la mesure du décalage. À partir de ce moment, il est difficile, voire impossible, de mentionner les résultats en ordre chronologique car ils se bousculèrent trop rapidement. Souvent la découverte était connue des spécialistes bien avant d’être publiée puisqu’un article mettait à cette époque plusieurs mois, parfois un an, à paraître dans un journal comme l’Astrophysical Journal.

Serait-ce des étoiles « supermassives » ? La relativité commence à pointer son nez Au cours de l’été 1965 je me rendis avec plusieurs collègues à une « école d’été », la « Scuola Internationale di Fisica Enrico Fermi »1 , qui s’intitulait cette année « Astrofisica della Alte Energie » (« astrophysique des hautes énergies ») et portait sur les quasars. Elle se tenait à Varenna, sur le lac de Côme en Italie. C’est un lieu idyllique, avec son lac tiède où nous plongions entre les cours, et avec ses soleils couchants parfumés par les lauriers roses. Aussi, je me souviens de cette école comme d’une parenthèse presque magique. D’autant que nous eûmes droit entre autres à des cours de Sandage, de Margaret et Gef Burbidge, de Fowler, que j’ai déjà mentionnés, ainsi que de Denis Sciama, un physicien anglais2 qui nous parla des aspects cosmologiques des quasars, et d’un tout jeune « relativiste », Kip Thorne, qui nous introduisit dans le monde étrange des astres où la relativité générale joue un rôle prépondérant. J’y entendis pour la première fois parler de trou noir (que l’on n’appelait pas encore de ce nom) et du destin qui serait le nôtre si nous venions à tomber dedans : chute très rapide pour nous-mêmes mais qui prendrait un temps infini pour quelqu’un nous observant de l’extérieur. Écartelés par la force de gravitation, nous deviendrions infiniment minces. Je trouvais tout cela très amusant mais académique et spéculatif ; et je n’aurais pas parié grand chose sur la réalité de tels objets. 1 Du nom du physicien italien Fermi qui s’est illustré par ses travaux sur la radioactivité artificielle, la fission et les neutrons. 2

Il eut plusieurs étudiants célèbres, comme Martin Rees, dont on reparlera souvent dans ce livre, et Stephen Hawking.

145

146

Des quasars aux trous noirs

Je ne prêtais pas non plus une grande attention au cours de Giacconi (futur prix Nobel, comme Fowler) sur quelques aspects de l’astronomie des rayons X. Ce domaine en était à ses tout débuts, avec des observations en fusées et en ballons emportant des télescopes à rayons X. Les expériences en ballons étaient intéressantes car elles duraient une dizaine d’heures, mais les ballons ne pouvaient pas monter au-dessus de quarante kilomètres. À une telle altitude, seul parvient du ciel le rayonnement X d’énergie supérieure à vingt kilo électrons-volts ou keV, c’est-à-dire de longueur d’onde inférieure à un angström. Tandis que les fusées étaient capables d’atteindre des altitudes de cent kilomètres où pouvait parvenir le rayonnement X moins énergétique, de longueur d’onde supérieure à dix angströms. On récoltait donc beaucoup plus d’informations. Mais les observations en fusées duraient seulement quelques minutes, ce qui ne donnait accès qu’à des objets très brillants. De plus, les charges utiles étaient récupérées en parachute pour être réutilisées ensuite et elles subissaient souvent des dégâts importants nécessitant une complète remise en état. Une poignée de sources avaient été détectées et deux d’entre elles avaient pu être identifiées, l’une avec la nébuleuse du Crabe, l’autre avec le centre de la Voie lactée. Je pense que peu nombreux étaient ceux qui prévoyaient alors l’apport extraordinaire de l’astronomie X à l’étude des quasars et des noyaux actifs de galaxies qui en sont maintenant les cibles privilégiées. Burbidge nous avait bien donné un cours sur différents mécanismes d’émission dans les domaines X et gamma mais, là encore, leur application n’allait pas de soi, surtout pour les quasars sans émission radio. Les « écoles d’été » comme celles de Varenna (qui se tiennent en fait maintenant à tous les moments de l’année) ont pour but de donner à de jeunes « thésitifs », ou à des chercheurs confirmés désirant se recycler, les bases d’un sujet en même temps que ses tout derniers développements. Elles sont extrêmement formatrices car les enseignants prennent le temps d’expliquer en détail les phénomènes – ce qui n’est pas le cas des congrès où les exposés doivent être le plus concis possible et les discussions très rapides. Les cours sont dispensés par des spécialistes du domaine. Plus tard, lorsque j’ai été moi-même un chercheur confirmé, j’ai enseigné dans de telles écoles et j’ai toujours suivi les cours des autres enseignants avec grand intérêt. Ces écoles ont également pour but de faire cohabiter, pendant un temps suffisamment long et dans un cadre agréable, une cinquantaine de chercheurs qui ont ainsi

La déferlante des « quasars » et la controverse des « décalages anormaux »

amplement le temps de discuter entre eux. Elles sont souvent à l’origine de collaborations fructueuses, d’amitiés chaleureuses et durables et contribuent profondément à l’internationalisation de la science. Deux grands types de modèles étaient alors à l’honneur pour expliquer les quasars : l’amas très dense d’étoiles et l’étoile supermassive. Dans le premier, il s’agit d’un ensemble de centaines de millions d’étoiles confinées dans un rayon de quelques annéeslumière. Si le Système solaire était plongé dans un tel amas, nous verrions la nuit un milliard d’étoiles au lieu de quelques milliers ! En fait il n’y aurait plus de nuit du tout car, le jour comme la nuit, la clarté serait plus forte qu’elle ne l’est par grand soleil sur terre. Mais ce n’est pas tout. En raison de leurs distances relatives très faibles, les étoiles doivent subir de nombreuses collisions. Or les étoiles de cet amas ne se déplacent pas, comme elles le font dans la Voie lactée, à une vitesse d’une centaine de kilomètres par seconde tout au plus, mais avec des vitesses de plusieurs milliers de kilomètres par seconde, par suite de la gravité intense que l’amas crée luimême**. Il s’ensuit de graves conséquences. Des collisions reçues de front par des étoiles se déplaçant à plusieurs milliers de kilomètres par seconde ont, comme on l’imagine, des effets effroyables. Au cours de l’impact, les étoiles sont complètement disloquées et une grande partie de leur énergie interne est rayonnée. Si nous étions dans cet amas, ce serait comme si nous assistions à l’explosion d’une supernova se produisant tout près de nous. Les effets seraient ceux d’une bombe nucléaire capable d’affecter tout le Système solaire en même temps. Cependant, même un phénomène aussi considérable n’est pas encore suffisant pour expliquer la violence de certains « flashes » observés dans les quasars au cours desquels une énorme puissance est développée pendant quelques jours ou quelques semaines : elle correspond à la collision simultanée d’une centaine d’étoiles ou à l’explosion d’une centaine de supernovae en quelques jours. Il faudrait imaginer que puissent se produire des collisions ou des explosions de supernovae « en chaîne », la première entraînant les suivantes. Donc, non seulement il fallait trouver le mécanisme qui les auraient ainsi liées les unes aux autres mais encore était-il nécessaire d’avoir un amas composé d’un milliard d’étoiles massives prêtes à exploser. C’était improbable. Et de façon générale, ce modèle faisait appel à l’énergie nucléaire produite dans les étoiles et il

147

148

Des quasars aux trous noirs

était apparu rapidement qu’elle était insuffisante pour expliquer les propriétés des quasars. Nous reviendrons plus tard sur les phénomènes survenant dans ces amas denses d’étoiles car nous avons maintenant la preuve qu’ils existent réellement. Ils sont certainement à l’œuvre dans les quasars et les noyaux des galaxies mais ils n’en constituent pas la source d’énergie principale, et ils ne peuvent expliquer à eux seuls les phénomènes remarquables qui s’y produisent. Les « étoiles supermassives » paraissaient donc l’hypothèse la plus prometteuse comme source d’énergie des quasars et elles le restèrent pendant assez longtemps. Plus de la moitié des cours de Varenna leur furent consacrés. Le charisme de ses deux promoteurs, Fowler et Hoyle, y était certainement pour quelque chose (le modèle d’Univers stationnaire de Hoyle n’avait pas encore été battu en brèche par la découverte du rayonnement fossile). Hoyle avait même publié en 1965 un livre sur « Galaxies, Nuclei, and Quasars » où il exposait ses idées (les noyaux dont il est question ici ne sont pas ceux des galaxies mais ceux des atomes). Ce fut à ma connaissance le premier livre sur les quasars. Il y en avait quatre ou cinq autres deux ans plus tard. Il fallait en effet un système très compact pour rendre compte de la petite dimension déduite de la variabilité (encore qu’elle ne fût pas aussi contrainte que maintenant). La forte variabilité impliquait aussi la présence d’un système cohérent. L’idée d’une étoile unique s’imposait alors assez naturellement car elle permettait d’obtenir un grand débit d’énergie dans un petit volume. Mais le rendement de la transformation d’hydrogène en hélium, et d’hélium en éléments plus lourds, est inférieur à un pour cent ; et pour que la puissance d’un quasar puisse se maintenir pendant dix ou cent millions d’années, durée nécessaire pour rendre compte du nombre de quasars observés, il fallait une étoile d’au moins un milliard de masses solaires. Malheureusement, il était très difficile d’envisager l’existence d’une telle étoile. Outre qu’on devait expliquer sa formation, on trouvait qu’elle devait être soumise à des instabilités liées à la relativité générale à des températures bien inférieures à celles de la fusion nucléaire. Il fallait donc un mode de production de l’énergie non nucléaire : ce serait l’énergie gravitationnelle produite grâce aux oscillations de cette étoile. Un exemple simple, pour comprendre d’où vient l’énergie gravitationnelle dans ce cas, est celui des marées sur la Terre. Elles proviennent de changements de la structure des océans,

La déferlante des « quasars » et la controverse des « décalages anormaux »

sous l’effet du champ gravitationnel de la Lune et du Soleil et elles produisent une énergie qui peut être récupérée par une usine « marée-motrice ». Malheureusement, cette énergie est faible sur Terre et on a depuis longtemps abandonné l’espoir de l’utiliser même pour se chauffer. Mais lorsque c’est une étoile tout entière qui oscille, on devine que le résultat est différent : plusieurs pour cent de la masse de l’étoile peuvent être alors transformés en énergie pure. C’est donc un mécanisme plus efficace que les réactions nucléaires et il ne nécessite pas des températures aussi élevées. Une étoile supermassive pouvait donc convenir. Ce modèle était plausible, mais il s’avéra plus tard qu’il n’était pas applicable aux quasars car il ne rendait pas compte d’observations faites ultérieurement : la proportion dominante de rayonnement ultraviolet et de rayons X et la variabilité très rapide dans le domaine X. Il fut donc abandonné peu à peu et je crois que plus personne maintenant ne pense encore à cette idée qui avait pourtant tenu le haut de pavé pendant plus de dix ans. C’est une fois encore l’illustration que théorie sans observation reste spéculation. Il n’est pourtant pas impossible que ce modèle trouve un jour son champ d’application avec la découverte de nouveaux astres étranges qui auraient peut-être des masses plus faibles. L’école de Varenna est restée un moment exceptionnel dans mes souvenirs de jeune chercheur. On était alors dans le plein boom des découvertes spectaculaires et certaines se produisirent en quelque sorte « en direct » : les enseignants y apprenaient en même temps que nous les dernières nouvelles des quasars et ils étaient obligés de modifier en fonction de ces découvertes les cours qu’ils avaient préparés.

Un coup dur pour les « décalages cosmologiques » ? Sciama devait nous parler de cosmologie. Mais il s’intéressait également aux phénomènes radio. Un astronome soviétique, Sholomitsky, avait annoncé en février 1965 avoir observé des variations du rayonnement radio du quasar CTA 102. Mieux encore, ces variations étaient périodiques, avec une périodicité d’environ cent jours. Une telle périodicité ne semblait pas pouvoir être naturelle à l’époque (on en verra pourtant plus tard d’autres exemples bien plus étranges). Et naturellement,

149

150

Des quasars aux trous noirs

plusieurs journaux titrèrent à cette époque sur l’arrivée des « petits hommes verts ». . . Mais sans parler de la périodicité, la rapidité des variations était elle-même inexplicable, à moins de supposer que CTA 102 fût situé dans notre Galaxie ou toute proche d’elle et que son décalage fût dû à une cause inconnue3 . Sciama avait écrit avec son « thésitif » Martin Rees un article sur les variations de CTA 102 où ils démontraient qu’on ne pouvait les expliquer dans le cadre de la physique conventionnelle. Donc, fidèles au précepte de leur maître à penser Eddington de ne « jamais croire une observation contraire à la théorie », ils en déduisaient que les variations ne devaient pas être réelles. Ils avaient tout à fait raison car l’existence des variations fut rapidement démentie par d’autres radioastronomes ayant observé CTA 102 au même moment et qui ne les détectaient pas dans leur données. Une des leçons que l’on peut tirer de cette histoire est qu’il ne faut pas se précipiter sur une observation « extraordinaire » avant qu’elle ne soit vérifiée et en tirer une théorie. C’est pourtant ce que l’on voit fréquemment. . . Mais, pendant que nous étions réunis à Varenna, arriva la nouvelle qu’un jeune astronome anglais, Dent, avait observé une augmentation régulière du rayonnement radio de 3C 273 à 8 000 MHz au cours des deux années précédentes, et cette fois sans erreur possible [25]. Cette découverte était un véritable pavé dans la mare des partisans de la « physique conventionnelle ». En effet, s’il appliquait le raisonnement qu’il avait fait pour CTA 102, Sciama devait logiquement déduire que les observations de 3C 273 étaient également fausses. Or elles avaient été réalisées par un Anglais connu comme étant sérieux et elles lui semblaient par conséquent incontestables (Figure 5.1). Sciama était visiblement taraudé par le problème.

3

CTA 102 avait un spectre en loi de puissance dû à l’effet synchrotron**. Je montre dans l’annexe B que si l’on observe un spectre en loi de puissance sans courbure, on peut affirmer que le rayonnement n’est pas absorbé et en déduire la taille minimum apparente de la source. Elle ne peut pas être plus petite sinon le spectre en serait courbé. Le spectre de CTA 102 n’étant pas courbé, Rees et Sciama avaient montré que sa taille apparente (l’angle sous lequel on le voyait) devait être de moins d’un centième de seconde d’arc. Or, si le décalage de 1,037 de CTA 102 était cosmologique, le quasar était situé à des milliards d’années-lumière et un centième de seconde d’arc correspondait à une dimension réelle (la taille apparente multipliée par la distance) bien plus grande que cent jours-lumière, taille maximum donnée par la variation. Naturellement, si CTA 102 était beaucoup plus proche, sa dimension réelle devenait compatible avec cent jours-lumière.

La déferlante des « quasars » et la controverse des « décalages anormaux »

151

Figure 5.1. Variation de l’intensité de 3C 273 à 8 000 MHz, d’après Dent (1965). Les barres verticales indiquent l’incertitude.

Sciama arriva un jour à son cours en ayant enfin trouvé la solution qu’il nous expliqua immédiatement. Elle était basée sur l’idée que 3C 273 était en fait constituée non pas d’une, mais de deux sources radio. La grande, c’était ce fameux « jet » dont nous avons déjà parlé. L’autre se trouvait à l’intérieur même du quasar, elle était toute petite (son rayon était de moins d’une année-lumière) et c’était elle qui variait. L’avenir confirma de façon éclatante cette interprétation lorsque l’on put obtenir de véritables images radio de ces sources grâce aux grands interféromètres* et elle s’appliqua plus tard à de nombreux autres quasars (Encadré 5.1).

Encadré 5.1. La variation du flux de 3C 273 indique que la taille de la radiosource est inférieure à quelques années-lumière. Le spectre de 3C 273 avait une allure bizarre : il n’était ni en « loi de puissance » comme l’est un bon spectre synchrotron, ni « convexe » comme il aurait dû l’être pour une source auto-absorbée**. Sciama eut donc l’idée que deux sources et non une seule contribuaient au rayonnement radio, ce qui expliquait la forme du spectre (Figure 5.2). Le problème était en fait un peu plus compliqué car on découvrit que le rayonnement radio de 3C 273 variait également pour des fréquences plus faibles que 8 000 MHz et que tout son spectre se déformait rapidement au cours du temps. Les deux sources ne suffisaient plus, et l’explication en fut donnée un peu plus tard.

152

Des quasars aux trous noirs

Figure 5.2. Décomposition du flux de 3C 273 en deux composantes, l’une constante (A), l’autre variable et auto-absorbée (Sciama, 1966).

J’assistai l’année suivante à l’école d’été des Houches, en Savoie ; elle dura deux mois et s’intitulait comme la précédente « astrophysique des hautes énergies ». Cette école avait été fondée au début des années cinquante par Cécile De Witt, une physicienne française ayant émigré aux États-Unis. C’était la première fois que l’école était consacrée à l’astrophysique. Il est intéressant de lire un extrait de la préface de l’ouvrage des trois gros volumes consacrés à l’école des Houches de cette année écrite par Cécile De Witt, James Lequeux, Évry Schatzman et Philippe Véron : « Les astrophysiciens se trouvent aujourd’hui placés devant les mêmes difficultés que leurs collègues des années 1920-1930 qui recherchaient en vain l’origine de l’énergie des étoiles jusqu’à ce que la physique nucléaire leur fournisse enfin la réponse. Ils doivent se tourner, pour expliquer des énergies d’un tout autre ordre de grandeur, vers des spéculations parfois anciennes qui pouvaient leur paraître quelque peu académiques : étoiles très condensées, effondrement gravitationnel en relativité générale. » Ces phrases résument exactement la situation à cette époque. Une partie des phénomènes dont on nous parlait nous paraissait abstraite et presque chimérique et nous ne parvenions pas à imaginer qu’un jour nous aurions les preuves de leur rôle dans les quasars. Les cours étaient plus disparates qu’à Varenna, traduisant probablement une grande incertitude sur les mécanismes en jeu : non seulement on y parlait des observations des quasars et des radiogalaxies, de cosmologie, mais également de transfert du rayonnement avec James Lequeux, de régions HII

La déferlante des « quasars » et la controverse des « décalages anormaux »

avec Philippe Véron, d’accélération des rayons cosmiques et de nucléosynthèse* avec Hubert Reeves. On y retrouvait naturellement un long et superbe cours de Kip Thorne consacré à l’astrophysique relativiste. Il avait progressé par rapport à l’année précédente car il nous parla alors de l’effondrement d’une étoile et il nous décrivit comment, lors de la contraction, les rayons lumineux et les particules sont entraînés vers le centre avec une vitesse de plus en plus grande et disparaissent définitivement à notre vue lorsqu’ils traversent une frontière virtuelle, que l’on nomme l’horizon. Mais cet effondrement ne sera jamais perçu complètement par un observateur extérieur à cause du « gel » du temps dont j’ai parlé plus tôt. En quelques mots, Kip Thorne posait les fondations de la théorie qui servirait à élaborer les modèles de trous noirs tant utilisés plus tard, mais peu d’entre nous le réalisaient à cette époque. Un cours sur les rayons cosmiques aurait dû être donné par le physicien soviétique Ginzburg, mais au dernier moment on apprit qu’il n’était pas autorisé à sortir d’URSS. Il envoya donc son cours rédigé en russe et il fallut le traduire immédiatement pour le distribuer aux participants. Comme de nombreux participants comprenaient le français et que je connaissais un peu le sujet, je m’attelais à sa traduction en français pendant l’école même, avec un jeune collègue francopolonais, Jean-Pierre Lasota, qui parlait à la fois russe et français. James Lequeux accepta de donner le cours à la place de Ginzburg au pied levé, en plus de son propre cours sur les radiosources. Plus tard, il fut traduit en anglais à partir de notre traduction française. Lorsque Ginzburg reçut la version finale de cette traduction à deux étages, il en fut mécontent, y trouvant « des erreurs, des ambiguïtés et des omissions » et. . . la perte de « la couleur personnelle du texte russe ». Il était trop tard pour corriger. Je dois dire que, vu l’énorme travail qu’avaient représenté cette traduction et la préparation presque instantanée du cours, nous n’avons pas été très heureux de sa réaction.

Où la physique conventionnelle semble encore mise à mal mais finit quand même par s’en sortir : la « catastrophe Compton » Un autre problème vint rapidement défier encore les partisans de la « physique conventionnelle ». Il était aussi lié à la très petite taille des quasars. On l’a appelé « le paradoxe de la

153

154

Des quasars aux trous noirs

catastrophe Compton ». Il fut soulevé dans un article publié en 1966 par Hoyle, Burbidge et Sargent dans la revue Nature [45]. Je vais essayer d’expliquer le problème de façon simple. Dans une source radio, nous avons des électrons relativistes et en même temps une certaine quantité de photons de lumière émis par ces mêmes électrons (c’est le rayonnement synchrotron) avant qu’ils ne soient sortis de la source. Si la source est à la fois très compacte et très lumineuse, cela signifie qu’elle contient beaucoup d’électrons relativistes et beaucoup de photons radio. Il y aura donc de fréquentes collisions entre les électrons et les photons. Ces collsions ne sont pas comparables aux chocs de boules de billard que j’ai déjà pris comme comparaison dans le cas de l’ionisation des éléments dans noyaux des galaxies de Seyfert, car les photons sont des particules sans masse se déplaçant toujours à la vitesse de la lumière. À chaque collision, les photons vont acquérir un peu de l’énergie des électrons et vont être transformés par ricochets successifs, en photons visibles, X, puis en photons gamma d’énergie de plus en plus grande. En même temps, les électrons perdront à chaque collision un peu de leur énergie. Si l’on veut faire une analogie avec des boules de billard, disons que les boulesélectrons sont effectivement ralenties par les chocs, tandis que les boules-photons changent de couleur et « bleuissent » au cours de ces mêmes chocs. On nomme ce processus « l’effet Compton Inverse »** et il est un peu détaillé dans l’annexe B. Burbidge, Hoyle et Sargent déduisaient que dans un temps très court, tous les électrons relativistes devaient être devenus des électrons lents et tous les photons radio devaient disparaître pour donner des photons gamma. C’était évidemment contraire aux observations. Une fois de plus, le paradoxe disparaissait si l’on supposait les quasars proches et non pas à leur distance cosmologique car les sources devaient alors être beaucoup moins lumineuses et la densité de photons et d’électrons beaucoup moins grande qu’on ne l’imaginait. C’était vraiment un coup de grâce pour la physique « conventionnelle » (Encadré 5.2).

Encadré 5.2. En voici l’explication : comme pour la variabilité de CTA 102, il s’agit de la différence entre la taille réelle et la taille apparente. On peut calculer grâce à la théorie du rayonnement synchrotron la durée de vie des électrons relativistes avant qu’ils ne « meurent » en perdant toute leur énergie par rayonnement. Comme ces électrons se

La déferlante des « quasars » et la controverse des « décalages anormaux »

155

déplacent avec une vitesse proche de celle de la lumière, on en déduit quel chemin ils peuvent parcourir avant de mourir. Ceci nous donne la taille maximum possible de la source. Par ailleurs, on peut déduire de la fréquence où le spectre synchrotron se courbe la taille apparente de la source (c’est-à-dire l’angle sous lequel on la voit, ainsi qu’il est expliqué dans l’annexe B). La dimension réelle est égale à cette taille apparente multipliée par la distance de la source. On la calcule en supposant que la distance est donnée par la loi de Hubble. On compare alors la taille maximum à cette dimension. Et que trouve-t-on ? Qu’elle est beaucoup plus petite. Une conclusion s’impose alors : la dimension déduite de la taille apparente est fausse parce que la source est beaucoup plus proche. Mais on aurait pu en tirer une autre, c’est que le calcul de la distance parcourue par les électrons était faux et ce sera effectivement fait quelques mois plus tard. . . C’est à Lo Woltjer et Martin Rees que revient le mérite d’avoir trouvé la solution de ce paradoxe dès 1966 et d’avoir donné en même temps une explication aux variations rapides du spectre radio. J’avais rencontré à cette époque à Cambridge Martin Rees encore tout jeune chercheur (il devint « Lord Martin Rees » et fut couvert de prix et d’honneurs) et j’avais eu droit à la primeur de sa théorie au cours d’une promenade au bord de la Cam (Figure 5.3). Lo Woltjer rappela que lors d’une collision « Compton Inverse » entre un électron et un photon, celui-ci est réémis préférentiellement dans la direction du mouvement de l’électron [105], ce qui contribue à amplifier le rayonnement dans notre direction et à nous donner une vision faussée des phénomènes**. Ce phénomène est appelé « aberration relativiste »** (comme on le voit, la signification d’un mot peut être différente en physique et dans le langage commun). Supposons qu’un chasseur veuille tirer sur un oiseau volant juste au-dessus de lui. Étant intelligent (enfin, on peut l’espérer), il va tirer en avant de l’oiseau qui voit le plomb se mouvoir vers lui comme guidé par sa proie sans pouvoir lui échapper, sauf à changer de cap pendant le trajet de la balle. De même, le bruit d’un avion nous paraît provenir d’une direction à l’arrière de l’avion. C’est encore le même phénomène qui se produit lorsque nous roulons en vélo dans la direction de la pluie : les gouttes nous frappent plus fortement et sont plus denses que si nous étions immobiles et a fortiori si nous

Figure 5.3. Un portrait récent de Martin Rees. Il est actuellement président de la Royal Society, l’équivalent de notre Académie des sciences, et il a été nommé Lord de Luddlow par la Reine d’Angleterre, après avoir obtenu plusieurs grands prix scientifiques équivalents au prix Nobel (dont le prix Crawford).

156

Des quasars aux trous noirs

Figure 5.4. Cette figure montre l’intensité du rayonnement émis par un corps au repos et par un corps qui se déplace avec une vitesse proche de celle de la lumière. En c, il a une vitesse égale à 98 % de celle de la lumière. Pour un observateur situé à droite il apparaîtra plus brillant qu’il n’est en réalité, tandis qu’un observateur à gauche ne le verra pas du tout.

nous déplacions dans la direction opposée. La même chose se produit pour les photons émis par un ensemble de particules se rapprochant de nous à très grande vitesse : comme le rayonnement d’une particule relativiste est dirigé préférentiellement dans la direction de son mouvement, elles vont apparaître plus brillantes dans cette direction (Figure 5.4). En soi, l’effet invoqué par Woltjer suffisait déjà à résoudre le paradoxe mais Martin Rees alla plus loin, en proposant que les sources tout entières fussent en expansion à une vitesse relativiste [79]. Cette fois, il ne s’agit donc plus seulement de « particules relativistes » se déplaçant aléatoirement en rayonnant, mais de toute la source qui s’épand avec une vitesse proche de la lumière. Le nombre de collisions entre les particules et les photons est réduit car les particules entraînées par l’expansion « fuient » en quelque sorte devant les photons, réduisant ainsi le nombre de collisions, et le mouvement de la source nous apparait déformé en raison de la dilatation de l’espace décrite par la relativité restreinte**. La lumière précédant de très peu les particules, celles-ci paraissent se déplacer

La déferlante des « quasars » et la controverse des « décalages anormaux »

avec une vitesse supérieure à celle de la lumière et la taille de l’objet est sous-estimée4 . Bien entendu, l’idée sous-jacente au modèle de Martin Rees était que des « bouffées » de particules étaient en quelque sorte soufflées par les quasars avec des vitesses proches de celle de la lumière. Ce n’était pas encore prouvé à l’époque mais c’était une hypothèse crédible car le rayonnement synchrotron impliquait de toute façon l’existence de particules ayant des vitesses très proches de celle de la lumière ; on pouvait donc également imaginer que le flot de particules tout entier s’échappe avec la vitesse de la lumière. C’était cependant une véritable prémonition sur laquelle je n’insisterai pas plus ici, préférant décrire ce phénomène plus loin à propos des sources appelées « superluminiques ». En définitive, la catastrophe Compton pouvait être évitée et la physique conventionnelle s’en sortait encore une fois, en attendant le problème suivant qui n’allait pas tarder à se présenter. . .

Un grand espoir cosmologique déçu Jusqu’à présent, j’ai seulement décrit certains phénomènes spectaculaires exerçant une véritable fascination et suscitant d’interminables discussions. Mais je n’ai pas encore tiré parti du fait que les quasars étaient les objets les plus distants que nous connaissions dans l’Univers. Ils permettaient donc d’effectuer une véritable plongée dans le temps et dans l’espace et d’étudier les propriétés passées de régions qui nous étaient inaccessibles autrement. Les quasars sont très éloignés de nous. La lumière qu’ils émettent doit voyager pendant des milliards d’années avant de nous parvenir et, lorsque nous la recevons enfin, elle nous montre ces quasars non pas tels qu’ils sont maintenant, mais tels qu’ils étaient il y a plusieurs milliards d’années. Ce qui prouve d’ailleurs combien il est difficile de dissocier les notions de temps et d’espace. On conçoit donc pourquoi les quasars ont très vite été considérés comme des outils rêvés pour explorer le passé de l’Univers. 4 C’est pourquoi nous avons l’impression d’une augmentation du volume de la source bien plus rapide qu’elle ne l’est en réalité. La courbure du spectre radio due à l’auto-absorption** se déplace vers les basses fréquences et, de façon générale, tout le spectre se modifie bien plus rapidement qu’il ne le ferait si la vitesse des particules était beaucoup plus faible que celle de la lumière. La taille de la source est donc sous-estimée, ce qui explique les difficultés à interpréter les variations dans l’hypothèse où la distance est cosmologique.

157

158

Des quasars aux trous noirs

Durant les trois années qui suivirent leur découverte, les astronomes se dépensèrent beaucoup pour augmenter l’échantillon de quasars disponible. En 1967, on en connaissait environ cent cinquante dont plusieurs de décalage supérieur à z = 25 . C’était un nombre suffisamment important pour envisager de les utiliser à l’étude de l’Univers. Penzias et Wilson venaient en effet de découvrir le rayonnement fossile et il était maintenant presque certain que l’Univers avait jailli du Big Bang et qu’il évoluait depuis. Était-il en marche pour une expansion éternelle ou au contraire allait-il cesser de croître un jour, les galaxies se rapprochant de nouveau inéluctablement les unes des autres, l’Univers redevenant une boule de feu semblable à celle dont nous avions apparemment émergé ? Nous nous posons encore ces questions aujourd’hui et nous commençons seulement à entrevoir des réponses. Les quasars suscitèrent donc l’espoir de pouvoir déterminer la structure et l’histoire de l’Univers grâce à leurs grandes distances. Pour comprendre tout l’intérêt qu’ils pouvaient présenter, il est nécessaire de se replacer dans le contexte de cette époque où la cosmologie physique sortait à peine des limbes. Songeons qu’en 1965, l’hypothèse de l’Univers stationnaire était encore fréquemment évoquée. Et que l’on était loin de penser que la masse de l’Univers pouvait être entièrement dominée par une matière noire invisible et différente de celle que nous montre notre expérience quotidienne, et sa dynamique par l’énergie créée par le vide lui-même. En revanche, on connaissait la valeur de la constante de Hubble, voisine à cette époque de 75 kilomètres par seconde et par mégaparsec, valeur très proche de celle qui est acceptée à l’heure actuelle (dans l’intervalle, on adopta plutôt la valeur de 50 kilomètres par seconde et par mégaparsec, prônée par Sandage et Tammann). Mais cette constante ne traduisait l’expansion de l’Univers que dans notre proche voisinage. Les quasars étaient situés au delà. Que se passait-il à grande distance ? Car l’Univers a nécessairement une masse qui doit en attirer toutes les parties et en ralentir l’expansion : dans quelle mesure contribue-t-elle à le décélérer ? Et comment influe-telle sur sa géométrie ? On pouvait montrer facilement que si la densité de l’Univers est grande (en fait supérieure à une certaine valeur que l’on appelle « densité critique »), l’Univers 5

Un décalage z supérieur à l’unité ne signifie pas que la vitesse d’éloignement est supérieure à la vitesse de la lumière, mais simplement qu’elle en représente une fraction appréciable et qu’il faut par conséquent utiliser pour la calculer les formules de la relativité restreinte (voir l’annexe B).

La déferlante des « quasars » et la controverse des « décalages anormaux »

sera attiré par sa propre gravité et décéléré, tandis que dans le cas contraire il gardera un mouvement d’expansion infini (Encadré 5.3).

Encadré 5.3. Il est facile de comprendre sans invoquer la relativité générale pourquoi la masse de l’Univers détermine son mouvement. Supposons qu’on envoie un satellite à partir de la Terre. Si sa vitesse initiale est inférieure à la vitesse de libération** de onze kilomètres par seconde, mais supérieure à la vitesse de satellisation** de huit kilomètres par seconde, il parcourra une orbite finie en forme d’ellipse autour de la Terre qui le ramènera périodiquement à son point de départ. Si sa vitesse initiale est supérieure à onze kilomètres par seconde, il parcourra une orbite infinie en branche d’hyperbole qui l’éloignera indéfiniment de la Terre. Pour une vitesse initiale exactement égale à la vitesse de libération, il aura une orbite en forme de parabole, également infinie**. Imaginons maintenant que la Terre soit plus légère tout en gardant le même rayon, c’est-à-dire qu’elle ait une densité plus faible, par exemple en étant constituée essentiellement de carbone et non de fer. La vitesse de libération à la surface de la Terre serait alors plus petite et un satellite lancé à moins de onze kilomètres par seconde pourrait s’échapper. Cette vitesse correspond pour l’Univers à la constante de Hubble. L’analogie avec le satellite nous dit que, pour une valeur fixée de la constante de Hubble (la vitesse du satellite), l’Univers peut être ouvert et « hyperbolique » et continuer infiniment son expansion, ou au contraire être fermé et « elliptique » et retourner à son état initial, selon que sa densité est inférieure ou supérieure à une certaine « densité critique » que les seules lois de la gravitation nous permettent de déterminer**.

La densité critique est incroyablement faible puisqu’il suffit de dix particules par mètre cube entre les galaxies pour fermer l’Univers. Elle est cependant mille fois plus grande que celle déduite des étoiles et des galaxies « visibles ». C’est que l’espace est essentiellement fait de vide, vide interstellaire entre les étoiles et vide intergalactique entre les galaxies. On a pris l’habitude d’appeler oméga (Ω) la densité de l’Univers divisée par cette densité critique.

159

160

Des quasars aux trous noirs

Figure 5.5. Temps de parcours de la lumière (en milliards d’années) depuis qu’elle a été émise par un quasar de décalage z, pour différentes valeurs de la constante de Hubble et de la densité de l’Univers. On suppose la constante cosmologique Λ nulle.

Nous avons vu que la valeur de la constante de Hubble a une influence sur l’âge de l’Univers, mais elle n’est pas la seule : la densité joue aussi un grand rôle pour les raisons que je viens d’expliquer. La figure 5.5 montre des exemples du temps de trajet de la lumière depuis l’époque où elle a été émise par un quasar, en fonction du décalage. On peut observer plusieurs choses sur cette figure. D’abord, un Univers plus dense est plus « ramassé ». La lumière le parcourt donc plus rapidement qu’un Univers presque vide. Mais son âge est également plus petit (c’est pratiquement la valeur du temps de parcours pour z = 10). Ensuite, un Univers avec une constante de Hubble égale à 75 km/sec/Mpc serait clairement trop jeune par rapport à l’âge des plus vieux amas globulaires (de l’ordre de 13 ou 14 milliards d’années)6 . Cette question fut à l’origine de la controverse qui sévit pendant presque trente ans entre les partisans – essentiellement français – d’une constante de Hubble de l’ordre de 75 km/sec/Mpc et l’école anglo-saxonne préférant une constante de 50 km/sec/Mpc. Dans ce cas aussi, l’aspect subjectif a débordé le champ scientifique. Il est maintenant prouvé que H0 est de l’ordre de 70 km/sec/Mpc grâce à l’introduction récente (la réintroduction, en fait) de la constante cosmologique Λ qui accélère l’Univers et lui permet d’avoir un âge 6

Ceci n’est vrai que si la constante cosmologique Λ est nulle.

La déferlante des « quasars » et la controverse des « décalages anormaux »

plus grand tout en conservant la même vitesse locale d’expansion. Avec les valeurs actuelles des constantes cosmologiques (l’Univers étant constitué de 30 % de matière, incluant « la matière noire », et de 70 % « d’énergie noire »7 , on obtient un âge de 14 milliards d’années tout en gardant la valeur observée de la constante de Hubble H0 = 70 km/sec/Mpc. Dans les années soixante, on ignorait tout cela et l’on préférait choisir une constante H0 plus faible pour obtenir un Univers plus âgé. Mais il fallait malgré tout pouvoir déterminer la densité de l’Univers. Qui pouvait être certain, en effet, que la matière se réduisait à ce que l’on voyait dans les galaxies et que l’espace intergalactique ne contenaient pas des étoiles ou du gaz trop chaud ou trop froid pour être détecté (on ne pensait évidemment pas encore à la « matière noire ») ? On ne pouvait pas encore « peser » les galaxies et les amas de galaxies comme on le fait maintenant. Il fallait donc trouver des moyens indirects pour cette mesure. Les quasars pouvaient, espérait-on, fournir de bons tests cosmologiques (Encadré 5.4).

Encadré 5.4. Le raisonnement que nous avons fait montre en effet que si l’on connaît à la fois la valeur de la constante de Hubble et la densité de l’Univers, et que l’on suppose la constante cosmologique Λ nulle, on peut savoir comment il a été décéléré au cours du temps. Réciproquement, on peut déterminer la densité de l’Univers si l’on connaît la façon dont varie la « constante » de Hubble avec le temps, c’est-à-dire le décalage avec la distance. Le décalage traduit en effet la vitesse d’expansion de l’Univers à un moment donné. Si l’expansion se ralentit (si la « constante » de Hubble diminue au cours du temps) cela signifie qu’elle était plus rapide dans le passé. Par conséquent, lorsque nous observons des objets distants appartenant à un passé lointain, ils doivent avoir une vitesse ou un décalage plus grands dans un univers très décéléré que dans un univers moins décéléré, à une distance donnée. Donc si nous avions un moyen de déterminer la distance des quasars indépendamment de la loi de Hubble nous saurions combien l’Univers est décéléré et nous déduirions sa densité.

7

L’énergie noire a pour effet d’accélérer l’Univers, et peut être assimilée à la constante cosmologique Λ.

161

162

Figure 5.6. Taille angulaire en seconde d’arc qui devrait être mesurée si toutes les radiosources avaient la même dimension de 300 000 années-lumière, pour deux valeurs de la densité de l’Univers, H = 75 km/sec/Mpc, et une constante cosmologique nulle. On peut noter que le diamètre apparent commence à décroître lorsque z (donc la distance) augmente, comme il est naturel dans un univers euclidien plat, mais qu’il croit ensuite. Il est donc paradoxalement plus facile de mesurer le diamètre d’une source éloignée que celui d’une source proche. Cette propriété a malheureusement son revers, c’est que la « brillance » d’un objet étendu diminue lorsque le décalage augmente, puisque la même luminosité est répartie sur une plus grande surface.

Des quasars aux trous noirs

Mais pour effectuer ces tests, il aurait fallu que les quasars soient des « chandelles standard » ayant tous la même puissance, ou que leur puissance soit connue comme celle des céphéides. Ou bien encore que les radiosources associées aient toutes la même dimension. Imaginons que les radiosources associées aux quasars aient toutes une dimension de 300 000 années-lumière. La figure 5.6 donne la dimension apparente en seconde d’arc que l’on devrait alors mesurer en fonction du décalage pour deux valeurs de la densité de l’Univers, l’une correspondant à un Univers fermé avec Ω = 1, l’autre à un univers ouvert contenant peu de matière (Ω = 0,2). On a supposé la constante de Hubble comme étant égale à 75 km/sec/Mpc et l’on n’a pas tenu compte de la constante cosmologique Λ puisqu’on la croyait nulle jusqu’à récemment. On voit que pour des objets de décalage supérieur à 2, on pouvait légitimement espérer déterminer Ω, même assez facilement puisque leur taille apparente devait différer d’au moins 50 % dans le cas d’un Univers ouvert ou fermé. Malheureusement les quasars sont loin d’avoir des luminosités identiques, ni les radiosources d’avoir des dimensions semblables, comme on s’en aperçut rapidement, et il fallut bien se résoudre à abandonner cet espoir8 . 8 On commence à utiliser maintenant les « mirages gravitationnels » qui multiplient les images d’un même quasar, et la propriété des quasars d’être variables, pour déterminer directement leur distance.

La déferlante des « quasars » et la controverse des « décalages anormaux »

163

Figure 5.7. Une représentation à deux dimensions de l’Univers. L’univers b est celui de la page, il est plat.

Qu’à cela ne tienne, il restait d’autres possibilités. On pouvait déterminer la géométrie de l’Univers, savoir s’il était ouvert et infini, ou fermé et fini, en étudiant la variation du nombre de quasars en fonction du décalage. Utilisons une analogie avec des surfaces à deux dimensions dans un monde à trois dimensions, qui nous sont familières. Traçons des points espacés régulièrement sur des figures géométriques simples comme des triangles, découpés dans un tissu élastique. Puis collons ces triangles sur la surface d’un objet présentant des bosses et des creux, un vase par exemple (Figure 5.7). Sur le vase de gauche, les triangles sont bombés ou convexes – on dit que la courbure est positive. Sur celui de droite, les triangles sont concaves et rétrécis – on dit que la courbure est négative. On constate que les points sont plus espacés vers les bords du triangle dans le premier cas (a sur la figure) et plus espacés vers le centre dans le deuxième cas (c sur la figure). Lorsque l’on transpose cette image dans un monde à quatre dimensions, trois dimensions pour l’espace et une pour le temps, on voit que des objets créés uniformément dans l’espace et dans le temps ont une densité décroissante avec la distance dans le cas (a), croissante dans le cas (c), et constante seulement dans le cas (b). Par conséquent, si l’on dispose d’une classe d’objets homogènes, créés à un taux uniforme dans le passé, et que l’on mesure leur répartition dans l’espace, on peut déterminer la structure de l’Univers. C’était ce que l’on espérait faire avec les quasars. D’une façon extrêmement simplifiée, cette analogie peut en dire plus encore. En effet, les triangles convexes s’apparentent

164

Des quasars aux trous noirs

un peu aux orbites fermées elliptiques de notre satellite et les triangles concaves aux orbites infinies hyperboliques. En extrapolant l’analogie, on voit que le cas (a) correspond à un Univers « elliptique fini » qui reviendrait à son état initial et le cas (c) à un Univers « hyperbolique infini » qui s’en éloignerait à tout jamais. Mais là encore, les quasars nous réservaient une surprise. On découvrit qu’en fait leur nombre croissait bien plus rapidement avec le décalage que la simple expansion de l’Univers ne le laissait prévoir. Maarten Schmidt (celui qui identifia le premier les raies dans le quasar 3C 273) inventa pour mesurer cette croissance un test cosmologique simple et astucieux qui a été largement utilisé depuis dans divers contextes (Encadré 5.5).

Encadré 5.5. Il faut naturellement tenir compte de l’expansion de l’Univers. Dans notre hypothèse, le nombre de quasars devrait rester le même dans un « covolume » donné, c’està-dire en suivant un volume dans son expansion. En première approximation, les distances étant proportionnelles à 1 + z comme le sont les longueurs d’onde, cela signifie que la densité de l’Univers était (1 + z)3 fois plus grande à un décalage z que maintenant : par exemple pour z = 2, elle était 27 fois plus grande. On s’attendait donc à ce qu’il en soit de même pour les quasars. Pour chaque quasar d’un catalogue « complet », c’est-àdire dans lequel tous les objets d’éclat inférieur à une limite donnée ont été observés (tel le 3C), Schmidt détermina la distance maximum jusqu’à laquelle cet objet aurait pu être détecté ainsi que le volume correspondant de l’Univers, appelé Vmax (pour « volume maximum »). Si le nombre d’objets du catalogue est suffisamment grand pour représenter un « échantillon statistiquement significatif », et si les objets sont uniformément répartis dans l’univers, le rapport moyen entre le volume correspondant à la distance de chaque objet9 , V et son Vmax , donc V/Vmax , devrait être égal exactement à 1/2. Or Schmidt trouva un rapport moyen de 0,64 pour le catalogue 3C. Ce qui signifiait qu’il y avait dans le passé plus de quasars qu’actuellement dans une 9 On a donc simplement V/V 3 max = (D/Dmax ) , D étant la distance réelle de l’objet, et Dmax la distance la plus grande à laquelle il pourrait être détecté, compte tenu des propriétés du catalogue.

La déferlante des « quasars » et la controverse des « décalages anormaux »

même tranche d’Univers. Et il serait faux de penser que ce rapport de 0,64 (étant peu différent de 0,50) n’est pas très significatif, car il implique que le nombre de quasars croît pratiquement comme (1 + z)3 par unité de covolume, donc comme (1 + z)6 dans un volume donné.

Schmidt découvrit à l’aide de son test qu’il y avait eu beaucoup plus de quasars dans le passé. Il rejeta une autre possibilité, celle que les quasars auraient été beaucoup plus lumineux avant, expliquant qu’on en détectait plus à grande distance. Il a été très difficile pendant longtemps de départager les deux hypothèses, car il fallait pour cela disposer de quasars de toutes les luminosités à grand décalage pour déterminer la « fonction de luminosité », ou alors il fallait un certain nombre de quasars de luminosité donnée à chaque distance, ce qui n’a pas été possible avant l’avènement des très grands télescopes. On pense maintenant que la population des quasars a évolué à la fois en nombre et en puissance au cours du temps. Mais pendant environ vingt ans, l’idée prédominante était qu’ils avaient été plus nombreux auparavant. L’un de mes premiers étudiants, Guy Mathez, proposa au début des années soixante-dix que les quasars pouvaient évoluer en luminosité. Son article mit plusieurs années à être accepté [64]. Je suis sûre que maintenant plus personne ne pense à cet article de Guy, tant l’idée d’une évolution simultanée des quasars en nombre et en puissance semble naturelle dans le cadre de nos idées actuelles sur l’Univers. Il était malheureusement impossible d’utiliser les quasars pour déterminer la structure de l’Univers. On avait cependant appris quelque chose d’extrêmement important : l’Univers était fortement structuré depuis une dizaine de milliards d’années puisqu’il contenait des objets comme les quasars, mais ceux-ci avaient encore considérablement évolué après. La découverte de l’évolution des quasars était capitale et elle sera plus tard très largement étudiée et discutée.

Comment les quasars peuvent servir malgré tout à sonder l’Univers Pourtant les quasars n’allaient pas tarder à servir malgré tout de sondes de l’Univers par des biais, encore une fois, totalement imprévus.

165

166

Des quasars aux trous noirs

En effet, avant de nous parvenir, la lumière des quasars peut rencontrer sur sa route de la matière – nuages interstellaires, galaxies, amas de galaxies, gaz intergalactique – qui y imprime une signature. En 1964, Margaret Burbidge avait déjà pensé que le gaz sur la ligne de visée des quasars devait être détectable dans leur spectre [12]. Cette idée fut reprise par deux jeunes astronomes américains, James Gunn et Bruce Peterson [42], qui l’appliquèrent à la matière se trouvant entre les galaxies, le gaz intergalactique. N’ayant pas encore été contaminé par les autres éléments formés à l’intérieur des étoiles, il devait être constitué seulement d’hydrogène et d’un peu d’hélium. Gunn et Peterson prévoyaient donc qu’il se crée une absorption à la position de la raie Lyman α de l’hydrogène, normalement située dans l’ultraviolet**. Et comme la matière intergalactique participe à l’expansion de l’Univers, ils prédisaient que cette absorption devait se produire à tous les décalages compris entre zéro et celui du quasar. Ce devait donc être une sorte de dépression s’étendant du côté des courtes longueurs d’onde de la raie Lyman α du quasar. L’importance de cette dépression permettrait de déterminer le nombre d’atomes d’hydrogène sur la ligne de visée et d’en déduire la masse du gaz intergalactique, qui dominait peut-être celle des galaxies visibles. Gunn et Peterson trouvèrent effectivement une petite dépression à la bonne position dans le spectre du quasar 3C 9, de décalage égal à 2, mais ce résultat s’avéra faux. Il est en effet très difficile de mesurer une absorption lorsque l’intensité est très faible et il faudrait se rappeler que l’on a toujours tendance à sur-interpréter une observation lorsque l’on en a prédit le résultat. . . Et pendant quarante-cinq ans, le « test de Gunn-Peterson » (qu’on aurait dû appeler « test de BurbidgeGunn-Peterson ») fut toujours négatif, bien que la fameuse dépression ait été cherchée avec persévérance dans de nombreux quasars. La recherche d’atomes d’hydrogène neutre dans l’espace intergalactique est d’une grande importance pour notre connaissance de l’histoire de l’Univers. La théorie du Big Bang nous dit qu’après avoir été très chaud, l’Univers s’est refroidi et que trois cent mille ans après sa naissance, les protons et les électrons dont était constituée la soupe cosmique se sont attachés les uns aux autres (« recombinés ») pour former des atomes d’hydrogène. C’est à cette époque que la matière et le rayonnement se sont découplés, chacun poursuivant sa vie indépendamment de l’autre. D’un côté subsista le rayonnement « fossile », de l’autre la matière, tous les deux se refroidissant

La déferlante des « quasars » et la controverse des « décalages anormaux »

à mesure que l’Univers se dilatait. Quant à la lumière visible et ultraviolette, elle disparut complètement, absorbée par les atomes et les molécules d’hydrogène. Triste époque ! Car même s’il se trouvait déjà quelques sources de lumière dans un coin de l’Univers, quelques étoiles commençant à briller, rien ne nous en parviendra jamais. C’est pourquoi on appelle cet âge sombre cosmique « the Dark Age ». Il a toutefois dû se terminer à un moment donné et l’Univers a dû redevenir transparent, puisqu’il nous apparaît tel maintenant. Cela s’est probablement produit lorsque les premières étoiles ou les premiers quasars ont commencé à briller intensément et que leur lumière ultraviolette a été suffisante pour « réioniser » l’Univers. Dans les années soixante, on pensait que la plupart des quasars et des galaxies s’étaient formés des milliards d’années après le Big Bang, que l’Univers était donc resté froid et noir pendant très longtemps et c’est pourquoi l’on espérait trouver des traces d’hydrogène « neutre » dans le spectre des quasars lointains. On pensait également que cette matière neutre remplissait l’espace de façon homogène et c’est pourquoi Gunn et Peterson espérait la détecter sous forme d’une absorption continue dans les spectres des quasars10 . Maintenant que l’on a trouvé des galaxies et des quasars très anciens, on sait que la réionisation s’est produite tôt, quelques centaines de millions d’années seulement après le Big Bang. On ne s’attend donc pas à trouver beaucoup d’hydrogène neutre à de grands décalages. Mais où pouvait alors se trouver le gaz constitué d’hydrogène pur non pollué par des éléments lourds, laissé pour compte après la formation des galaxies ? Ce n’est que quinze ans plus tard qu’on le comprendra. Les astronomes américains John Bahcall et Edwin Salpeter firent dès 1965 une autre prédiction dont on n’a pas saisi tout de suite l’importance cruciale [7]. C’est qu’il devait 10

L’échec du test de Gunn-Peterson semblait prouver qu’il n’existait pas de gaz intergalactique ou bien qu’il ne contenait que des traces infimes d’atomes d’hydrogène (moins d’un sur cent mille), le reste étant sous forme de protons et d’électrons incapables d’absorber les photons. Cette deuxième hypothèse impliquait une température du gaz intergalactique supérieure à dix millions de degrés afin que la plupart des électrons soient arrachés aux atomes d’hydrogène. Rien ne l’interdisait.On sait maintenant que c’est impossible car ce gaz très chaud aurait dû modifier le spectre du rayonnement fossile), mais il fallait alors expliquer par quels mécanismes ce gaz, de glacial qu’il était, aurait pu être ainsi chauffé aussi fortement. On invoquait un Univers agité d’explosions gigantesques dues aux premières supernovae ou à des quasars en gestation mais tout ceci paraissait un peu ad-hoc. Pendant longtemps on a pourtant pensé que c’était le cas.

167

168

Figure 5.8. Le spectre de 3C 191 publié par les Burbidge et Lynds en 1966, montrant la présence de raies en absorption à la gauche des raies en émission (donc du côté plus bleu). Les positions et les identifications des principales raies en absorption sont indiquées. Attention, il s’agit d’un négatif, comme on avait l’habitude de les montrer à l’époque : les raies brillantes sont en absorption, et elles sont superposées à des bandes sombres, qui sont des raies en émission. Comme souvent à cette époque, le spectre, qui aurait dû se présenter comme une simple ligne, a été élargi artificiellement par balayage pour obtenir une meilleure définition. La partie supérieure du spectre a été obtenue en positionnant l’ouverture du spectrographe sur le ciel, en dehors du quasar. Enfin, les deux spectres situés au-dessus ont été obtenus en laboratoire afin de déterminer les longueurs d’onde avec précision.

Des quasars aux trous noirs

nécessairement se trouver des galaxies contenant des nuages de gaz interstellaire sur la ligne de visée des quasars lointains et elles devaient laisser leurs empreintes sous forme de raies en absorption discrètes cette fois dans les spectres des quasars. Il devait s’agir non pas de la raie Lyman α mais de raies d’éléments lourds synthétisés dans les étoiles des galaxies. Elles devaient être décalées vers le rouge par rapport aux raies brillantes des quasars eux-mêmes, mais moins qu’elles, en vertu de la loi de Hubble, puisque les quasars étaient plus éloignés que les nuages absorbants. Et on les trouva presque immédiatement ! En 1966, Gef et Margaret Burbidge, avec leur collègue Beverly Lynds, observèrent dans le spectre du quasar 3C 191 un système de raies sombres très fines [16]. Elles étaient dues à des éléments divers comme l’oxygène, le carbone et l’azote (Figure 5.8). Le décalage de ces raies était un peu inférieur à celui du quasar lui-même. Elles étaient donc « décalées vers le bleu » par rapport aux raies en émission du quasar. Mais rappelons-nous qu’on vivait les débuts d’une violente controverse entre ceux qui croyaient aux décalages cosmologiques et ceux qui n’y croyaient pas. Les Burbidge faisaient partie de la deuxième catégorie. De plus, ils croyaient que le phénomène caractérisant les quasars était une explosion, associée nécessairement à l’éjection de gaz et de particules relativistes.

La déferlante des « quasars » et la controverse des « décalages anormaux »

Or, que devait-on observer dans ce cas ? Le gaz rejeté par les quasars devait créer des raies en absorption dans leurs spectres et, puisque celui qui est expulsé le long de la ligne de visée se rapproche de nous, ces raies devaient être décalées vers le bleu par rapport à celles du quasar lui-même, c’est-à-dire que leur décalage vers le rouge devait être plus petit que celui du quasar. Et c’était exactement ce qu’ils observaient ! Les Burbidge attribuèrent donc les raies en absorption à du gaz chassé par le quasar lui-même. La différence entre les deux décalages – celui des raies brillantes en émission et celui des raies sombres en absorption – correspondait à environ 1 000 kilomètres par seconde. C’était acceptable pour une éjection, compte tenu des vitesses mesurées avec les raies en émission. L’interprétation des Burbidge fut confortée rapidement par une autre découverte. En 1967, Lynds trouva dans le spectre d’un quasar appelé PHL 5200, non plus des raies fines mais de larges bandes en absorption du côté « bleu » des raies en émission, en fait juste adjacentes à celles-ci [58] (Figure 5.9). Rapidement, on en découvrit dans d’autres quasars qu’on appela « BAL quasars », pour « Broad Absorption Line Quasars », c’est-à-dire quasars à raies d’absorption larges. En fait, ces raies sont observées dans environ dix pour cent des quasars, très souvent ceux qui ne rayonnent pas en radio (l’explication n’en est d’ailleurs pas encore trouvée). Il ne fait aucun doute qu’elles sont intrinsèquement liées aux quasars et qu’elles proviennent du gaz éjecté avec des vitesses pouvant atteindre vingt mille kilomètres par seconde (Encadré 5.6).

169

Figure 5.9. La figure de gauche représente le spectre de PHL 5200 tel qu’il a été publié par M. Burbidge en 1969. Conformément à l’habitude de l’époque, il s’agit d’un négatif. Les raies en émission sont sombres, et les absorptions sont les larges bandes claires situées du côté des courtes longueurs d’onde des raies en émission. Elles sont produites par le gaz éjecté par le quasar (les deux raies fines manquées « N.S. » sont dues au ciel nocture et non au quasar ; elles sont donc à leurs longueurs d’onde non décalées). La figure de droite montre un enregistrement du spectre du même objet au voisinage de la raie du carbone trois fois ionisé, obtenu par Turnshek et al., en 1988. On distingue la raie en émission qui se trouverait normalement à la longueur d’onde de 1 550 angströms mais qui est reportée à 4 600 angströms à cause du décalage, et la raie en absorption correspondante. On réalise l’évolution de l’instrumentation en vingt ans. . .

170

Des quasars aux trous noirs

Figure 5.10. Explication des profils « P Cygni » dans les étoiles et dans les quasars.

Encadré 5.6. On connaissait déjà de telles raies dans le spectre de certaines étoiles. On les appelle « P Cygni », du nom de la première étoile où elles ont été observées. Elles sont formées au sein d’une atmosphère en expansion (Figure 5.10). Celle-ci produit des raies d’émission centrées sur leurs longueurs d’onde au repos, mais comme elle absorbe une partie du rayonnement continu provenant de la surface de l’étoile et comme elle se rapproche de l’observateur, elle produit également des raies d’absorption du côté des courtes longueurs d’onde des raies (le côté « bleu »). Dans le cas des quasars, il s’agit du même phénomène mais il est encore plus marqué car la région absorbante est située au-delà de la région émettant les raies. Elle absorbe donc non seulement le continu mais également le côté bleu de la raie. Jusque-là tout semblait encore assez normal. Mais quelque temps après, on commença à observer dans le spectre de nombreux quasars11 des raies d’éléments lourds très fines en absorption, dont le décalage était beaucoup moins élevé que celui des raies en émission. La différence de décalage correspondait à des vitesses allant jusqu’à cent ou deux cent mille kilomètres par seconde, soit une fraction appréciable de la vitesse de la lumière. Mais, après tout, rien ne paraissait plus impossible dès qu’il s’agissait des quasars et ce n’était qu’une étrangeté supplémentaire de leur nature. 11

En fait elles existent dans tous les quasars, mais elles sont souvent faibles et il faut des instruments très performants pour les observer.

La déferlante des « quasars » et la controverse des « décalages anormaux »

Pendant plusieurs années on pensa que ces raies provenaient, comme les raies larges, de grandes masses de gaz éjecté par les quasars. Cela confortait la théorie des explosions et, naturellement, Margaret et Gef Burbidge en étaient d’ardents promoteurs. Ils n’étaient pas les seuls et jusqu’à la fin des années soixante-dix cette hypothèse fit florès. Mais on se heurtait tout de même à un paradoxe difficile à résoudre. Les raies étaient très fines dans la plupart des cas. Cela signifiait que le gaz éjecté se déplaçait sans que sa vitesse subisse la moindre variation. Il fallait qu’il soit accéléré jusqu’à des fractions appréciables de la vitesse de la lumière et qu’il se maintienne ensuite à une vitesse parfaitement constante. Les meilleurs théoriciens se cassèrent le nez sur ce problème sans lui trouver de solution12 . Ce n’était pas étonnant car il existait une autre explication à ces raies, celle prédite par Bahcall et Salpeter avant de les avoir observées : les absorptions étaient dues à des galaxies situées sur la ligne de visée des quasars qui, étant plus proches de nous, avaient des décalages moins élevés (Figure 5.11). 12 On pourrait s’étonner que l’on ait du mal à expliquer la présence de ce milieu dont les vitesses sont plus petites que celle de la lumière, alors que les quasars éjectent des bouffées d’électrons à des vitesses très proches de celle de la lumière. Ce n’est en fait pas du tout le même phénomène. Dans le premier cas, il s’agit d’un véritable « gaz », relativement froid, avec une densité comparable à celle d’une atmosphère stellaire ou d’une nébuleuse gazeuse. Ce gaz « pèse » très lourd. Tandis que dans le deuxième, on a affaire à un gaz extrêmement ténu et léger constitué de particules relativistes. On le détecte, bien qu’il ait une masse négligeable car il rayonne par un mécanisme terriblement efficace, l’effet synchrotron, de surcroît susceptible d’être amplifié.

171

Figure 5.11. Ce schéma, dû à Patrick Petitjean, un spécialiste des raies d’absorption dans les quasars, montre pourquoi on observe des systèmes de raies en absorption à des décalages différents dans le spectre des quasars. Si des nuages sont situés sur la ligne de visée entre nous et le quasar, le gaz qu’ils contiennent crée des raies dont le décalage est d’autant plus petit que les nuages sont plus proches de nous. À la limite, un nuage situé dans notre propre galaxie va créer un système de décalage zéro. Le dernier spectre à droite est la combinaison des trois précédents, et c’est celui que nous observons. Les quatre télescopes représentés sont les « Very Large Telescopes » (VLT) de l’ESO au Chili, utilisés pour ces études.

172

Des quasars aux trous noirs

Cette interprétation aurait pu ouvrir la voie à des déductions intéressantes car le nombre de tels systèmes en absorption était plus élevé que celui qu’on attendait. Cela signifiait qu’il y avait beaucoup plus de galaxies à grand décalage qu’on ne le pensait ou alors qu’elles étaient plus grandes qu’on ne le croyait. En réalité les deux explications étaient correctes. Par exemple, on ignorait encore à l’époque que certaines galaxies s’étendent bien au-delà de leur partie visible, parfois jusqu’à des centaines de milliers d’années-lumière du centre. Et surtout on ignorait que la grande époque de formation des galaxies se situait dans un passé lointain et qu’une myriade de galaxies emplissait l’Univers à grande distance. Il y eut donc les tenants de « l’hypothèse intrinsèque » qui voulaient que toutes les raies en absorption fussent produites dans le quasar lui-même, et les tenants de « l’hypothèse de matière interposée » qui proposaient que seules les raies larges (les BALs) fussent produites dans les quasars, les autres raies d’absorption étant dues à des galaxies situées sur leur ligne de visée13 . Naturellement ceux qui prônaient l’hypothèse intrinsèque étaient les mêmes que ceux qui étaient opposés aux décalages cosmologiques. Car supposer des galaxies sur la ligne de visée des quasars mettait à mal les « décalages anormaux » puisque cela impliquait que les quasars fussent bien situés à de grandes distances. Pour la première fois cependant, il était plus difficile d’expliquer le phénomène dans l’hypothèse de quasars locaux que dans l’hypothèse des décalages cosmologiques et la balance commençait enfin à pencher du côté des ces derniers. Le débat dura une dizaine d’années, jusqu’à ce que l’on ait accumulé les preuves de l’existence des galaxies interposées. Pour être certain que les raies fines fussent bien les signatures de galaxies sur la ligne de visée, il fallait pouvoir détecter celles-ci près des quasars sur des photographies profondes. Jacqueline Bergeron fut la première à le faire en 1985 : elle prit le spectre d’une galaxie située près de la ligne de visée d’un quasar et trouva que cette galaxie avait le même décalage que l’un des systèmes de raies en absorption du quasar [10]. Par la suite on en trouva beaucoup d’autres. Chercher près des quasars les galaxies donnant naissance aux raies en absorption devint d’ailleurs plus tard un moyen de détection de galaxies très lointaines. 13

Il n’en est pas de même pour les raies de la « forêt Lyman » dont nous parlons plus loin.

La déferlante des « quasars » et la controverse des « décalages anormaux »

J’ai envie de remarquer ici qu’une fois de plus la solution n’était pas celle qu’on aurait choisie sur un critère de simplicité puisqu’elle faisait appel à deux causes différentes pour expliquer les raies en absorption, l’une intrinsèque, l’autre extrinsèque. Pourtant c’était la bonne. On retrouvera plusieurs fois de telles circonstances prouvant que « le principe de simplicité » ne doit pas être toujours invoqué dans une science aussi complexe que l’est l’astrophysique. En définitive, la découverte inattendue des raies en absorption dans les spectres des quasars ouvrait un pan de recherche très riche pour la cosmologie, et en même temps elle allait nous livrer certaines clefs des mécanismes à l’œuvre dans les quasars. Avant de clore le sujet des raies en absorption, je crois intéressant de mentionner une découverte – inattendue bien entendu – qui ne vint que beaucoup plus tard mais qui, également, nous livra quelques secrets sur la structure de l’Univers. C’est celle de la « forêt Lyman ». J’ai parlé de l’échec du test de Gunn et Peterson destiné à détecter de l’hydrogène quasiment pur de toute pollution remplissant l’espace intergalactique de façon homogène. Or dans les années quatre-vingts, on commença à détecter une foule de raies très faibles en absorption situées toutes dans l’aile violette de la raie en émission Lyman α de quasars lointains (Figure 5.12). Ces raies n’étaient pas associées à des galaxies sur la ligne de visée des quasars comme les autres raies en absorption, mais à des nuages d’hydrogène pur qui n’avaient pas été assez massifs pour former des galaxies (et par conséquent, les étoiles

173

Figure 5.12. Enregistrement du spectre d’un quasar de décalage z = 3,5 montrant une myriade de raies en absorption situées dans l’aile violette des raies Lyman α et Lyman β de l’hydrogène, constituant la « forêt Lyman ». On distingue des raies en absorption « métalliques » bien moins nombreuses que d’autres éléments. Ce spectre a été obtenu par P. Petitjean avec le télescope Keck de dix mètres de Hawaï. Les longueurs d’onde en angström sont observées et doivent naturellement être ramenées aux longueurs d’onde « au repos » en les divisant par z + 1.

174

Des quasars aux trous noirs

créant des éléments lourds) [85]. C’était donc de la « matière primordiale ». Ce que nous révélèrent ces raies, c’était que l’Univers était loin d’être homogène comme on l’imaginait dans les années soixante, mais qu’il avait acquis très tôt une structure inhomogène. Elles nous révélaient également qu’il avait été « réionisé » déjà dans un passé très lointain par les étoiles et les quasars14 . Mais on était très loin de tout cela à la fin des années soixante : à cette époque, les quasars semblaient défier les lois connues, les raisonnements les plus simples, et toutes les prévisions faites à leur sujet.

Où l’on voit régner la plus grande confusion à la fin des années soixante Je vais arrêter ce chapitre au seuil des années soixante-dix, après sept ans passés déjà en compagnie des quasars. Pour le clore, nous allons nous rendre dans un lieu prestigieux, le Vatican, où se tint en 1970 une semaine d’étude sur les noyaux de galaxies et les quasars. L’Académie pontificale des sciences organise chaque année au Vatican une semaine d’étude dans le but de « prendre quelque sujet d’importance fondamentale dans une branche de la science, sur lequel les experts ont des avis divergents ou même contradictoires, et d’inviter un petit groupe de scientifiques à en discuter d’une façon aussi approfondie que possible ». En 1970, le sujet choisi fut les noyaux de galaxies. Je ne peux résister au plaisir de montrer la photo de groupe du congrès, avec les vingt-cinq astronomes et les six membres de l’équipe pontificale qui y assistèrent. On y trouve seulement deux femmes, Margaret Burbidge au premier rang, la deuxième femme étant la « chef du secrétariat pontifical » (Figures 5.13 et 5.14). On voit sur la photo du congrès essentiellement la fine fleur de l’astronomie américaine ; les autres nations sont très peu représentées. Les seules personnes ne professant pas à cette époque dans des universités des États-Unis étaient deux astronomes hollandais, Oort et Van der Laan et l’astronome arménien Ambartsumian dont j’ai longuement parlé. Celuici fit l’introduction du colloque et l’on ne peut qu’admirer la 14

En effet, il s’agissait non pas d’hydrogène neutre mais d’hydrogène ionisé comme on put s’en convaincre (assez difficilement d’ailleurs) et la forêt était produite par la toute petite proportion d’hydrogène neutre présente dans les nuages.

La déferlante des « quasars » et la controverse des « décalages anormaux »

largesse d’esprit des pères du Vatican qui n’hésitaient pas à donner une place importante à des esprits frondeurs et même anti-religieux dont les idées allaient certainement à l’encontre de leurs propres convictions philosophiques (Ambartsumian défendait par exemple la création continue de matière, complètement opposée à la vision de l’abbé Lemaître). Il ne faut pas croire que la présence d’une seule astronome femme sur vingt-cinq était due à un ostracisme anti-féminin des pères du Vatican. C’était monnaie courante à l’époque, et la France faisait à cet égard figure d’exception. Margaret Burbidge était une personnalité incontournable de l’astronomie que j’ai toujours admirée. Ses débuts avaient été très difficiles. D’origine anglaise, (elle fut d’ailleurs longtemps directeur de l’Observatoire royal de Greenwich), lorsqu’elle postula après sa thèse en 1951 à l’Observatoire de Yerkes près de Chicago, elle s’entendit répondre par le directeur que le poste était réservé à un homme. Il y avait à cela plusieurs raisons, dont l’une était que les coupoles n’étaient pas ouvertes de nuit aux femmes – y compris celles du Mont Palomar – car on craignait qu’elles ne distraient trop les astronomes de leur travail (il paraît que c’étaient les femmes des astronomes qui avaient insisté pour l’établissement de cette règle) ; l’autre était qu’il

175

Figure 5.13. Photo du congrès du Vatican en 1970 sur les « noyaux de galaxies ».

176

Figure 5.14. Les noms des assistants à ce congrès : tous sont des astronomes très connus, et pratiquement tous sont américains ou exerçant aux États-Unis.

Des quasars aux trous noirs

n’y avait pas de toilettes pour les femmes. C’est d’ailleurs resté en partie vrai pendant longtemps, puisque lorsque j’ai effectué des séjours dans l’université de Colombia à New York dans les années quatre-vingt-dix, il me fallait descendre du treizième au dixième étage pour en trouver. En conséquence, Gef Burbidge fut recruté et Margaret fit clandestinement les observations à sa place, car Gef n’était pas doué pour l’observation. . . Cela me rappelle d’ailleurs une petite anecdote qui m’arriva dans les années soixante-dix lorsque je faisais partie du « comité des visiteurs » du service de radioastronomie de l’Observatoire de Meudon. Ce comité se réunissait une fois par an pour donner des avis sur les résultats scientifiques obtenus à Nançay. Y participaient les deux Anglais fraîchement nobélisés Hewish et Ryle. J’étais la seule femme. Lors de la

La déferlante des « quasars » et la controverse des « décalages anormaux »

première réunion, Hewish se tourna vers moi au bout de quelques minutes et me demanda d’un air mécontent : « Mais vous ne prenez pas de notes ? ». Inutile de dire qu’un ange passa. Je crois qu’en effet nous étions en France particulièrement avancés sur le plan de l’égalité hommes-femmes et les Anglo-Saxons particulièrement en retard. . . Mais revenons au Vatican. Les discours et les discussions y étaient enregistrés sur bande magnétique et retranscrits immédiatement par tranche de quinze minutes de façon à être distribués le lendemain matin aux assistants « pour leur permettre de les corriger pendant que les questions étaient encore fraîches ». Bien sûr il est maintenant courant d’enregistrer des congrès, même en vidéo, et de les publier « sur la toile » le jour même, mais à cette époque c’était complètement inusité et il fallait disposer de l’extraordinaire infrastructure du Vatican pour parvenir à une telle prouesse. La discussion porta tout autant sur les noyaux de galaxies que sur les quasars ainsi que sur la cosmologie et elle correspond à peu près aux divers points que j’ai abordés dans ce chapitre et dans le précédent. Elle porta aussi sur quelques points que je n’ai pas mentionnés car leur intérêt me paraît maintenant dépassé mais ceux-ci étaient à la mode à l’époque. Il y avait d’abord les groupes de galaxies. Margaret Burbidge et Wallace Sargent montrèrent que les vitesses y étaient trop grandes pour qu’ils puissent être confinés gravitationnellement et qu’ils devaient par conséquent être en expansion. C’était un argument très fort en faveur des hypothèses des « non-conventionnalistes » car cela impliquait que les groupes devaient disparaître rapidement, à moins que la matière ne s’y renouvelât en permanence comme le suggérait Ambartsumian. Une autre solution avait été proposée en 1937 par Zwicky, cet astronome américano-suisse dont j’ai déjà parlé. Découvrant que les amas de galaxies avaient des masses trop petites pour être confinés gravitationnellement, il avait suggéré qu’ils contenaient une quantité de matière supérieure à celle qui était visible, au lieu de les supposer en expansion. Bref, il avait proposé que l’espace entre les galaxies fût rempli par une matière inconnue et invisible, une « matière noire ». Inutile d’ajouter qu’on en est absolument convaincu maintenant pour de nombreuses raisons15 . Mais Zwicky était absent à la semaine pontificale et je suppose que c’était dû à la présence de Sandage qui était l’un des 15

On commence en fait à remettre son existence en cause en ce moment !

177

178

Des quasars aux trous noirs

organisateurs du congrès. Ils étaient tous deux à Caltech, et ils se haïssaient au point de faire des détours pour ne pas se rencontrer dans les couloirs. Zwicky avait un caractère impossible, irascible et méprisant, mais il avait aussi des idées originales et c’était même un véritable génie : outre ses hypothèses prophétiques sur les étoiles à neutrons et sur la matière noire, n’avait-il pas aussi anticipé de quarante ans la découverte des « mirages gravitationnels » ? Il s’intéressait également aux galaxies compactes et bleues et il avait constitué un catalogue de ces objets parmi lesquels la galaxie IZw1 fut plus tard le prototype d’une classe très importante de galaxies de Seyfert. Sa présence au congrès aurait donc été naturelle et les débats auraient peut-être été différents. Cela nous rappelle opportunément que les scientifiques, même les plus grands, souffrent des mêmes faiblesses que les autres hommes. . . D’autres observations décrites par Sargent et Margaret Burbidge venaient compliquer encore le problème : certaines galaxies dans des groupes avaient un décalage en complet désaccord avec celui des autres galaxies du groupe. La différence correspondait à des vitesses de plusieurs milliers, voire plusieurs dizaines de milliers kilomètres par seconde, tantôt dans le sens d’un éloignement, tantôt dans celui d’un rapprochement. Or le décalage, s’il était cosmologique, aurait dû être le même si les objets se trouvaient tous à la même distance. Il n’était donc pas cosmologique, d’après M. Burbidge et Sargent. Mais les galaxies ne pouvant posséder de telles « vitesses » par rapport aux autres membres du groupe, le décalage devait avoir une autre origine, nécessairement nonconventionnelle. Quelques observations semblaient corroborer cette idée : c’étaient des « alignements » entre des galaxies et des quasars, découverts par Halton Arp, qu’il interprétait comme des éjections à partir d’une galaxie « active ». Et comme les décalages de ces objets étaient tous différents, Arp proposait qu’ils fussent aussi d’origine non-conventionnelle ou « anormale ». L’alternative était tout simplement des agencements dus au hasard. Dans la plupart des cas, on a montré qu’il s’agissait bien de la superposition d’une galaxie sur un groupe dont elle ne faisait pas partie. Il existe maintenant des preuves indiscutables que les décalages des quasars sont d’origine cosmologique et je pense que pratiquement tous les spécialistes s’accordent sur ce point. Mais à cette époque, la plus grande confusion régnait et nous allons voir qu’elle culmina quelques années plus tard lors d’une sorte de grand débat, avant de retomber définitivement dans l’indifférence quasi générale.

La déferlante des « quasars » et la controverse des « décalages anormaux »

Margaret Burbidge était chargée de faire un résumé des discussions portant sur les aspects observationnels et Woltjer sur les aspects théoriques. Ce n’était sûrement pas un travail facile. Avec le recul du temps, on constate que le résumé de Margaret Burbidge ne contient aucune grosse inexactitude et que celui de Woltjer mentionne les différentes possibilités théoriques évoquées sans n’en favoriser aucune particulièrement. On discerne aussi subtilement dans les conclusions la présence des « non-conventionnalistes », Ambartsumian, Gef Burbidge (et Margaret, dans une moindre mesure) et Hoyle, prônant l’éjection par les noyaux de galaxies d’objets massifs comme des étoiles avec des vitesses proches de celle de la lumière. Il est clair cependant que l’ensemble des participants ne voulait s’engager fermement dans aucune direction. À la lecture des discussions, on voit qu’elles ont été très vives entre les « conventionnalistes » et les « non-conventionnalistes », mais finalement les conclusions donnent l’impression d’un « consensus mou », comme on dit, contrairement à l’espoir des organisateurs de la semaine. Il correspondait à l’état encore très confus de la discipline, qui allait enfin commencer à s’organiser au cours de la décennie suivante. Et pourtant, à la place numéro 23 sur la photo du congrès on voit un jeune astronome anglais, Donald Lynden-Bell : il faisait une suggestion reprenant les idées de Salpeter et de Zeldovich que j’ai déjà mentionnées. Je ne dis pas laquelle afin de laisser planer le suspense. . . Sa théorie fut adoptée dix ans plus tard comme un véritable « paradigme » mais elle ne semble pas avoir suscité à l’époque des commentaires ou réactions.

179

This page intentionally left blank

Chapitre 6

Les années soixante-dix : en marge de la Science Comme mon intention est de ne pas parler que de science dans ce livre, ce chapitre n’y sera pas consacré. J’y décrirai un peu ma vie personnelle et nos conditions de travail. Cellesci se modifièrent assez profondément au début des années soixante-dix à cause de notre déménagement à Meudon et suite aux évènements de mai 68.

Notre arrivée à Meudon Nous (c’est-à-dire l’ensemble du « laboratoire Schatzman » de l’Institut d’astrophysique, soit une quarantaine de personnes), avions rejoint en 1971 la section de Meudon de l’Observatoire de Paris dans la banlieue Sud, à l’orée du bois de Meudon. Cela n’avait pas été sans mal puisque cette opération avait duré plus de dix ans. J’en profite pour dire quelques mots d’Évry Shatzman, ce maître qui a laissé son empreinte sur l’astrophysique française et sur nombre d’entre nous (Figure 6.1). Évry est né en 1920 d’un père juif ayant émigré de Roumanie au début du siècle et d’une mère juive française. Sa vie a été marquée par la guerre, son père ayant été déporté à Auschwitz où il avait péri. C’est un traumatisme dont je connaissais les effets puisque mon premier mari, Pierre Souffrin, l’avait également subi et en avait gardé des séquelles émotionnelles à l’âge adulte. Jeune normalien, Évry avait été envoyé avec sa femme Ruth à l’Observatoire de Haute-Provence par le directeur du laboratoire de physique de l’École normale, Georges Bruhat1 . Il y trouva donc refuge en 1943 sous un faux nom, grâce à la complicité du directeur Jean Dufay et du sous-directeur Charles Fehrenbach 1

Bruhat sauva également bien d’autres juifs et il le paya de sa vie.

Figure 6.1. Évry Schatzman, en 1968.

182

Des quasars aux trous noirs

qui fut ensuite pendant longtemps le directeur de l’Observatoire de Marseille puis de l’OHP. Évry travailla seul là-bas à une thèse sur les naines blanches. C’est sans doute de cette époque qu’il garda l’idée qu’un jeune chercheur doit trouver sa voie tout seul. Il soutint sa thèse à son retour à Paris en 1946 après avoir passé l’agrégation. Il était parvenu à résoudre le problème de la génération d’énergie dans les naines blanches. C’est à ce moment qu’il rencontra un jeune normalien également passionné par l’astrophysique, Jean-Claude Pecker, qui avait traversé des épreuves semblables aux siennes et avec qui il se lia d’une amitié indéfectible. À cette époque Évry était membre du parti communiste ; il le quitta en 1959 mais il n’abandonna jamais les activités politiques et syndicales, et fut même un temps secrétaire général du SNESUP, le syndicat des enseignants du supérieur. Intéressé par la philosophie, il ne se limita jamais à son travail scientifique et ses nombreux livres témoignent de ses multiples interrogations existentielles et sociales. Ses idées radicales lui valurent l’inimitié de beaucoup de collègues d’autant qu’il ne les cachait pas et n’exprimait pas toujours ses sentiments avec diplomatie (elles lui valurent en particulier de ne pas devenir le directeur de l’IAP après le départ à la retraite de Danjon). Sans être violemment agressif, il montrait souvent qu’il n’appréciait pas certaines personnes, surtout celles qu’il estimait être des arrivistes camouflant leurs faiblesses scientifiques sous un discours imposteur. Par ailleurs il faut dire que lui-même, s’il est un physicien remarquable, ne fut jamais un astronome stricto sensu, et en particulier pas un observateur. Le spectrographe qu’il fit construire à Jean-Paul Zahn ne fut jamais d’une réelle utilité. Et nous nous racontions en riant sous cape l’aventure de l’une de ses étudiantes qu’il avait envoyé observer à Toulouse une étoile passant à midi au méridien. . . Dès 1960, Évry Schatzman s’était rendu compte que l’IAP deviendrait rapidement trop petit pour nous accueillir dans des conditions décentes et il avait projeté de faire construire un bâtiment sur le campus de l’Observatoire à Meudon. Le projet avait mis plusieurs années à prendre corps, comme souvent en France. Entre temps, des techniciens et des chercheurs comme moi-même avions déménagé en banlieue pour nous rapprocher de notre futur lieu de travail dont nous n’allions prendre possession que dix ans plus tard. L’Observatoire de Meudon devait nous recevoir avec une équipe de physiciens théoriciens et expérimentalistes travaillant dans le domaine de la physique atomique et moléculaire. Ils désiraient s’insérer dans un environnement

Les années soixante-dix : en marge de la Science

astrophysique afin de calculer les données nécessaires à la compréhension des spectres des étoiles. Plusieurs jeunes chercheurs du laboratoire d’Alfred Kastler rejoignirent ce groupe (ou plutôt des chercheuses, car là aussi il y eut un gros engouement féminin). D’autres, constituant « le groupe d’astrophysique relativiste » rallièrent également notre département, tels Brandon Carter, un physicien anglais, et Sylvano Bonnazola, un transfuge du « Fermi Lab » en Italie. Le premier fut, entre autres choses, à l’origine de ce que l’on a appelé le « principe anthropique » qui soulève encore aujourd’hui beaucoup de controverses (Encadré 6.1) ; et le second, physicien aux multiples facettes aussi bon théoricien qu’expérimentateur, mit sur pied une expérience de détection des « ondes gravitationnelles »* dont l’énorme cuve en aluminium occupa pendant plus d’un quart de siècle le sous-sol de notre bâtiment. Il l’avait montée après que l’américain Weber eût annoncé à grand bruit avoir réussi à détecter de telles ondes dans son laboratoire de Chicago. Quelques années plus tard, on découvrit qu’il s’agissait en fait des vibrations du métro voisin. . . Bien que n’ayant donné aucun résultat, cette expérience prépara l’ère des expérimentations suivantes dans laquelle de nombreux chercheurs de l’observatoire allaient s’impliquer plus tard.

Encadré 6.1. Le principe anthropique (du grec anthropos, homme, à ne pas confondre avec le principe entropique qui s’occupe de l’entropie !) propose que l’Univers est tel qu’il est parce que, s’il était différent, nous ne serions pas là pour en rendre compte. C’est dans un sens très juste car on peut aisément montrer que si certains paramètres comme la densité de l’Univers ou les niveaux d’énergies des noyaux de carbone et d’oxygène n’avaient pas exactement les valeurs qu’ils ont, l’Univers n’aurait pas pu se structurer et la vie y naître. Ce principe donne lieu à deux interprétations : le principe anthropique « fort », métaphysique et religieux, qui postule qu’une volonté est intervenue dans la formation de notre Univers, et le faible, qui énonce simplement que notre univers est l’un des multiples qui auraient pu exister et qu’il n’est pas improbable a posteriori. D’ailleurs l’une des variantes de ce principe faible propose qu’il existe effectivement de multiples univers, mais que nous vivons dans le seul qui pouvait nous engendrer. Comme il n’y a pas de communication possible entre ces univers, l’idée reste spéculative. . .

183

184

Des quasars aux trous noirs

Très rapidement nous allions retrouver à Meudon une situation d’engorgement presque comparable à celle de l’IAP. Évry Schatzman avait heureusement vu grand. Il avait prévu entre autres une bibliothèque et un amphithéâtre devant servir à l’ensemble de l’observatoire. Mais lorsqu’on en fut à la phase de construction, celui-ci s’était entre temps tellement développé (sa population avait décuplé depuis les années cinquante grâce à la politique gaullienne) qu’il y avait de place que pour un seul bâtiment tout au bout du campus. Ce qui explique pourquoi la bibliothèque et l’amphithéâtre sont curieusement situés aux confins de l’observatoire. C’est un euphémisme de dire que le bâtiment du LAM (pour « laboratoire d’astrophysique de Meudon ») n’est pas une réussite architecturale. Il est tout simplement affreux. Et je ne crois pas que ce soit seulement dû à la nécessité de faire le moins cher possible comme c’est souvent le cas pour ce genre de construction ; je pense que l’incurie de l’architecte y était pour beaucoup. C’est un bloc carré à deux niveaux – car il est interdit de dépasser cette hauteur dans les bois de Meudon – avec une cour centrale au milieu de laquelle trônent trois ifs rachitiques. Un couloir court le long des quatre côtés pratiquement indiscernables, posant un véritable casse-tête à nos hôtes de passage. Et il n’est pas rare d’y rencontrer un visiteur désespéré ayant déjà fait deux ou trois fois le tour du bâtiment qui n’arrive pas à se repérer. L’entrée principale étant reléguée sur le côté et au bout pour des raisons pratiques, on rentre en général non pas par le grand hall d’accueil mais par le quai de déchargement où attendent d’être embarqués les vieilles chaises et les bureaux destinés à la casse, où l’on déverse l’azote liquide et où l’on emmagasine les instruments devant partir en mission. Ceux qui découvrent pour la première fois notre bâtiment sous cet angle en reçoivent en général un choc. Et surtout, l’édifice a révélé rapidement des failles techniques graves. Ainsi la terrasse qui surmonte l’amphithéâtre n’était pas étanche et il n’a pas fallu moins de trois réfections pour arriver à ce que l’eau ne dégouline plus au-dessous, détériorant en quelques mois murs et plafonds et donnant à ce haut lieu de la connaissance l’aspect d’une vieille bâtisse épargnée de la destruction pour une raison incompréhensible. Mais j’ai vu pire dans certains laboratoires de recherche et, maintenant d’ailleurs, le LAM est devenu très supérieur à ce qu’il était juste après sa construction. Les escaliers, les portes d’entrée, les murs et les plafonds, l’électricité, bref presque tout, ont été refaits, les interrupteurs ficelles, que

Les années soixante-dix : en marge de la Science

seules les personnes de plus d’un mètre quatre-vingts pouvaient atteindre (chacun inventait un moyen pour y parvenir, et l’un de mes collègues y avait suspendu un hareng saur) ont été remplacés par des interrupteurs muraux classiques. . . Heureusement, l’environnement fait oublier toutes les disgrâces, avec ses hautes frondaisons, ses immenses pelouses (on s’est disputé longtemps entre « écolos » et moins écolos pour savoir s’il fallait les tondre ou les laisser dans leur état sauvage ; une solution de compromis a finalement été trouvée par le jardinier-chef, elle est en fait très réussie). Ses allées cavalières (hélas fermées maintenant car trop dangereuses avec leurs arbres centenaires), son étang avec ses foulques, ses canards, ses mouettes et ses énormes carpes cinquantenaires gorgées de pain rassis, le « Château » et sa terrasse monumentale qui domine la « perspective de Meudon ». . . C’est dans ce cadre splendide, dont je ne me suis jamais lassée que s’est écoulée ma recherche depuis cette époque, à l’exception de quelques années pendant lesquelles je suis retournée à l’IAP et de quelques mois passés par-ci par-là à l’étranger. Lorsque nous sommes arrivés à l’Observatoire de Meudon, il comptait déjà près de cinq cents chercheurs et techniciens. C’était et c’est resté l’un des deux ou trois plus grands observatoires du monde, dépassé à l’époque seulement par celui de Poulkovo en Union soviétique. Les recherches y étaient déjà très diversifiées. Les plus anciens groupes étaient un laboratoire de spectroscopie et ceux de radio-astronomie et du Soleil que j’ai déjà mentionnés. Il s’était également développé sous l’impulsion de Jean-Claude Pecker un groupe de recherche sur les atmosphères stellaires ; sous celle de Jean-Louis Steinberg et Jean-François Denisse un groupe de radio-astronomie spatiale et avec Audouin Dollfus un groupe de planétologie. Ces groupes constituèrent dans les années soixante les embryons des départements actuels de l’Observatoire. Tous les corps de bâtiments existaient donc en 1971 lors de notre arrivée. À l’entrée, les « communs », anciennes écuries du château restaurées plus tard, abritaient la radio-astronomie, un dépôt de livres et l’administration. En plus des communs, le LAM, la radio-astronomie spatiale, le centre de calcul numérique – nerf de la guerre – et la cantine, disposent de bâtiments en dur. Les autres sont construits en « préfabriqués » et, comme toujours, ils subsistent encore et hébergent plusieurs laboratoires bien qu’ils aient été destinés à être rapidement démolis. Déjà en ce temps, on regardait peu le ciel à Meudon. Les observations nocturnes étaient quasi impossibles à cause de

185

186

Des quasars aux trous noirs

Figure 6.2. Le château à la fin du xixe siècle, vu de la terrasse nord, après sa transformation par Janssen.

Figure 6.3. La Grande Lunette en 1896.

la mauvaise qualité du ciel due aux éclairages publics de Paris. En revanche, des observations solaires systématiques étaient effectuées à la grande « tour solaire » qui domine l’Observatoire de ses 35 mètres (destinés à éviter la turbulence de l’air près du sol), et elles le sont encore avec le « spectro-héliographe » qui permet d’obtenir des images dans la raie Hα* du Soleil chaque fois que celui-ci veut bien se montrer. L’observatoire dispose en outre d’un télescope d’un mètre servant aux observations des planètes et d’un télescope de soixante centimètres sur une monture équatoriale* consacré aux travaux pratiques des étudiants. Mais son joyau, la « grande lunette », n’est plus utilisée depuis les années soixante-dix. Elle avait été employée pendant près d’un siècle à photographier les surfaces planétaires et à suivre les orbites des étoiles doubles dans le but de les « peser », une discipline indispensable à la compréhension de la physique stellaire. L’Observatoire de Meudon avait été créé par Jules Janssen en 1876. Janssen était connu pour ses travaux en spectroscopie et ses études du Soleil. Il restaura le château incendié pendant la guerre de 1870 et il fit ériger au-dessus une coupole et une grande lunette de seize mètres de focale qui fut pendant longtemps la plus grande d’Europe et la troisième du monde (Figures 6.2 et 6.3). J’ai lu un jour dans le journal local de Meudon que cette coupole était « une véritable verrue au-dessus de la ville ». J’espère que ce n’est pas l’opinion de la majorité des meudonnais mais il est vrai qu’elle avait un air assez misérable, surtout depuis la grande tempête de Noël

Les années soixante-dix : en marge de la Science

1999 qui en a arraché une partie. La grande lunette a pourtant un passé glorieux et encore récent : elle servait par exemple depuis les années soixante à mesurer la course des satellites artificiels. La lunette est maintenant abandonnée car son seul entretien coûterait une fortune et son triste état ne permet plus de la montrer aux visiteurs, ni même d’ouvrir la coupole. Une remise en état est en cours grâce aux Monuments historiques, on entrevoit déjà les feux de la coupole de cuivre refaite et l’on peut espérer pouvoir montrer de nouveau la lunette au public en 2009. L’existence d’une cantine sur place représenta un gros progrès pour nous qui arrivions de Paris où il nous fallait manger dans les restaurants des environs, forcément chers, ou bien à la cantine du CNRS, rue de l’Abbé-de-l’Épée, distante d’un bon kilomètre de l’IAP. Non seulement cette cantine était située dans des sous-sols assez sinistres, mais nous devions avant d’y pénétrer faire une longue queue qui serpentait souvent jusque dans la rue. Aussi la plupart d’entre nous préférions nous contenter d’un sandwich dans un café. Heureusement pour ceux qui restaient, quelques années après notre départ, l’IAP et le campus de Paris de l’Observatoire se dotèrent d’une cantine claire et fonctionnelle. Une amélioration considérable dans notre travail vint de la création du centre de calcul équipé d’une grosse machine IBM, puis Digital (un VAX). Non seulement nous n’avions plus besoin d’effectuer des voyages quotidiens entre Paris et Meudon pour déposer nos programmes et attendre le lendemain pour récupérer les résultats, mais nous trouvions de plus sur place l’aide d’informaticiens expérimentés. Ceci n’excluait pas bien entendu d’utiliser également pour les très gros calculs la machine IBM du Centre interrégional de calcul électronique (CIRCE) d’Orsay dont j’ai parlé.

Mai 68 et ses conséquences Mai 68 représenta une expérience extraordinaire pour ma génération, celle des vingt-trente ans. Tout a été dit sur le déferlement d’idées, sur les utopies et sur les espoirs suscités par ce mouvement. Sans parler du changement de statut de la femme lié à la contraception et bientôt à l’IVG, c’est toute la conception des relations sociales qui fut remise en cause, incluant les relations parents-enfants, le rapport au travail, aux loisirs et bien évidemment les rapports de couple. Je ne m’étendrai pas sur cette période bien qu’elle ait évidemment

187

188

Des quasars aux trous noirs

constitué une étape cruciale de mon existence, mais je décrirai plus loin les changements qu’elle a entraînés dans la recherche et l’enseignement supérieur. Le printemps et l’été 1968 furent exaltants. Nous discutions à perte de vue, persuadés de pouvoir transformer jusqu’aux modes de pensée. La recherche au sens strict fut quasiment abandonnée pendant quelques mois. Nous avions constitué des « commissions » chargées de réfléchir aux réformes. Je m’étais personnellement investie dans celle qui discutait des relations entre l’enseignement et la recherche – à l’époque j’étais encore enseignante à l’université – et se posait en particulier la question de la conciliation entre ces deux activités. Nous nous réunissions plusieurs fois par semaine et nous élaborions des textes (je me demande ce qu’ils sont devenus par la suite. . . ). Vladimir Kourganoff, un professeur de l’université d’Orsay, était notre mentor dans ces discussions. L’un des points cruciaux était de savoir si des enseignants du supérieur pouvaient se dispenser de faire de la recherche, se contentant de suivre fréquemment des formations et des écoles pour renouveler leurs connaissances. Nous étions assez favorables à une telle solution pour les enseignants du premier cycle, estimant que l’important à ce niveau était d’être un bon pédagogue d’une totale disponibilité pour ses étudiants. Presque quarante ans plus tard, ce problème est encore loin d’être réglé. . . Il m’a toujours tenu à cœur, probablement à cause du souvenir amer de mes propres études où j’avais été perdue dans l’anonymat d’amphis immenses au point que je décidais de m’abstenir de suivre les cours ; et à cause de mon expérience ultérieure d’enseignante au cours de laquelle j’avais constaté l’impact considérable que pouvaient avoir pour les étudiants des discussions directes avec les enseignants. Je m’étais séparée en 1967 de mon mari Pierre Souffrin. Pierre était descendu à Nice avec un groupe d’autres jeunes collègues, dont François Roddier, Michel Hénon, Jean-Paul Zahn, Philippe Delache, à l’instigation de Jean-Claude Pecker qui voulait revivifier l’Observatoire de Nice stagnant depuis un demi-siècle sous une direction autoritaire. Je me remariai au début des années soixante-dix. La fille de mon mari vint nous rejoindre en 1973 et pratiquement en même temps, je mis mon fils au monde. J’avais dû rester six mois sans sortir de chez moi, couchée la plupart du temps. Mais je travaillais malgré tout car deux de mes anciennes « thésardes », Monique Joly et Danielle Alloin, venaient me voir très souvent et nous pouvions ainsi continuer notre collaboration. Nous étudions à l’époque les « populations stellaires » dans les galaxies de

Les années soixante-dix : en marge de la Science

Seyfert, un sujet devenu très actuel, ainsi que les abondances des éléments dans les nébuleuses HII. Je retournai au travail un mois à peine après mon accouchement et ce fut certainement une grande erreur car j’étais encore très fatiguée et j’aurais dû consacrer plus de temps à mes enfants. D’autant que passer d’une famille de deux à quatre personnes n’était pas chose simple. Un changement important était aussi intervenu dans mon existence avec mon passage de l’enseignement supérieur au CNRS. La réforme des études consécutive à mai 68 n’y était pas étrangère. En 1969, mon université de Jussieu (l’ancienne Sorbonne) se scinda en deux, Paris 7 la « gauchiste » où se retrouva la majeure partie de mon laboratoire, et Paris 6, plus conventionnelle. On décida à Paris 7 que l’on devait changer régulièrement d’enseignement pour éviter de se « scléroser ». Je fus donc affectée à la mécanique et à l’électricité de la deuxième année de DEUG, que l’on appelait MP2. Nous étions plusieurs astronomes à débuter dans cet enseignement au sein d’une nouvelle équipe dirigée par un jeune professeur, Jean-Marc Levy-Leblond (qui s’est orienté plus tard vers l’épistémologie). Ce n’était que justice, d’ailleurs, car enseigner sa propre discipline comme nous le faisions depuis plusieurs années est particulièrement aisé, et d’autres astronomes attendaient notre place. Mais cette idéologie qui s’est pérennisée jusqu’à maintenant a ses inconvénients. C’est que les enseignants, devant changer de discipline tous les trois ans, s’évertuent à créer de nouveaux cours et lorsqu’ils commencent à peine à les avoir rodés, ils sont obligés de les abandonner. De ce fait, ils s’épuisent à essayer de maintenir une activité de recherche parallèle. Un « cycle » plus long serait plus efficace. Dans l’effervescence de l’après 68, nous étions pleins d’idées nouvelles que nous désirions ardemment mettre en œuvre. Par exemple, nous proscrivions le travail individuel des étudiants au bénéfice d’un travail de groupe, même pendant les examens, en vertu de la doctrine que dans la vie il faut s’entraider et savoir s’insérer dans une équipe. Belle utopie ! C’est ainsi qu’en 1969 je fus amenée à surveiller seule un examen qui se passait dans trois salles à la fois, avec le droit pour les étudiants de communiquer entre eux. Ajoutez à cela qu’on était en pleine grève du service de nettoyage et que les tables étaient couvertes de plusieurs millimètres de poussière et vous aurez une idée de l’ambiance survoltée régnant pendant ces quelques heures. C’est en partie au cours de cet examen que, dépassée par les évènements, je décidais de changer de corps et de me consacrer à temps plein à la recherche. Quelques

189

190

Des quasars aux trous noirs

années plus tard, je repris un enseignement mais de troisième cycle que j’ai continué jusqu’à ces dernières années. Il n’était pas facile de changer de corps et cela ne l’a jamais été, même plus tard lorsque le ministre Claude Allègre2 affirmait haut et fort que des passerelles entre la recherche et l’enseignement avaient été créées, que des milliers d’enseignants allaient pouvoir faire de la recherche à temps plein pendant plusieurs années s’ils le désiraient et que des chercheurs pourraient passer dans l’enseignement supérieur (il leur était même fortement conseillé de le faire). J’en ai connu des deux sortes, qui ont désiré pendant toute leur existence emprunter ces passerelles mais qui n’y sont jamais parvenus. J’ai eu la chance de trouver une collègue chercheuse qui voulait devenir enseignante, Claude Camhy-Val (elle en a été très heureuse plus tard), ainsi que plusieurs personnes acceptant d’appuyer notre démarche au sein de diverses commissions, pensant que notre exemple pourrait faire jurisprudence. Ce qui a d’ailleurs été le cas pour deux ou trois autres échanges mais malheureusement pas plus. Les deux personnes à qui je dois principalement cette réussite furent Henri Van Regemorter (dont j’ai parlé, disparu depuis) et Alain Omont, un transfuge du laboratoire Kastler devenu radio-astronome. Je leur en ai été reconnaissante toute ma vie. Car bien qu’il s’agît d’un simple échange, que nous fûmes toutes deux au même niveau, dans le même laboratoire dépendant de la même université, il fallait que le jour-même où ma démission était enregistrée, la nomination de ma collègue le fût aussi. C’était un casse-tête pour l’administration française. Il me fallut démissionner de la fonction publique (car au CNRS on était alors seulement contractuel), et je dus d’ailleurs m’y reprendre à trois reprises avant que ma démission fût dûment enregistrée car apparemment c’était considéré comme un acte déraisonnable et incompréhensible. Finalement je fus nommée « chargée de recherches » au CNRS en 1973 et en 1974 « directeur de recherches » (que l’on appelait à l’époque « maître de recherches », le nom de directeur étant réservé à la catégorie supérieure)3. 2

Je lui reconnais pourtant quelques phrases géniales telles que « la France aurait besoin d’informaticiens parlant anglais, et on va fabriquer des bergers parlant breton ». 3 C’est en effet par un simple glissement sémantique (qui curieusement a satisfait les chercheurs comme les enseignants) que quelques années plus tard les « attachés » de recherche sont devenus des « chargés », les « maîtres » des « directeurs de deuxième classe » et les « directeurs » des « directeurs de première classe ». De même, dans l’enseignement supérieur les « maîtres-assistants »

Les années soixante-dix : en marge de la Science

Quoiqu’il en soit, je dois dire que là aussi j’avais eu beaucoup de chance car s’il n’était pas rare à cette époque de devenir directeur de recherches à 35 ans, cela fut quasiment impossible quelques années plus tard avec la raréfaction des postes et des promotions. La politique avait toujours représenté un pan important de ma vie sur lequel je fais l’impasse ici. Mais il faut tout de même mentionner que la recherche et l’enseignement supérieur, comme beaucoup d’autres secteurs, avaient été très secoués par le mouvement de mai 68 et il s’en était suivi des réformes fondamentales. La centralisation, la hiérarchie et la pédagogie avaient fortement été remises en cause. La réforme d’Edgar Faure avait essayé de pallier ces défauts dès 1969 en mettant sur pied une certaine autonomie des universités, avant que soient promulguées les grandes lois de décentralisation des années quatre-vingts. Il s’était développé en 1968, en astronomie, ce que certains avaient appelé avec un peu d’emphase « le mouvement de Meudon » qui s’était traduit par une série de réunions puis de décisions conduisant à une réforme radicale des structures de l’Observatoire et bientôt de la discipline tout entière. Les astronomes ont en effet souvent fait cavalier seul dans de nombreuses situations, manifestant ainsi leur goût d’indépendance, mais parfois aussi une absence de conscience politique générale, due à une situation un peu privilégiée par rapport aux autres sciences « dures » comme la physique. Les chefs d’établissement à vie furent balayés et remplacés par des instances élues, élisant elles-mêmes un directeur en leur sein, en général pour quatre ou cinq ans. Le « pouvoir » fut donc pris par des jeunes quadragénaires ou même des trentenaires. La discipline fut pavée par des « groupes spécialisés » issus de la base, qui jouaient dans chaque sousdiscipline un rôle d’animation en organisant des ateliers et des mini-congrès, et en tenant un rôle de consultant pour les décisions de programmes ou même de nominations. Beaucoup de ce qui a été mis en place à cette époque a subsisté et l’on ne peut plus imaginer maintenant des « mandarins » ayant un pouvoir absolu sur LEUR personnel et restant pendant trente ou quarante ans directeur de LEUR observatoire dont ils habitaient parfois les plus belles pièces, au détriment des locaux de travail surpeuplés. Mais beaucoup a été sont devenus des « maîtres de conférence », les « maîtres de conférences » des « professeurs de deuxième classe », etc., tout cela naturellement sans que le salaire ni les rôles aient été le moins du monde modifiés.

191

192

Des quasars aux trous noirs

également abandonné. Par exemple les « groupes spécialisés » disparurent assez rapidement au bénéfice d’organismes centralisés. Ils sont réapparus depuis peu sous une autre forme, avec exactement le même rôle : on les appelle aujourd’hui des « programmes nationaux ». Mais à la différence du passé, ils sont nommés par les instances dirigeantes et non élus par la base. Le pendule est revenu dans l’autre sens... C’est également à cette époque qu’à l’instigation de JeanFrançois Denisse fut créé l’INAG (Institut national d’astronomie et de géophysique) dans le but de mieux gérer les grands moyens dont se servent les astronomes et les géophysiciens. C’est un hasard si cette création eut lieu en 1969 car elle allait plutôt à l’encontre de « l’esprit de mai ». Denisse avait en fait œuvré pour la création d’un INA ne comportant pas la composante géophysique et qui ne fut pas accepté par le gouvernement. Ensuite, il y eut toujours une lutte d’influence plus ou moins larvée entre la communauté des astronomes et celle, beaucoup plus puissante, des géophysiciens. Souvent nous estimions être lésés par rapport à eux que ce soit dans les créations de postes ou dans les attributions de crédits. Et ce n’est pas la nomination en 1997 du géophysicien Claude Allègre comme ministre de l’Éducation nationale (dont les universités et le CNRS dépendaient) qui arrangea les choses car il ne nous a jamais portés dans son cœur. Il est vrai que les géophysiciens peuvent à juste titre revendiquer être bien plus proches que nous des problèmes de société comme l’environnement et c’est sans doute une justification pour favoriser leur expansion au détriment de la nôtre. L’INAG fut transformé en INSU (Institut national des sciences de l’Univers) en 1985 mais sans changement fondamental de ses attributions. En tout cas, l’existence de ce grand organisme constitue certainement l’un des privilèges de notre discipline qui nous a permis jusqu’à maintenant de résister mieux que d’autres aux politiques malthusiennes des gouvernements successifs. Non seulement notre liaison structurelle avec les géophysiciens dans l’INAG a été une source de conflit, mais nous étions un certain nombre à penser qu’elle n’était pas souhaitable car notre démarche de pensée est plus proche de celle des physiciens que des géophysiciens. Peut-être avions-nous raison à l’époque mais cela n’est plus vrai maintenant. L’envoi de sondes spatiales dans le système solaire a rapproché l’astronomie de la géophysique. De plus, elle fait réellement partie des « sciences de l’Univers » car, avec l’afflux des données d’observation, il est rare de pouvoir réduire l’ensemble des observations à un seul phénomène et expliquer avec une ou deux

Les années soixante-dix : en marge de la Science

lois de la physique les propriétés d’une étoile, d’un quasar ou d’un nuage interstellaire comme c’était le cas lorsqu’on ne disposait que d’informations grossières. Par exemple, l’étude des étoiles et de leurs atmosphères ou celle des quasars s’effectue maintenant par l’observation dans toutes les bandes spectrales de divers phénomènes aux intrications multiples. Finalement, autre similitude avec la climatologie et la météorologie, la science du chaos est devenue partie intégrante de l’astronomie et les simulations numériques y sont indispensables. Je suis d’ailleurs souvent exaspérée par ceux qui invoquent en astrophysique – à l’appui de leurs modèles une simplicité qui serait celle du « rasoir d’Occam » – chercher toujours la solution « la plus simple », c’est-à-dire celle faisant intervenir le moins de théories possibles. L’évolution des galaxies ou des quasars qui est conditionnée essentiellement par leur environnement, n’obéit certainement pas à un principe de simplicité, ni les multiples phénomènes dont ils sont le siège et qui font appel à de nombreux domaines de la physique en même temps. Les tenants du rasoir sont donc obligés d’ajouter à leurs modèles de nombreux paramètres phénoménologiques arbitraires leur permettant de rendre compte des observations dans le plus grand détail, mais ils n’en n’ont cure. Cette décennie fut également celle où la décentralisation s’imposa en astronomie en parallèle avec celle des universités. L’Observatoire de Nice s’était développé le premier sous l’impulsion de Jean-Claude Pecker, bientôt remplacé par de jeunes directeurs, Philippe Delache puis Jean-Paul Zahn qui le dirigea pendant une dizaine d’années. Il devint rapidement le deuxième observatoire français. Jean-Claude Pecker lui-même avait mal supporté les évènements de 68, ne les ayant pas vécus et par conséquent pas bien compris car il se trouvait alors en Australie, et il préféra remonter à Paris pour professer au Collège de France. Ensuite ce fut le tour de l’Observatoire de Toulouse avec le Pic du Midi dont Jean-Paul Zahn prit la direction en 1981. Il fut à l’origine de son implantation sur le campus universitaire et favorisa plus tard son regroupement avec les géophysiciens. Puis l’Observatoire de Grenoble fut créé sous l’impulsion d’Alain Omont, en relation avec l’observatoire millimétrique du plateau de Bures, et il devint un vivier de jeunes chercheurs très dynamiques. L’Observatoire de Strasbourg se spécialisa dans la saisie et l’archivage des résultats d’observations de plus en plus nombreuses et il est maintenant l’un des plus grands centres de données astrophysiques au monde. Une vie scientifique très active se développa

193

194

Des quasars aux trous noirs

ainsi dans tous ces observatoires de province, favorisée par une politique de recrutement volontariste.

Situation de la recherche extragalactique en France durant ces années À la lecture des chapitres précédents et à celle du chapitre suivant, il saute aux yeux que nous souffrions en France d’un déficit important dans le domaine qui fait l’objet de ce livre par rapport à d’autres pays comme les États-Unis et le RoyaumeUni. Je n’ai mentionné quasiment que des chercheurs de ces deux pays pour toutes les grandes découvertes. C’était moins flagrant mais néanmoins également vrai, par rapport à l’Italie, les Pays-Bas et l’Allemagne, et par rapport à l’URSS pour la cosmologie. Ce constat pouvait s’appliquer de façon générale à tout le domaine de l’astronomie extragalactique. Celui-ci rassemblait seulement sept pour cent des astronomes, contre une bien plus grande proportion dans les pays mentionnés plus haut, vingt-cinq pour cent aux États-Unis et dix-sept pour cent en Europe. Et surtout il était clair que la recherche extragalactique et la cosmologie allaient subir dans d’autres pays un développement fulgurant au cours de la décennie suivante : à titre d’illustration, la moitié du rapport du National Research Council aux États-Unis pour la « stratégie de l’astronomie spatiale des années 1980 » était consacrée à l’astronomie extragalactique et à la cosmologie. À la fin des années soixante-dix, on m’avait demandé de faire un rapport sur l’état des recherches en France dans le domaine extragalactique. Voici quelques extraits de mon rapport : « La France accuse dans ce domaine un retard considérable, qui s’accroît avec le temps. . . Les causes de cette carence sont assez complexes. Le manque de télescope optique de grand diamètre4 est certainement une cause importante mais insuffisante. . . Mon sentiment est que l’incitation en France à aborder ce sujet qui n’est pas de ceux traditionnellement traités par les astronomes français a été notoirement insuffisante. . . Tandis qu’on voit les productions américaines et anglaises augmenter comme il est naturel après la mise en service de plusieurs grands instruments et de récepteurs pour flux très faibles, on voit la production européenne et en particulier française, s’effondrer par suite de l’inadaptation des moyens actuels aux objectifs. . . ». Les causes de notre 4

Le 3,60 m d’Hawaï n’était pas encore en service.

Les années soixante-dix : en marge de la Science

retard s’expliquaient par un manque de théoriciens, une parcellisation des thèmes et un cloisonnement des équipes, accompagnés d’une redondance des sujets – plusieurs petites équipes développant des programmes similaires alors qu’un regroupement aurait été indispensable – un manque d’ingénieurs informaticiens (il est endémique), une absence de relations avec les physiciens, peu d’interactions avec les équipes spatiales, des structures trop lourdes et centralisées faisant avorter les initiatives un peu risquées et nous conduisant surtout à emboîter le pas des autres (ce qui est particulièrement pénalisant lorsqu’il s’agit de promouvoir un domaine de recherche pratiquement inexistant). Enfin et surtout le manque de détecteurs adaptés aux objets très faibles. Alors qu’on atteignait déjà les magnitudes 21 ou 22 en spectrographie aux États-Unis et en Angleterre, nous étions limités en France à la magnitude 17 : nous n’avions donc accès qu’au centième des quasars observables dès cette époque. Et l’on commençait à peine à l’ESO à atteindre la magnitude 19. De plus, on avait développé en France essentiellement l’imagerie au détriment de la spectroscopie (or on a vu que les astronomes français possédaient l’un des meilleurs savoir-faire au monde dans l’analyse des données spectroscopiques). Naturellement ce constat était pondéré par quelques aspects positifs, comme la maîtrise de certaines techniques d’observation et des méthodes de « modélisation », et l’existence de programmes de longue haleine. Beaucoup des problèmes que je stigmatisais à l’époque ont été résolus depuis et je constate en relisant ce rapport que les solutions que j’avais proposées (mais pas seulement moi, d’autres également), ont été prises en compte et que la situation s’est largement rétablie depuis. Grâce à des programmes bien ciblés, la France a maintenant le premier rang dans certains domaines de cosmologie observationnelle et théorique, dans plusieurs types d’étude des galaxies comme celle de leur contenu moléculaire. Dans le domaine des quasars et des noyaux actifs de galaxies, la France est cependant loin d’être en tête. Le « leadership » appartient plus que jamais aux Anglo-Saxons et nous sommes dépassés par d’autres astronomes européens comme les Italiens et les Allemands, sans parler naturellement des Britanniques. Qui plus est, ma propre équipe s’est érodée au cours du temps. Plusieurs de ses membres ont quitté le sujet ou sont partis sous d’autres cieux. Ce n’est pas un mal en soi, au contraire, mais ils n’ont pas été remplacés et nous manquons dramatiquement de « sang neuf », comme on dit. La faute en incombe

195

196

Des quasars aux trous noirs

avant tout à moi-même qui n’ai pas eu assez de pugnacité dans les années de vaches maigres où il aurait fallu – et où il faut encore – se battre vigoureusement pour obtenir des postes pour les jeunes docteurs, ou qui n’ai pas su me reconvertir à des aspects plus en relation avec les grands projets, comme l’observation spatiale. Cependant d’autres équipes se sont développées sur des sujets un peu différents. Et n’est-ce pas précisément une nécessité de la recherche que de ne pas rester figée mais au contraire d’évoluer et de se renouveler ? Le manque de détecteur adéquat pour les quasars m’avait amenée vers la fin des années soixante-dix à demander avec insistance à l’INSU de doter la communauté française d’un spectrographe permettant d’observer les objets faibles. La réponse fut à peu près la suivante : « si vous en voulez un, on le financera, mais il faut le faire vous-même, car nous avons d’autres chats à fouetter en ce moment ». Car c’était l’époque de la mise en service du télescope de 3,60 m de Hawaï sur lequel il était d’ailleurs prévu plus tard d’implanter un spectrographe pour objets faibles. Anne-Marie Dumont et Michel Dreux, qui avaient construit à l’IAP l’appareil à mesurer les durées de vie des atomes dont j’ai parlé dans le deuxième chapitre, acceptèrent de se lancer dans l’aventure. Un spectrographe appelé Astragal fut construit au CNRS de Meudon. L’ensemble vit le jour en 1983 et fut expérimenté sur le télescope de 2 mètres du Pic du Midi. Il devait fonctionner avec un détecteur à comptage de photons* mais entre temps, les CCD* s’étaient considérablement développés. Ils étaient d’un emploi plus simple et on décida de les utiliser avec le spectrographe qui n’avait pas été optimisé pour ce type de détecteurs et perdait ainsi de l’efficacité. Il fut finalement décidé de l’abandonner, d’autant qu’un spectrographe extrêmement performant construit par le britannique Bocksenberg avait entre temps été mis en service à l’ESO sur le télescope de 3,60 m (alors que celui du Pic n’avait que deux mètres de diamètre). Plus tard, un spectrographe appelé Carelec d’une conception plus simple fut mis en service sur le télescope d’1,93 m de l’Observatoire de Haute-Provence et utilisé avec succès pour l’étude des noyaux de galaxies et les quasars relativement brillants. Anne-Marie se reconvertit au transfert radiatif appliqué aux noyaux actifs de galaxies et nous avons eu ensuite une longue et fructueuse collaboration. Nous avions effectué ensemble quelques missions à l’Observatoire du Pic du Midi pour la mise en service d’Astragal, et j’avais pu constater une fois de plus que l’observation n’est pas une sinécure. Non seulement la mise en service d’un instrument nouveau demande de faire

Les années soixante-dix : en marge de la Science

face en permanence à des pannes et des situations inattendues, mais les conditions de vie au Pic n’étaient pas des plus faciles à cette époque. Par exemple, nous fûmes retenus plusieurs jours au sommet à cause du vent qui interdisait au petit téléphérique de circuler. Cette histoire montre bien que l’astronomie française souffrait alors de deux graves défauts : dispersion des efforts et trop grande ambition des projets. Ces défauts ont été en partie éradiqués par l’organisation mise sur pied au cours de ces vingt dernières années, avec les « colloques de prospective », les « programmes nationaux », la « Commission des spécialistes d’astronomie ». Mais comme je l’ai dit au début du livre, cette organisation très planifiée a aussi pour effet d’inhiber certaines initiatives originales et, de façon plus générale, de mettre sous le boisseau certains sujets ne rentrant plus dans les « thèmes prioritaires ». Il faudrait trouver une solution intermédiaire. . . Pour terminer ce chapitre sur une note nostalgique, la figure 6.4 montre la photo de notre équipe des « noyaux actifs de galaxies » (l’équipe NAG comme nous l’appelions) prise lors d’une réunion de travail que nous avions tenue en 1983 dans le château de Chamarande, dans la forêt du même nom près de Paris. Ce magnifique édifice du xviie siècle était à l’époque en réfection et on y louait des chambres et des salles de réunion à des prix très modiques pour en payer la rénovation. Nous désirions nous réunir dans un lieu agréable, pas trop cher, sans être sans cesse interrompus comme c’était immanquablement le cas si nous restions dans notre laboratoire,

197

Figure 6.4. Notre petite équipe des NAGs en 1983 à Chamarande. Au premier rang, de gauche à droite : Guy Mathez, Danielle Alloin, qui a été pendant de nombreuses années « directeur local » au Chili à L’ESO, Monique Joly, avec qui je collaborais lontemps, Catherine Boisson (qui venait juste de nous rejoindre). Au deuxième rang, de gauche à droite : Laurent Nottale, qui inventa plus tard la « relativité d’échelle », Anne-Marie Dumont, moi-même, Grazyna Stasinska, qui quitta le sujet pour se consacrer aux nébuleuses planétaires et avec qui j’ai écrit en 1985 un livre sur les quasars, Didier Pelat, qui se consacra beaucoup à l’enseignement par la suite, John Tully, un transfuge de Nice, le seul qui ne fût pas dans notre laboratoire, et Daniel Pequignot, qui lui aussi s’orienta vers les nébuleuses planétaires, enfin, derri`re tout le monde, Jean Clavel, qui choisit de vivre à l’étranger et codirigea en particulier l’équipe du télescope International Ultraviolet Explorer à Madrid.

198

Des quasars aux trous noirs

par des coups de téléphone, des telex (fax et courriels n’existaient pas encore), des sollicitations variées et la vie de famille. . . Cela fut, je pense, la période la plus conviviale et la plus heureuse de ma carrière scientifique. Et l’on peut constater que la parité hommes-femmes était strictement respectée dans cette équipe bien avant que ce fût un thème à la mode. Plusieurs d’entre nous avions été hébergés également pour deux ou trois réunions de travail dans la maison de campagne de Jean-Claude Pecker à l’Île d’Yeu, où nous essayions de mettre sur pied un catalogue rassemblant les principales propriétés des noyaux actifs de galaxies et des quasars. Nous espérions sans doute sur l’air marin qui nous aiguisait l’appétit allait également stimuler nos cellules grises. Dans ce domaine il existait déjà un catalogue important, mis au point et actualisé en permanence par Philippe et Mira Veron5 . Il a été très utilisé jusqu’à l’heure actuelle, principalement pour y trouver la matière à des propositions d’observations, car il contient des renseignements fondamentaux sur chaque objet. Pour nous il manquait certaines informations spécifiques et nécessaires à nos études, comme les intensités des raies spectrales ou leur largeur. Notre catalogue vit le jour et contint un millier d’objets. Monique Joly l’actualisa pendant plusieurs années. Mais il aurait fallu que plusieurs d’entre nous s’y consacrassent à temps plein pour en tirer des résultats nouveaux. Car c’était un travail énorme que de vérifier toutes les données ajoutées en permanence, de les corriger pour tenir compte des améliorations des instruments et d’uniformiser les différentes sources d’information. Le « catalogue d’Yeu », comme nous l’appelions, nous a servi pour quelques études mais il est devenu complètement obsolète dès qu’ont été publiés les résultats d’observations de grands ensembles d’objets réalisées d’une façon parfaitement homogène. Telle est la recherche qui progresse sans cesse mais rend désuet ce qui a été accompli à grand peine par le passé.

5 Mira se prénomme en réalité Marie-Paule. Son surnom lui a été donné car elle s’appelle de son nom de jeune fille « Cetty ». Alors qu’elle effectuait un stage à l’Observatoire de Haute-Provence dans le cadre de ses études, le nom figurant sur la porte de sa chambre étant « M. Cetti », elle avait été surnommée Mira Ceti (« la Merveilleuse de la Baleine », du nom du prototype d’une catégorie d’étoiles variables).

Chapitre 7

Les années soixante-dix : retour à la Science Revenons maintenant à la science et aux quasars. Nous étions rendus au seuil des années soixante-dix quand il était devenu clair que quasars, galaxies de Seyfert et radiogalaxies participaient tous d’un étrange et même phénomène, extraordinairement puissant et en même temps localisé dans un site incroyablement petit. Mais quel phénomène ? Il fallut dix ans encore pour le comprendre ou plutôt pour en convaincre le monde. Pour suivre l’évolution d’une science, il n’y a rien de mieux que de consulter les livres et les articles de revue publiés sur le sujet au cours des ans. Une bonne demi-douzaine de livres concernant les quasars avaient été publiés dans les années suivant immédiatement leur découverte. Puis le rythme se ralentit et même s’arrêta complètement pour ne reprendre qu’une dizaine d’années après. Ce long silence traduit la profonde perplexité des spécialistes et l’existence de nombreuses controverses. La recherche continuait pourtant activement comme le montrent les comptes-rendus des colloques qui se tinrent pendant cette décennie. Pendant toute cette période, la pensée dominante fut que les quasars recevaient leur énergie d’une énorme étoile d’un milliard de masses solaires. D’autant qu’on avait découvert entre temps l’existence des pulsars et, comme on s’était rendu compte que la rotation était un moyen de stabiliser une telle étoile, on avait inventé les « pulsars géants ». Rien ne peut mieux attester la prégnance de cette opinion que de montrer la photo d’un congrès qui se tint à Cambridge en 1971 sur « les étoiles supermassives » pour fêter les soixante ans de Fowler (Figure 7.1). Elle permet de retrouver beaucoup des personnages que j’ai mentionnés au cours des chapitres

200

Des quasars aux trous noirs

Figure 7.1. Le congrès de Cambridge sur les étoiles supermassives en 1971, célébrant les soixante ans de Willie Fowler. On voit Margaret Burbidge au centre du premier rang, entourée par Willy Fowler à sa gauche et Fred Hoyle à sa droite. Sur sa droite, après Bob Clayton (un brillant jeune spécialiste de nucléosynthèse qui est un peu tombé dans l’oubli depuis), Steven Hawking, terrassé déjà par la terrible maladie de Charcot qui le paralysait peu à peu. À gauche derrière lui se trouve Gef Burbidge. À la gauche de Fowler est assise la fille de Margaret et de Gef (elle n’est pas devenue astronome. . . ) et à côté d’elle, Martin Rees, puis à sa gauche Wallace Sargent. Avant-derniers au premier rang se tiennent sur la droite Brandon Carter et sur la gauche Donald Lynden-Bell. Il me semble qu’à part moi-même (au deuxième rang, entre Hoyle et Clayton) les seuls autres Français présents à cette école étaient Sylvie Vauclair, au troisième rang derrière Fowler, et Jean Audouze, derrière moi, au quatrième rang, tous deux spécialistes de physique nucléaire effectuant une thèse avec Hubert Reeves, ainsi que Marie-Hélène Ulrich, troisième en partant de la gauche au quatrième rang (en fait, elle ne vécut pratiquement jamais en France car après avoir effectué sa thèse sous la direction de Gef Burbidge, elle s’installa à l’ESO).

précédents, mais on y voit également de nombreux spécialistes de physique stellaire et de physique nucléaire (c’était l’époque où l’on étudiait intensément les réactions nucléaires à l’intérieur des étoiles). J’ai rencontré Steven Hawking assez récemment à l’Institute of Theoretical Physics de Santa Barbara en Californie où nous participions à un atelier de travail comme il s’en tient en permanence là-bas. Totalement paralysé à l’exception d’un pouce qu’il déplace sur le clavier d’un ordinateur, il doit peser une trentaine de kilos. Il trouve très rapidement sur son ordinateur des mots à l’aide desquels il écrit des phrases qui sont ensuite prononcées par une voix synthétique. Il intervient très souvent dans les séminaires et les discussions, tous l’écoutent en général avec la plus grande attention et on lui demande fréquemment son avis. Au cours de ce séjour, nous fûmes invités chez le directeur de l’Institut, Jim Hartle (c’est le quatrième à droite au premier rang) et cette photo trônait sur le mur de son

Les années soixante-dix : retour à la Science

salon. Nous avons passé en revue tous les personnages de la photo et lorsque je ne les reconnaissais pas, Steven Hawking, lui, s’en souvenait parfaitement. . . À mon avis, le congrès le plus important de la décennie sur le sujet eut lieu en juin 1977 à l’Institut Niels Bohr de Copenhague, à l’initiative de Sargent, Strömgren et Woltjer. Il ambitionnait de « continuer et actualiser le travail commencé pendant la conférence du Vatican ». Il se tint pendant la période où le débat sur les décalages anormaux atteignait son apogée. Les organisateurs espéraient donc qu’il « aide à délimiter le domaine de plus en plus petit restant pour les spéculations dogmatiques et biaisées (opiniated) sur la nature des quasars et des noyaux actifs de galaxies ». C’était ambitieux et, si ce fut réalisé, ce fut plutôt en dépit du congrès qu’à cause de lui. Car il contribua à imposer les vues orthodoxes au détriment des iconoclastes, grâce aux efforts des théoriciens pour apporter des explications aux phénomènes observés et en même temps à l’impossibilité pour les « non-orthodoxes » de proposer une alternative sérieuse. Les choses furent loin de se passer avec la politesse feutrée qui avait dû avoir cours au Vatican et la bataille d’Hernani ne fut sans doute pas plus houleuse que ce congrès. Un jeune astronome américain, Derek Wills, qui présentait une revue sur les « groupements, les paires, les anisotropies des quasars » censée montrer l’existence de décalages anormaux1 , résuma bien la situation. Nul doute qu’il n’y croyait pas lui-même mais, très fair-play, il concluait que les observations « pouvaient effectivement être expliquées en invoquant dans chaque cas des mélanges appropriés de décalages cosmologiques et non cosmologiques » car ce serait, disait-il, « une bonne solution qui permettrait au moins aux chercheurs de continuer à se parler entre eux ». De leur côté les organisateurs du congrès eurent apparemment du mal à en publier les comptes-rendus. Contrairement au congrès du Vatican, ceux-ci ne mentionnent pas les discussions qui ont suivi les exposés « à cause de la réticence des intervenants à révéler leur identité ». Les organisateurs se déclarèrent donc « contrits de ces lacunes et déplorèrent que leurs bonnes intentions de publication rapide aient été dépassées (overtaken) par les évènements ». . . Les comptes-rendus de Copenhague furent publiés dans la revue Physica Scripta, une revue internationale de physique expérimentale et théorique. Il faisait le point sur une dizaine 1

« Anisotropie » est pris ici dans le sens de « distribution non uniforme sur le ciel ».

201

202

Des quasars aux trous noirs

d’années de recherche. Naturellement il y eut de nombreux exposés sur les observations dans tous les domaines de longueurs d’onde (notons que les observations dans la bande des rayons X étaient à peine mentionnées alors qu’elles sont devenues cruciales maintenant). On y parla aussi des radiosources compactes, des lacertides (nous verrons plus loin de quoi il s’agit), de la physique des régions émettant les spectres de raies, d’évolution et de distribution des quasars et beaucoup de raies fines en absorption. Et pour la première fois, la théorie qui allait s’imposer pour expliquer la puissance des quasars y fut non seulement évoquée comme une hypothèse parmi d’autres mais développée par Martin Rees dans un contexte réaliste, celui de l’évolution des galaxies, et enfin prise au sérieux. On discuta beaucoup à Copenhague du problème des raies d’absorption fines. Avec l’augmentation de la sensibilité des instruments on commençait à détecter dans pratiquement tous les quasars de décalage z supérieur à 2 plusieurs systèmes d’absorption dont certains avaient des décalages beaucoup plus petits que celui du quasar. Quelques-uns les expliquaient par des galaxies interposées sur la ligne de visée mais, ce qui semait profondément la confusion dans toute cette affaire, c’étaient les BALs, ces raies en absorption très larges visiblement produites par du gaz éjecté par les quasars ainsi que je l’ai expliqué plus haut. La plupart des spécialistes pensaient encore que les absorptions fines étaient elles aussi produites par du gaz éjecté. Il fallait donc expliquer comment il pouvait être accéléré jusqu’à des vitesses proches de celle de la lumière et garder ensuite une vitesse parfaitement constante. L’hypothèse la plus couramment invoquée était celle de la « pression de radiation » exercée par le rayonnement intense du quasar sur la matière environnante. En dépit de nombreux efforts, elle était cependant impossible à concilier avec les observations2 . 2 Les photons transportent avec eux de la quantité de mouvement et, lorsqu’un faisceau lumineux frappe une surface réfléchissante il lui transfère une partie de ce mouvement. C’est cet effet qui oriente les queues des comètes dans la direction opposée au Soleil. Pour qu’il se produise, il faut que les atomes de gaz absorbent les photons de lumière, ce qu’ils sont capables de faire grâce à leurs transitions ou raies spectrales. Le gaz est alors accéléré et sa vitesse peut augmenter tant qu’il reste des photons à absorber. L’un des problèmes du modèle est que, à mesure que le gaz s’éloigne du quasar, il prend de la vitesse et, comme on observe des raies très fines avec une très faible dispersion de vitesse, cela signifie qu’il demeure sous forme de « feuilles » très fines alors que tout concourt à les disloquer sous l’effet de la moindre inhomogénéité.

Les années soixante-dix : retour à la Science

Nous avons vu dans le chapitre 5 que ces raies n’ont effectivement aucun rapport avec les quasars sur lesquels elles se superposent et qu’elles sont simplement causées par les galaxies rencontrées sur leur ligne de visée. Mais à Copenhague c’était encore loin d’être accepté.

Le « zoo » des noyaux actifs de galaxies L’une des premières tâches dans les années soixante-dix était de tenter de comprendre l’extraordinaire diversité des objets. On appelait cela le « zoo » des noyaux actifs de galaxies et l’on y perdait son latin (Encadré 7.1). On était loin d’une véritable taxinomie des noyaux actifs car la nomenclature de tous ces objets n’était pas fondée sur leurs propriétés intrinsèques mais sur celles qui avaient permis leur découverte. Ils avaient en effet été trouvés par des techniques variées : en identifiant les contreparties optiques de radiosources, en cherchant des objets d’aspect stellaire ayant des couleurs anormales, des objets bleus variables, des objets à lumière polarisée, des galaxies très compactes, des galaxies à noyaux très brillants, en repérant avec des prismes objectifs des objets avec des raies en émission à grand décalage, etc. Elle était donc complètement anarchique et changeait au cours du temps. Il fallut attendre le milieu des années quatre-vingts pour que l’écheveau se dénoue enfin.

Encadré 7.1. On mettait en vrac dans la catégorie des objets apparentés aux quasars non seulement les galaxies de Seyfert et les radiogalaxies (qui elles-mêmes n’allaient pas tarder à se diviser en plusieurs catégories), mais les « galaxies N », puissantes galaxies compactes sans noyau stellaire, les Broad (ou les Narrow) Line Radiogalaxies, BLRG ou NLRG, noyaux de galaxies ressemblant étrangement aux Seyfert avec leurs raies spectrales larges et intenses, mais situés dans des galaxies elliptiques et non dans des spirales et émettant un rayonnement radio puissant, des objets qu’on appelait « optiquement violemment variables » ou OVV, les LINERS (pour Low Ionization Nuclear Emission-Line Regions), présents dans une grande proportion de galaxies elliptiques, les NLXRG (Narrow Line X-ray Galaxies), ou les NLS1 (Narrow Line Seyfert 1 galaxies), qui constituaient deux classes séparées jusqu’à ce qu’on réalise qu’il s’agissait de la même, les lacertides, les quasars où la lumière était fortement polarisée (HPQ, pour Highly Polarized Quasars), et d’autres encore.

203

204

Des quasars aux trous noirs

Deux progrès importants furent réalisés, l’un avec la classification des galaxies de Seyfert en deux catégories, l’autre avec l’interprétation des « lacertides ». Ils préparaient l’avancée majeure de la décennie suivante que l’on a appelée le « schéma unifié des noyaux actifs de galaxies ». L’arménien Khachikian et l’américain Weedman proposèrent au début des années soixante-dix de séparer les galaxies de Seyfert en deux classes, celles de type 1 et celles de type 2 [53]. Dans les Seyfert 1, les raies permises sont très larges et correspondent à des mouvements de plusieurs milliers de kilomètres par seconde. Les largeurs des raies interdites correspondent seulement à quelques centaines de kilomètres par seconde (j’ai expliqué dans le chapitre 4 que les largeurs des raies sont dues à l’effet Doppler et traduisent les mouvements du gaz émissif). Au contraire, dans les Seyfert 2 les raies permises ont la même largeur que les raies interdites (Figure 7.2). De plus, elles y sont beaucoup moins intenses que dans les Seyfert 1, comme si la région où les raies larges sont produites n’existait pas. . . ou était cachée. C’est aux Seyfert 1 que les quasars ressemblent très fortement. L’archétype des Seyfert 2 est la galaxie NGC 1068 dont j’ai parlé plusieurs fois. Et justement les difficultés précédentes de compréhension des Seyfert (comme les contradictions entre les conclusions des Burbidge et de Woltjer) venaient de ce que l’on ne faisait pas à cette époque la distinction entre ces deux types d’objets. Je crois que personne, y compris Weedman et Khachikian eux-mêmes, n’a saisi l’importance de cette distinction qui paraissait être une subtilité de plus dans une classification déjà très compliquée. Bien entendu, on se mit alors à parler non seulement de Seyfert 1 et de Seyfert 2, mais également de Seyfert 1,5, 1,8 et 1,9. Mais on ne connaissait pas l’explication de ces différences ; elle ne sera trouvée que quinze ans plus tard. Le deuxième progrès concernait les « lacertides ». Elles nous défiaient avec leurs propriétés incongrues. Leur histoire n’est pas sans rappeler celle des quasars eux-mêmes. C’est en cherchant à identifier une source radio très compacte et fortement polarisée au nom peu poétique de VRO 42.22.01 que deux radio-astronomes canadiens découvrirent à la même position une étoile faible de quatorzième magnitude. Il s’avéra qu’elle était déjà répertoriée comme une étoile variable, appelée BL Lacertae ou BL Lac car elle se trouvait dans la constellation du Lézard (Lacertae) ; son éclat augmentait ou diminuait de cent pour cent en environ une semaine. Logiquement ce

Les années soixante-dix : retour à la Science

devait donc être un quasar comparable à 3C 273. Mais lorsqu’on en prit un spectre, la surprise fut grande de ne trouver aucune des raies brillantes caractéristiques des quasars. Le mystère s’épaissit encore lorsque les observations ultérieures montrèrent que son éclat pouvait varier d’une magnitude en une seule nuit. Si c’était un quasar lointain il devait avoir une taille minuscule pour sa puissance. Mais comment s’assurer qu’il s’agissait bien d’un objet lointain puisque l’on ne pouvait en mesurer le décalage ? On répertoria bientôt d’autres astres identiques. On les appela « les BL Lac » ou « lacertides ». Elles étaient caractérisées par une émission radio localisée dans une source très petite, par un éclat très variable, et par une absence de toute raie spectrale permettant de déterminer un décalage. On ignora donc pendant quelque temps s’il s’agissait d’objets proches ou lointains et naturellement une controverse s’instaura à leur sujet. Or BL Lac, la première lacertide détectée, était entourée d’une faible nébulosité. L’astronome français Wlérick [103] l’observa avec la caméra électronique et montra que la taille et la brillance de cette nébulosité correspondait à celle d’une galaxie elliptique géante située à environ un milliard d’annéeslumière. Peu après, un groupe d’astronomes américains parvenait à mettre en évidence les raies spectrales de cette galaxie et confirmait cette distance par la détermination du décalage. On observa par la suite dans d’autres lacertides des raies très faibles permettant de mesurer leur décalage. On le trouvait toujours élevé (pas autant que la plupart des quasars toutefois, mais cela pouvait être dû à la difficulté de détecter des raies spectrales faibles dans les objets les plus lointains). Gef Burbidge soutint lors du congrès de Copenhague qu’il n’y avait aucune preuve que les nébulosités entourant les

205

Figure 7.2. Ces figures montrent, à gauche le spectre d’une Seyfert 1, à droite celui d’une Seyfert 2 (d’après Véron et Véron, clichés ESO). Les spectres sont des enregistrements de l’intensité en fonction de la longueur d’onde. Dans le premier spectre les raies de Balmer (Hα et Hβ) sont larges et beaucoup plus intenses que les raies « étroites » tandis qu’elles sont étroites et beaucoup plus faibles dans le deuxième. On peut voir l’évolution des techniques d’observation en comparant ces spectres à ceux de Seyfert ou à ceux d’Yvette Andrillat et de moi-même montrés dans le chapitre 4.

206

Des quasars aux trous noirs

lacertides fussent des galaxies. Le fait qu’on y avait déjà à ce moment observé les raies sombres caractéristiques des galaxies et que de surcroît elles eussent le même décalage que les raies en émission lorsque celles-ci étaient détectées ne lui paraissait pas convaincant3 . Restait, pour ceux qui pensaient que les lacertides sont effectivement situées au sein de galaxies lointaines et s’apparentent aux quasars, à résoudre plusieurs problèmes. Pourquoi n’avaient-elles pas de raies en émission, ou très faibles4 ? Pourquoi variaient-elles si fortement ? Pourquoi leur structure radio était-elle si compacte ? Les avis furent très partagés jusqu’au milieu des années quatre-vingts. Pourtant la solution avait été donnée par Blandford et Rees dès la fin des années soixante-dix, en particulier à Copenhague, mais une fois de plus elle mit longtemps à s’imposer tant les esprits étaient encore imprégnés des controverses à propos des décalages cosmologiques. Pour comprendre l’absence de raies spectrales, il fallait replacer ce phénomène dans un contexte global et revenir en particulier sur l’existence de mouvements relativistes dans des radiogalaxies et des quasars. Ainsi que je l’ai déjà mentionné, on soupçonnait depuis longtemps l’existence de mouvements de groupes d’électrons émettant le rayonnement synchrotron, ayant des vitesses proches de celle de la lumière. Ils permettaient en particulier de résoudre le paradoxe de la catastrophe Compton. La confirmation de tels mouvements vint une fois de plus des avancées de la technologie de la radio-astronomie. Mais elle ne vint pas tout à fait comme on l’attendait. 3 Burbidge rappelait également certains problèmes que soulevaient la thèse des décalages cosmologiques et l’identification des lacertides à des objets extragalactiques lointains : la « catastrophe Compton », l’existence de vitesses apparentes supérieures à celle de la lumière (nous verrons un peu plus loin ce dont il s’agit) et la puissance gigantesque de ces objets produite dans un très petit volume. En ce qui concerne la catastrophe Compton, on a vu dans le chapitre précédent qu’elle ne posait plus de problème depuis une dizaine d’années. Les vitesses supérieures à celle de la lumière étaient aussi déjà expliquées, en particulier par Rees et son étudiant Blandford dans ce même congrès. 4 En ce qui concerne l’absence de raies, certains suggéraient que les lacertides étaient bien des quasars mais sans le rayonnement ultraviolet nécessaire pour « exciter » des raies. Plus tard, la découverte de lacertides de grand décalage dans lesquelles le rayonnement ultraviolet était observable montrait qu’il était amplement suffisant pour assurer l’excitation du gaz. Peut-être n’y avait-il tout simplement pas de gaz dans ces objets ? Mais pourquoi ? D’autres, comme le britannique Andy Fabian, soutenaient que le gaz devait y demeurer sous une forme très chaude indétectable et ne pouvait se refroidir et rayonner.

Les années soixante-dix : retour à la Science

207

La physique conventionnelle défiée une fois de plus : les vitesses « superluminiques » Les radio-astronomes avaient découvert en utilisant des interféromètres conventionnels que la dimension des sources radio « compactes » était inférieure à la seconde d’arc (Encadré 7.2). On a vu que la variabilité de ces sources permettait également de déduire, par des arguments de temps de traversée de la lumière, que leur dimension était en fait bien plus petite, probablement inférieure à un millième de seconde d’arc5.

Encadré 7.2. L’interférométrie utilise les propriétés d’interférence de deux faisceaux lumineux distincts provenant de la même source. Le pouvoir séparateur d’un interféromètre constitué de deux télescopes est égal au rapport entre la longueur d’onde et la distance des deux télescopes. Le plus grand interféromètre radio est encore actuellement le Very Large Array (ou VLA) (Figures 7.3 et 7.4) dans le National Radio Astronomy Observatory (NRAO) au Nouveau-Mexique,

Figure 7.3. Le réseau d’antennes mobiles du VLA (on n’en voit que 18 sur les 27).

5 La forme des spectres, qui impliquait le phénomène « d’auto-absorption » du rayonnement**, confirmait aussi cette très petite dimension et permettait de plus d’inférer l’existence de sources multiples, comme dans le cas déjà mentionné de 3C 273.

208

Des quasars aux trous noirs

Figure 7.4. Une des antennes du VLA, de 25 mètres de diamètre.

qui a commencé à observer en 1976. Il est constitué de 27 antennes mobiles reliées électroniquement qui peuvent être espacées de 35 kilomètres. La résolution est alors de 0,04 seconde d’arc. Il travaille dans le domaine radio. Les Français sont également très bien placés dans le domaine de l’interférométrie, avec le grand interféromètre du plateau de Bures près de Grenoble, construit et administré par un consortium franco-germanique qui a commencé à observer en 1985 (Figure 7.4). Il travaille dans le domaine millimétrique et submillimétrique, ce qui lui donne un avantage pour la résolution par rapport au domaine radio, et il est actuellement constitué de 6 antennes (Figure 7.5). D’autres interféromètres beaucoup plus grands vont voir le jour dans l’avenir, tel ALMA (Atacama Large Millimeter Array), construit par l’ESO et par les USA sur un haut plateau du désert d’Atacama au Chili à plus de 5 000 m d’altitude. Cet interféromètre millimétrique devrait être constitué de 66 antennes en 2012 lorsqu’il sera terminé.

Les années soixante-dix : retour à la Science

209

Figure 7.5. L’interféromètre millimétrique du plateau de Bures.

Pour être capable d’étudier la structure de ces sources il fallait donc faire interférer deux radiotélescopes très éloignés l’un de l’autre. On ne pouvait utiliser les interféromètres conventionnels connectés par des fils ou des liaisons radio. L’idée vint alors d’enregistrer sur bande magnétique le signal provenant de deux antennes éloignées l’une de l’autre et de les corréler après coup par des moyens digitaux pour obtenir des interférences. On appela cette technique VLBI, pour « Very Long Baseline Interferometry », ou interférométrie à très longue base. Après avoir résolu les difficiles problèmes liés à la corrélation des signaux (qui nécessite entre autre de disposer d’une mesure du temps absolument identique partout et c’est là que le service du temps de l’Observatoire de Paris joue maintenant un rôle fondamental), des radio-astronomes canadiens, puis américains, réussirent en 1967 à observer plusieurs noyaux de galaxies avec des antennes distantes de deux cents kilomètres. Puis ils augmentèrent l’écartement des antennes pour finir par observer avec des antennes situées aux États-Unis, en Australie et en Suède, donc à des distances de plus de dix mille kilomètres6 . Songeons que déjà on atteint une résolution de quelques dix millièmes de secondes d’arc : avec une telle résolution, un habitant de Lille pourrait lire l’heure sur la montre d’un habitant de Marseille ! Les premières observations étaient réalisées avec deux ou trois antennes et l’on était loin de pouvoir comme maintenant – moyennant toutefois un travail compliqué de reconstruction – produire de véritables images avec une résolution de l’ordre de quelques dix millièmes de seconde d’arc (une année-lumière pour les quasars les plus proches). Tout au 6

Un observatoire spatial dont l’orbite culminait à 21 400 km (VLBI Space Observatory Programme ou VSOP) destiné à l’interférométrie VLBI a été lancé par les Japonais en 1997, et une deuxième version plus sophistiquée devrait voir le jour dans quelques années. On envisage également de faire interférer des radiotélescopes placés sur la Terre et sur la Lune, et l’on peut imaginer le gain en résolution spatiale qui en résulterait puisqu’elle est proportionnelle à la distance des radiotélescopes. Mais on n’en est encore pas tout à fait là !

210

Des quasars aux trous noirs

Figure 7.6. L’expansion « superluminique » de 3C 273. Les lignes tracées sont des « isophotes », c’est-à-dire des lignes d’égale intensité. On distingue clairement deux sources et l’on trouve qu’elles s’éloignent l’une de l’autre avec une vitesse supérieure à celle de la lumière. . . si la distance de l’objet est bien donnée par son décalage.

plus pouvait-on déterminer une dimension caractéristique dans une direction, ou la distance entre les sources lorsqu’elles étaient multiples. En octobre 1970, le quasar 3C 279 montra des franges d’interférence indiquant la présence de deux sources d’intensité comparable séparées de 1,55 milliseconde d’arc. Quatre mois plus tard la séparation était de 1,69 milliseconde d’arc. En supposant que la distance de cet objet était donnée par son décalage, cela impliquait que les deux sources s’éloignent l’une de l’autre avec une vitesse égale à dix fois celle de la lumière ! Puis ce fut au tour du quasar 3C 273 de montrer le même phénomène (Figure 7.6), ainsi que plusieurs autres sources. Après de nombreuses discussions on appela ces objets du nom – très laid à mon avis – de « sources superluminiques » (en anglais superluminal). C’est maintenant un phénomène couramment observé sur des dizaines de radiosources, aussi bien quasars, BL Lac que radiogalaxies. Il existe également au sein de notre propre galaxie, dans des objets qui sont probablement des systèmes d’étoiles doubles que l’on appelle des « microquasars » (cette découverte est due à un chercheur argentin travaillant en France au Commissariat à l’énergie atomique, Felix Mirabel). Comment admettre l’existence de vitesses supérieures à celle de la lumière, alors que la physique nous dit que c’est impossible ? Ce débat agita la communauté pendant plusieurs années et il réactiva la controverse du décalage cosmologique. Car, si la distance de ces quasars était plus petite que celle donnée par la loi de Hubble, le paradoxe disparaissait puisque

Les années soixante-dix : retour à la Science

211

Figure 7.7. Les vitesses « superluminiques » disparaissent si les objets sont plus proches que la distance donnée par leur décalage, car la vitesse transverse est proportionnelle à cette distance.

la vitesse réelle est égale à la vitesse angulaire – celle que l’on mesure sur le ciel – multipliée par la distance (Figure 7.7). Mais rapidement on dut éliminer cette solution car l’une des radiosources superluminiques, 3C 120, était associée à une galaxie relativement proche dont on ne pouvait en aucun cas contester la distance. J’assistai en 1972 à un « Texas Symposium » se tenant à New York dont une partie fut consacrée à discuter ce problème de façon passionnée. Les tenants des « théories conventionnelles » faisaient remarquer que la vitesse observée n’est pas réelle, comme lorsqu’un phare éclaire successivement différentes parties du ciel : le point lumineux se déplace sur les nuages avec une vitesse apparente arbitrairement grande. Puis la solution qui émergea à la fin du symposium était celle de « l’arbre de Noël » où des lampes s’allument et s’éteignent de façon erratique. Or les observations ultérieures révélèrent au contraire une grande cohérence du phénomène. Il y avait pourtant une explication simple qui ne fut définitivement adoptée qu’après plusieurs années. Elle était proche de celle invoquée quelques années plus tôt par Martin Rees pour justifier l’absence de la « catastrophe Compton » : il s’agissait de bouffées expulsées avec des vitesses très voisines de celle de la lumière, et constituées de particules chargées capables de produire du rayonnement synchrotron. Comme elles nous envoient des photons de lumière en se rapprochant de nous pratiquement à la même vitesse qu’eux, elles semblent se déplacer plus rapidement qu’elles ne le font en réalité (Figure 7.8 et Encadré 7.3).

Encadré 7.3. Ce qui conduisit à rejeter d’abord cette explication, c’est que l’on voyait deux sources à peu près de même puissance s’éloignant l’une de l’autre et l’on pensait évidemment à deux éjections symétriques à partir d’un objet central, lui-

212

Des quasars aux trous noirs

Figure 7.8. Explication des sources superluminiques. Une bouffée B de particules émettant du rayonnement synchrotron est éjectée à un moment t0 de la source A, située par exemple à un milliard d’années-lumière (cette distance n’intervient pas dans le résultat) avec une vitesse très proche de celle de la lumière, dans une direction faisant un angle de 37◦ avec la direction d’observation (cet angle est choisi pour le rapport simple entre les trois côtés du triangle dont il est un sommet). Après cinq ans, la bouffée B a parcouru une distance de cinq années-lumière. Elle s’est déplacée de trois années-lumière sur le plan du ciel et de quatre années-lumière dans la direction de l’observateur. La lumière qu’elle émet précède maintenant de quatre ans celle qui a été émise par la source A au temps t0 . Elle paraît donc avoir parcouru la distance de trois années-lumière en un an seulement comme si elle se déplaçait avec une vitesse égale à trois fois celle de la lumière.

même invisible. Or celle se rapprochant de nous aurait dû être plus intense que l’autre car elle devait être fortement amplifiée, l’autre étant au contraire rendue quasiment invisible par son mouvement d’éloignement (c’est le phénomène « d’amplification relativiste » dont j’ai déjà parlé**). Ce n’est que lorsqu’on observa dans certains quasars une troisième source et même parfois une quatrième qui commençait également à briller et à s’éloigner de la première, que l’on comprit que la première source était à l’origine des bouffées qui se rapprochaient toutes de nous7 . Cette source étant constituée d’un gaz en expansion relativiste, son rayonnement est également amplifié, ainsi que l’avait proposé Rees quelques années plus tôt. Quant aux bouffées qui s’éloignent de nous, nous ne les voyons même pas. Le phénomène était donc compris et toutes les observations ultérieures confirmèrent remarquablement cette théorie (Figure 7.9).

7

Rappelons en effet qu’il n’est pas possible de déterminer les positions ABSOLUES des sources avec une précision aussi grande que le millième de seconde d’arc, mais seulement les positions relatives. Donc on ne pouvait savoir que l’une d’elles était immobile par rapport aux autres.

Les années soixante-dix : retour à la Science

213

Les jets cosmiques : de gigantesques « poupées-gigognes » qui nous renvoient à l’intérieur des noyaux de galaxies Une autre surprise nous attendait après la découverte de ces phénomènes. On savait depuis les années cinquante que la dimension des radiosources associées aux radiogalaxies était très grande, atteignant parfois plusieurs millions d’annéeslumière. Les cartes radio des quasars et des radiogalaxies que l’on produisit dans les années soixante-dix commençaient à être suffisamment détaillées pour montrer que les radiosources sont composées généralement de deux régions de forme régulière, symétriques par rapport à une petite source située dans la galaxie ou dans le quasar. On appelle ces grandes régions les « lobes radio ». La radiogalaxie Cygnus A dont j’ai déjà parlé en est une parfaite illustration (Figure 7.10). En voyant une carte comme celle-ci, on se demande immédiatement comment ces gigantesques régions remplies de particules relativistes sont connectées à la galaxie centrale qui est clairement la source du phénomène. Elles le sont par un mince filament, un « jet », dont on ne distingue en général

Figure 7.10. Carte radio de Cygnus A : à gauche, obtenue à 5 gigahertz avec le radiotélescope de Cambridge par Hargrave et Ryle en 1974 ; à droite, la même, obtenue une dizaine d’années plus tard par Perley et Dreher au NRAO. Le point minuscule que l’on voit au centre est la source radio associée à la galaxie elle-même, avec de part et d’autre d’immenses lobes s’étendant sur des millions d’années-lumière dont les extrémités sont plus brillantes : on les nomme « Hot Spots » (en français, « taches chaudes » mais ce nom n’est jamais utilisé). Sur la carte de droite, on distingue nettement un filament extrêmement fin qui va de la galaxie au grand lobe de droite. Il avait été détecté pour la première fois en 1975.

Figure 7.9. Carte radio de 3C 279, obtenue bien après celle de la figure 7.6. La source de gauche est pratiquement immuable, tandis que celle de droite se déforme au cours du temps. On peut voir qu’elle s’éloigne de la première avec une vitesse apparente de plus de trois fois la vitesse de la lumière.

214

Figure 7.11. Carte radio d’une radiogalaxie FRI (3C 449) reproduite de Perley, Willis et Scott (1979). Dix secondes d’arc correspondent à environ dix mille années-lumière. La structure est très différente de celle de Cygnus A. On voit les deux jets symétriques s’étendant sans déviation de part et d’autre du centre jusqu’à trente mille années-lumière. Leur émission est fortement polarisée.

Des quasars aux trous noirs

que l’un des côtés. On l’avait déjà détecté dans Cygnus A, où il est extrêmement fin, et on commençait à en observer dans plusieurs autres radiogalaxies (Encadré 7.4).

Encadré 7.4. Toutes les radiogalaxies n’ont pas la même structure. On introduisit là encore deux classes, les « FRI » et les « FRII », du nom des deux radio-astronomes, Fanaroff et Riley, qui les identifièrent en 1974. Les FRI sont plus faibles et sont dominées par les jets qui sont souvent symétriques (Figure 7.11). Cygnus A fait partie des FRII. Ce sont les plus puissantes et leur structure radio est identique à celle des quasars avec deux grands lobes, des « taches » chaudes à leur extrémité et un jet généralement visible d’un seul côté (Figure 7.12).

Figure 7.12. Carte radio du quasar 3C 175 obtenue en 1996, donc beaucoup plus tard que les deux précédentes, et destinée à montrer la ressemblance avec les radio-galaxies FRII.

Les raisons de l’existence des deux classes de radiogalaxies ne sont pas encore claires comme ne le sont d’ailleurs pas non plus les causes de la présence de sources radio

Les années soixante-dix : retour à la Science

intenses dans une fraction seulement des quasars et des galaxies. On a spéculé sur le fait que les jets des FRI et les FRII pouvaient émerger identiques d’un engin central et être ralentis ultérieurement dans les FRI, ou bien qu’ils pouvaient être produits par deux mécanismes complètement différents. L’extrême finesse des jets cosmiques se propageant sur des centaines de milliers d’années-lumière dans l’espace intergalactique (on dit : leur « collimation ») n’est pas non plus bien comprise. Nous rentrerons un peu plus loin dans cette problématique compliquée.

Il existe donc une entité fondamentale, le « jet », que souvent l’on appelle « jet cosmique », dont on sait maintenant qu’il est présent dans toutes les radiogalaxies. De tels jets étaient connus bien avant l’invention de la radio-astronomie. La galaxie Virgo A dont nous avons déjà parlé montre un magnifique jet visible découvert par Curtis en 1917, et sur lequel nous reviendrons. J’ai également mentionné le jet du quasar 3C 273, observé dans le domaine visible et en radio8 . La lumière visible du jet est bleue et polarisée, elle est donc émise par effet synchrotron comme le rayonnement radio. Revenons maintenant à l’énigme des lacertides : pourquoi, si ce sont des objets semblables aux quasars radio, n’ontelles pas de raies spectrales ? Le problème était pratiquement résolu. Puisque l’émission du jet est amplifiée lorsqu’il est proche de la direction d’observation, elle devrait apparaître plus intense que les autres émissions ne subissant pas l’amplification relativiste et en particulier que les raies spectrales provenant d’un gaz ayant des vitesses faibles. Donc les lacertides devaient être simplement des radiogalaxies dont le jet est très proche de la ligne de visée et dont le rayonnement, dominé par l’émission synchrotron des électrons relativistes du jet, ne produit pas de raies spectrales (Encadré 7.5). 8 Dans les plus puissantes radiogalaxies, celles qui ressemblent aux quasars, ce jet n’est vu que d’un seul côté, comme dans 3C 273 ou dans M 87. On a beaucoup discuté pour savoir si cette asymétrie était réelle. De nombreux arguments font penser que si c’est le cas, ce ne l’est que dans une toute petite proportion des sources et que dans la majorité d’entre elles, le jet est très probablement expulsé symétriquement par la source centrale (pour des raisons de conservation de l’énergie). On ne le voit que d’un seul côté car il se meut avec une vitesse très proche de celle de la lumière. La partie du jet qui se rapproche de nous est donc amplifiée par effet relativiste tandis que celle qui s’éloigne est atténuée.

215

216

Des quasars aux trous noirs

Encadré 7.5. Ce modèle permettait de comprendre bien d’autres choses. D’abord l’extrême variabilité des lacertides. Supposons qu’une bouffée de gaz relativiste soit éjectée dans la direction de la ligne de visée ; elle se manifestera par une augmentation de plusieurs dizaines ou même plusieurs centaines de pour cent de l’émission, alors qu’on n’aurait vu qu’une variation infime si le rayonnement du jet n’était pas amplifié. De plus, par suite de la contraction du temps, la variation se produira plus rapidement que si la bouffée était éjectée dans une autre direction**. Enfin, ce modèle permettait aussi de comprendre pourquoi les BL Lac sont des sources très compactes en radio : le jet vu de face et amplifié doit dominer le reste de la structure radio qui n’apparaît plus que comme une faible nébulosité. Rarement donc un modèle fut aussi explicatif. Malheureusement, il était prématuré en l’état de nos connaissances à Copenhague. Ainsi on se rendit rapidement compte qu’il impliquait une puissance intrinsèque des lacertides plus faible que celle des quasars, compte tenu de leur orientation privilégiée. Leur luminosité était en fait plus proche de celle des galaxies FRI dont on comprit, mais plus tard, que les lacertides étaient effectivement la version « vue de face », tandis que les radiogalaxies FRII sont des quasars radio vus « de profil ». C’est cette difficulté ainsi que d’autres éléments manquant au puzzle qui a retardé une véritable unification des noyaux actifs de galaxies. Elle ne verra le jour que dix ans plus tard.

Puis vint encore une découverte extraordinaire et inattendue, encore une fois due à la radio-astronomie. En 1977, des radio-astronomes anglais montrèrent que le jet associé à la galaxie NGC 6251, long de 600 000 années-lumière, provenait d’une minuscule source non résolue située dans le noyau de la galaxie (Figure 7.13). Ce qui prouvait que l’énergie devait être transportée depuis cette source jusqu’aux extrémités des gigantesques lobes par l’intermédiaire du jet. Ils observèrent l’année suivante cette source par interférométrie VLBI et trouvèrent qu’elle était elle-même constituée d’un jet de même direction issu d’une source encore plus petite. Les observations VLBI confirmèrent que dans de nombreuses autres radiogalaxies la structure à l’échelle de l’annéelumière est aussi complexe qu’à grande échelle. Elle ressemble

Les années soixante-dix : retour à la Science

217

Figure 7.13. Carte radio montrant la structure en « poupées gigognes » de la galaxie NGC 6251, d’après Readhead, Cohen et Blandford, 1978 [77]. On voit que le petit jet de 5 années-lumière est exactement aligné avec un jet de 600 000 années-lumière, lui-même aligné avec la direction des lobes séparés par 9 millions d’années-lumière.

en fait à des poupées gigognes emboîtées et il existe une continuité parfaite entre des structures qui ont des échelles différant par un facteur d’un million ! Les minuscules sources compactes dans les noyaux des radiogalaxies sont donc à l’origine des grands jets cosmiques. Les jets des sources compactes sont toujours dirigés d’un seul côté, prouvant que le gaz est éjecté avec une vitesse voisine de celle de la lumière et qu’il est ralenti seulement plus tard. Cette observation apportait donc une preuve définitive de l’existence de jets relativistes à très petite échelle. Et, surtout, elle montrait que ce qui se passe à des millions d’années-lumière d’une galaxie dans les grands lobes radio dépend en dernier ressort de phénomènes se produisant dans une minuscule région enfouie à l’intérieur du noyau.

218

Des quasars aux trous noirs

Remarquons que, pour une fois, on avait interprété correctement dès le début la nature des quasars sur un point : on avait compris que la clef de voûte de l’édifice, c’était ce petit noyau minuscule mais brillant que l’on distinguait si bien dans les galaxies de Seyfert mais beaucoup moins bien dans les radiogalaxies, et que l’on suspectait être tellement puissant au sein des quasars qu’il en occultait toute la galaxie. Les quasars, les radiogalaxies, les galaxies de Seyfert, étaient effectivement tous des « noyaux actifs de galaxies », des NAGs.

Où l’on attend avec impatience les observations On ne peut parler du travail effectué pendant les années soixante-dix sans mentionner aussi les efforts considérables pour augmenter le nombre de quasars connus. La tâche la plus longue et la plus délicate consistait, lorsque l’on avait sélectionné un candidat quasar, à en prendre le spectre pour obtenir son décalage. Naturellement on continuait à identifier des radiosources. C’était un moyen efficace pour trouver des quasars, mais il ne permettait de repérer que ceux qui rayonnaient en radio et, comme on l’a vu, ils ne représentent qu’une faible proportion de la population de quasars. Certains astronomes s’étaient attaqués à l’identification du quatrième catalogue de Cambridge, le 4C, qui, étant plus sensible, contenait beaucoup plus d’objets que le 3C. D’autres cherchaient à identifier le relevé réalisé au National Radio Astronomy Observatory aux États-Unis, le NRAO, et celui du radiotélescope de Parkes en Australie. En 1977 environ 300 quasars radio avaient ainsi été identifiés. Pour les quasars non radio on progressait plus lentement. Une détection basée sur les propriétés ultraviolettes des quasars avait permis d’en découvrir une centaine de nouveaux. Deux Américains, Osmer et Smith, décidèrent d’utiliser la technique du prisme objectif déjà évoquée dans le chapitre 4 à propos de Markarian (Encadré 7.6). Ils espéraient ainsi en découvrir plus d’un millier. Ils n’étaient qu’au tout début de leur tâche à la fin des années soixante-dix. On avait donc l’impression à cette époque d’être dans une phase d’attente, avec peu de résultats nouveaux par rapport à la fin des années soixante, concernant par exemple l’évolution des quasars.

Les années soixante-dix : retour à la Science

219

Encadré 7.6. La technique du prisme objectif appliquée aux quasars consiste à prendre une photographie d’une portion du ciel en interposant au foyer de l’instrument un prisme donnant un petit spectre de chaque objet sur le détecteur (Figure 7.14). Si l’un d’eux présente une raie brillante intense, il y a une forte chance que ce soit la raie ultraviolette Lyman α de l’hydrogène à 1 215 angströms décalée dans le visible. Cela signifie alors qu’il s’agit d’un quasar lointain de décalage voisin de 3. Naturellement, il faut ensuite confirmer l’identification avec d’autres raies et un meilleur spectre. Osmer et Smith relancèrent ainsi vigoureusement la chasse aux quasars et identifièrent dans les années quatre-vingts plus de quinze cents quasars à l’Observatoire de Cerro Tololo au Chili.

Figure 7.14. Une photo du ciel prise avec un prisme objectif : chaque astre donne un petit spectre. On repère ainsi les candidats quasars. Par la suite, les techniques se sont énormément améliorées, en particulier avec les fibres optiques que l’on peut positionner sur des champs préalablement choisis. On appelle ce type d’instrument des « spectro-imageurs ».

Revenons au congrès de Copenhague en 1977. J’avais été chargée d’une revue des études sur les régions émettant les raies spectrales. Je n’avais en fait pratiquement pas travaillé sur ce problème depuis ma thèse, m’étant consacrée surtout à l’étude des abondances des éléments dans les galaxies, mais d’autres l’avaient fait puisque je trouvais plus de soixantedix références s’y rapportant. On commençait en effet à bâtir pour les quasars des modèles comparables à ceux que l’on

220

Des quasars aux trous noirs

faisait depuis une dizaine d’années pour les régions HII et les nébuleuses planétaires en cherchant à rendre compte des spectres observés à partir d’un petit nombre de paramètres, comme la densité du milieu et les abondances des éléments. On avait l’espoir de parvenir ainsi à évaluer ces abondances car on suspectait que l’environnement très particulier devait favoriser des compositions extravagantes. On espérait également déterminer la forme du spectre dans un domaine où celui-ci est complètement inaccessible, l’ultraviolet lointain. Mais c’est seulement au cours des années quatre-vingts que de véritables modèles commenceront à être développés, permettant en particulier de connaître la densité et la dimension des régions émissives, paramètres décisifs lorsqu’il s’agira de « peser » l’objet central. J’ai déjà mentionné plusieurs fois ce mot de « modèle ». Construire des modèles est en effet une démarche fondamentale en astronomie. Un modèle est une description aussi proche que possible de la réalité observée qu’il aborde par le biais des lois de la nature (lois physiques en ce qui concerne l’astronomie). L’astronomie est en effet une science où l’on ne peut expérimenter : on doit se contenter d’observer ce que la nature daigne nous montrer et, à partir de là, essayer de déduire tout le reste, la structure d’une étoile par exemple, ou bien celle de l’Univers tout entier. Ce travail ressemble à celui d’un paléontologue capable de reconstituer le squelette et le mode de vie d’un animal disparu à partir d’un simple bout de mâchoire. On y parvient car, comme le détective de mon introduction, on dispose d’une série d’indices dont on peut tirer profit. Mais il faut le faire avec la plus grande rigueur, en appliquant les lois connues de la physique et en recourant à un minimum de paramètres arbitraires. Le modèle fournit alors une série de « prédictions » que l’on confronte avec les observations déjà obtenues ou, mieux encore, avec de nouvelles observations spécialement conçues pour vérifier les prédictions. Si celles-ci sont réalisées, on peut se réjouir car cela signifie que le modèle est peut-être proche de la réalité. Mais en général, on ne s’en satisfait pas car les nouvelles observations posent de nouveaux problèmes et il faut affiner le modèle. C’est donc un processus « d’essais et d’erreurs », au cours duquel les erreurs diminuent, mais n’atteignent jamais zéro. Cependant, d’approximations en approximations, de prédictions en vérifications, le modèle devient de plus en plus plausible. Et c’est l’une des grandeurs de l’astrophysique d’avoir, en moins de cent ans et en dépit de toutes les

Les années soixante-dix : retour à la Science

incertitudes et limitations, construit des modèles conduisant à de magnifiques prédictions et, globalement du moins, semblant définitivement établis : le Big Bang, la structure et l’évolution des étoiles, l’existence des étoiles à neutrons et celle des trous noirs. . . Ainsi, dans le cas des étoiles, on sait maintenant reconstituer leur structure et toute leur évolution passée et future à partir seulement de leur masse et de leur composition chimique initiale. Tout cela avec une très grande précision et uniquement grâce à ce que la lumière nous livre d’elles, qui concerne la proportion extraordinairement faible de 0,000000000001 de leur masse9 ! Mais il faut dire que la lumière n’est pas dépourvue d’informations, elle nous en fournit à foison : distribution de l’énergie, forme et intensité de chaque raie, polarisation, variabilité temporelle, image. . . Un non astronome a en général du mal à réaliser la pertinence d’un tel travail. Le physicien dispose d’une expérience qu’il peut répéter à l’infini, dont il peut par conséquent augmenter la précision presque autant qu’il le désire ; et il veut interpréter cette expérience et seulement elle. Nous, nous sommes obligés de nous accommoder d’observations imparfaites mais nous avons des milliers de renseignements et tous doivent s’insérer dans le cadre de notre modèle. Le fait de ne pas pouvoir bâtir une expérience destinée à confirmer ou infirmer une théorie et de ne pouvoir la répéter aussi souvent qu’on le désirerait – ce qui n’est pas identique à répéter une observation car on n’est alors pas maître de tous les paramètres – implique une attitude scientifique et psychologique assez particulière. Plus que dans une autre science, il faut savoir se défaire de tout dogmatisme et être capable de remettre en cause ses idées, aussi fondamentales soient-elles. On voit dans ce livre combien d’hypothèses sur les quasars ont dû être abandonnées après avoir été acceptées pendant de nombreuses années. À l’inverse, il ne faut pas craindre la spéculation – sinon la recherche en astrophysique ne progresserait pas – à condition de pousser ensuite les raisonnements jusqu’à la confrontation avec l’observation. Et foin des esprits sceptiques, car un chercheur sceptique se questionnera en permanence, aura des réflexions désabusées du type « on peut faire n’importe quoi » ou « cette théorie est fausse parce que tel ou tel effet n’a pas été pris en compte ». Alors qu’il doit savoir sélectionner parmi de nombreux phénomènes ceux qui sont réellement importants 9

C’est-à-dire l’atmosphère de l’étoile, qu’on appelle la « photosphère ».

221

222

Des quasars aux trous noirs

et oser négliger les autres. J’ai ainsi connu des chercheurs exceptionnellement doués, ayant fait des études brillantes, qui se sont enlisés dans des problèmes de détail, cherchant à affiner en permanence un modèle ne pouvant de toute façon qu’être approximatif, et qui n’ont jamais produit de résultat vraiment saillant. Une autre spécificité de l’astrophysique est que l’on doit savoir y jongler avec les ordres de grandeurs. Rien dans notre environnement ne prépare aux nombres que nous devons traiter ni ne donne une « intuition » de ce que nous allons trouver : il faut l’acquérir dans le monde virtuel où nous travaillons. Par exemple, les distances dans le système solaire se mesurent en milliards de kilomètres et dans l’Univers en milliards d’années-lumière. Ce sont des valeurs très difficiles à concevoir10 . De plus dans certains cas, mais pas tous, l’astrophysicien doit accepter l’approximatif et ne pas être attaché aux décimales. La théorie qu’il élabore a toujours ses marges d’incertitudes et l’important est de les évaluer correctement : il est inutile par exemple de dire qu’un quasar est situé à 12 535 000 000 années-lumière car on ignore la valeur de la constante de Hubble* avec cinq chiffres de précision ; et si on la connaissait il faudrait alors tenir compte de la position de la Terre sur son orbite au moment de l’observation car elle a une influence sur la mesure de la vitesse d’éloignement du quasar. Mais dans le même temps, l’astrophysicien ne doit pas oublier que des raisonnements trop simplistes peuvent donner des résultats complètement erronés et qu’une modélisation élaborée peut être indispensable. Un astrophysicien idéal devrait en fait être une véritable encyclopédie vivante. Il lui est souvent nécessaire de connaître plusieurs branches de la physique et même la chimie. Pour aborder l’étude des quasars par exemple, il faudrait posséder l’hydrodynamique et la magnétohydrodynamique, la relativité générale, les théories du rayonnement et de son transfert, la physique des hautes énergies. . . De plus, cet astrophysicien idéal devrait aussi savoir parcourir le long chemin qui, de l’observation à la compréhension, passe par le traitement de l’information, l’analyse des résultats et leur interprétation empirique, puis théorique, et ne rien ignorer de la phénoménologie 10 J’ai entendu récemment un journaliste parler à la radio de la découverte d’une planète extra-solaire distante de plusieurs dizaines de milliards d’années-lumière – il s’agissait probablement de dizaines d’années-lumière – et quelques instants après, d’une galaxie lointaine que l’on venait de découvrir à des milliards de kilomètres – il s’agissait de milliards d’années-lumière !

Les années soixante-dix : retour à la Science

des objets de son étude. Il devrait également avoir de l’Univers une vision synthétique et globale lui permettant de saisir cet écheveau emmêlé qui, du Système solaire aux amas de galaxies et aux quasars, forme un ensemble cohérent ou tout dépend de tout. Je ne suis pas sûre qu’on puisse trouver dans le monde un seul chercheur dominant tous ces domaines à la fois. Heureusement d’ailleurs car, faisant tout, cet astrophysicien idéal ferait tout mal. C’est pourquoi il nous faut travailler en équipe, collaborer avec des chercheurs ayant des compétences complémentaires et surtout dialoguer pour éviter l’hyper-spécialisation où chaque domaine se referme sur lui-même et développe sa finalité propre. On voit alors l’instrumentation produire essentiellement des développements technologiques, l’observation tirer sa motivation de l’utilisation des instruments, l’informatique représenter une fin en soi, la modélisation servir une passion de la programmation, enfin la théorie se développer dans un cadre académique sans aucun rapport avec la réalité. Revenons encore au congrès de Copenhague. Comme je l’ai dit plus tôt, l’astronomie X fut peu mentionnée à Copenhague. Giacconi fit une rapide revue des résultats obtenus avec le satellite Uhuru. C’était la première mission spatiale consacrée aux rayons X. Le satellite avait été lancé au Kenya le 12 décembre 1970, jour anniversaire de l’indépendance du peuple Kenyan et il avait été nommé Uhuru car ce mot signifie « liberté » en langue swahilie. Le quatrième catalogue issu des observations de Uhuru n’était pas encore public mais Giacconi nous fit part de ses principales découvertes. Quatorze galaxies de Seyfert avaient été observées dans la bande des rayons X mais la plus brillante d’entre elle, NGC 1068, n’était pas détectable, ni d’ailleurs aucune Seyfert de type 2. Nous comprendrons pourquoi plus tard. Ces objets semblaient donc de plus en plus mystérieux. Quelques radiogalaxies et lacertides avaient aussi été observées et, parmi les quasars, seulement 3C 273, mais cela était dû au fait qu’ils sont moins brillants que les galaxies de Seyfert, étant plus éloignés. Cependant, certains résultats intéressants que Giacconi ne mentionnait pas avaient aussi été obtenus grâce à d’autres satellites X. Les satellites OSO (Orbiting Solar Observatory) avaient été lancés dans les années soixante pour étudier le Soleil mais ils passaient également une fraction de leur temps à regarder d’autres sources cosmiques. OSO 7 emportait un télescope fabriqué par l’université de San Diego en Californie capable de voir les rayons X très énergétiques, tandis que Uhuru les

223

224

Des quasars aux trous noirs

voyait à des énergies plus faibles. Ils permirent d’obtenir pour la première fois le spectre X de quelques quasars radio et de radiogalaxies et de vérifier qu’il était semblable pour tous ces objets, ce qui prouvait bien la parenté entre ces deux classes. D’autre part, la puissance X était corrélée avec la puissance radio. L’une des sources les plus impressionnantes était la radiogalaxie Centaurus A, l’une des premières détectées comme on s’en souvient peut-être (voir Figure 3.5a). Les observations de 1975 montraient que l’émission X était confinée dans le noyau et très variable, avec des sautes d’un facteur deux en une semaine, preuve de la taille très petite de la source. Tout ceci plaidait fortement pour le mécanisme SSC, « synchrotron selfCompton »**, dans lequel le rayonnement X est produit à partir du rayonnement radio par le processus « Compton Inverse »**. Ce mécanisme est en fait tout simplement « la catastrophe Compton évitée », c’est-à-dire sans catastrophe, car un état d’équilibre s’établit entre les particules relativistes et les photons. Du rayonnement est alors émis de façon continue depuis le domaine radio jusqu’au domaine des rayons gamma11 . Dans l’ensemble, les observations X étaient décevantes puisque que même un noyau de galaxie de Seyfert aussi brillant que NGC 1068 n’était pas observable. Heureusement les choses ne restèrent pas aussi simples. La mission ARIEL 5 qui avait établi en 1976 un relevé du ciel entier dans la bande X avait permis de détecter une douzaine de sources dont certaines n’étaient pas encore identifiées dans le visible, et l’on avait pu vérifier après coup qu’elles étaient toutes des Seyfert 1. Ce qui prouvait que les Seyfert 1 étaient toutes des émetteurs X. Or il n’y avait pas de source radio intense dans ces noyaux de galaxies ! Quel était alors le mécanisme de production du rayonnement X puisqu’on ne pouvait l’attribuer au processus SSC ? À moins qu’il fût produit cette fois à partir de la lumière visible que l’on supposait toujours être du rayonnement synchrotron ? Le doute commençait à s’insinuer parmi certains esprits éclairés si on lit avec attention quelques phrases glissées çà et là au détour d’articles. 11 Dans ce mécanisme comme dans la « catastrophe Compton », une source très compacte contient des électrons relativistes et le rayonnement radio qu’ils émettent. Les collisions entre les électrons et les photons transfèrent de l’énergie des électrons relativistes aux photons par le processus « Compton Inverse ». Des photons ultraviolets et X sont fabriqués à partir des photons radio, et des photons gamma à partir des photons X. Un spectre en « loi de puissance » s’étend alors depuis le domaine radio jusqu’aux rayons gamma. C’est ce qui se produit dans Cen A. Nous retrouverons ce phénomène à propos de l’émission des jets dans le domaine gamma.

Les années soixante-dix : retour à la Science

Il était clair que les missions programmées pour le futur allaient permettre d’observer des noyaux actifs et des quasars dans le domaine des rayons X, grâce à leur sensibilité accrue, mais curieusement on n’attendait rien de bien nouveau de ce côté. Il est par exemple étrange de lire dans l’article analysant les résultats d’ARIEL 5 (au demeurant très sérieux et approfondi) que celui-ci doit contribuer pour six pour cent seulement au « fond diffus X cosmique » (c’est celui qui nous parvient de toutes les directions de l’espace) dans la bande d’énergie 2–10 KeV. Or on sait maintenant qu’il est entièrement dû aux galaxies de Seyfert ! C’est un exemple de plus montrant à quel point il faut se défier des affirmations basées sur des observations nouvelles qui ne sont peut-être pas complètement digérées. . . Quelques années plus tard, la génération des satellites des années quatre-vingts apportera une moisson de résultats fondamentaux et l’on percevra enfin l’importance de la lumière X pour s’approcher au plus près du « moteur central » dont elle est la seule signature universelle.

La vérité commence enfin à s’imposer On se souvient peut-être que, dès la découverte des quasars, deux astronomes de renom, Salpeter et Zeldovich, avaient entrevu la solution du problème mais que personne n’y avait prêté attention. Du moins dans le milieu des astronomes car pour les physiciens théoriciens la solution était claire depuis longtemps. Je vais la dévoiler maintenant puisqu’à partir de ce moment elle s’imposa enfin à la majorité des astronomes spécialistes des quasars. J’ai dit que lors du congrès du Vatican un jeune astronome anglais, Donald Lynden-Bell, avait proposé une théorie reprenant les idées de Salpeter et Zeldovich. En fait il avait déjà publié en 1969 dans la revue Nature un article intitulé « Galactic Nuclei as Collapsed Old Quasars » : « Les noyaux de galaxies comme des vieux quasars effondrés » [57]. Il renouvela sa suggestion l’année suivante au Vatican, avec une contribution intitulée « Accretion on a Massive Black Hole as the Driving Energy Process » (« Accrétion sur un trou noir massif comme le processus produisant l’énergie »). Jusqu’au congrès de Copenhague, très peu d’astronomes prenaient cette idée au sérieux. Elle restait essentiellement confinée à un petit groupe d’astronomes théoriciens dans l’Institute of Theoretical Astronomy, le IOTA de Cambridge en Angleterre (qui est devenu simplement le

225

226

Des quasars aux trous noirs

IOA depuis qu’il a été rejoint par un groupe d’observateurs du Royal Greenwich Observatory12 ). Elle était également admise dans la communauté stellaire depuis plusieurs années mais dans un contexte différent puisqu’il s’agissait de trous noirs de quelques masses solaires seulement. À Copenhague, Lynden-Bell fit un exposé intitulé « Gravity Power » (« pouvoir de la gravité ») où il montrait que les étoiles supermassives ne pouvaient expliquer ni les quasars ni les radiogalaxies et que seul le « black power » – on en parlait beaucoup à ce moment à propos des États-Unis – c’est-à-dire la puissance causée par du gaz tombant sur un trou noir supermassif, pouvait rendre compte des phénomènes observés. Ce qui rendait maintenant crédible cette idée du trou noir supermassif c’est qu’elle était assortie d’un exposé de Martin Rees intégrant ces processus dans le cadre évolutif des noyaux de galaxies. Il produisit en effet un diagramme devenu célèbre depuis, appelé la « flow chart » (que l’on peut traduire par « diagramme d’évolution »), qui fut reproduit des centaines de fois dans des articles et dans des congrès : il montrait que l’évolution des étoiles dans un noyau galactique devait conduire inéluctablement à la formation d’un trou noir supermassif. Les quasars entraient enfin dans le cadre d’un modèle explicatif et prédictif qui avait paru extravagant pendant plus de quinze ans et avec lequel il était possible de travailler. Je ne développerai cependant pas plus ici les idées concernant cet « engin central » comme on l’appelle, c’est-à-dire le trou noir et son mode de production de l’énergie car il mérite à lui seul un chapitre entier. L’impact fut grand et il fut beaucoup question de trou noir immédiatement après le congrès de Copenhague. En quelque sorte dans son prolongement eut lieu à Cambridge, (Angleterre) en août de la même année, une école d’été de l’OTAN (qui finançait chaque année de nombreuses écoles semblables, comme celle des Houches). Plusieurs astronomes de l’Institut d’astronomie théorique de Cambridge devaient y donner des cours et comme ils étaient tous renommés et de grand niveau, cette école promettait d’être passionnante et je décidai d’y assister. Ces cours furent publiés par Cambridge University Press sous le nom Active Galactic Nuclei. On ne peut mieux résumer l’état d’esprit de l’école – à la fois d’exaltation, de scepticisme et d’humour – qu’en reproduisant un 12

Ce prestigieux observatoire a été en effet jugé trop coûteux pour la communauté. Il a été finalement dissous, et une partie de ses membres dispersée dans divers instituts, comme le IOTA ou l’Observatoire d’Édimbourg, l’autre partie ayant été purement et simplement débauchée.

Les années soixante-dix : retour à la Science

227

Figure 7.15. « Réponse des astronomes à une idée nouvelle à la mode » d’après R. Mc Cray, dans Active Galctic Nuclei, Cambridge University Press, 1978.

dessin publié dans le livre de comptes-rendus par un astronome américain, Richard Mc Cray. Il l’avait appelé : « Réponse des astronomes à une idée nouvelle à la mode » (Figure 7.15). Et voici le commentaire qui l’accompagnait, dont je préfère ne pas changer un mot : « Le système est caractérisé par deux rayons. Au-delà du rayon d’accrétion, les astrophysiciens sont suffisamment occupés par d’autres problèmes pour ne pas être trop influencés par l’idée à la mode. Mais d’autres, à l’intérieur de ce rayon, amorcent un plongeon tête baissée vers elle. Il y a peu de communications entre ces individus qui suivent des trajectoires balistiques dépendant de leurs conditions initiales. Dans leur hâte d’être les premiers, ils manquent invariablement le point central et suivent quelque tangente. S’il y a un nombre suffisant d’astrophysiciens au voisinage de l’idée, la communication se produit finalement mais elle le fait généralement au cours de collisions violentes. De telles collisions, peut résulter une illumination qui peut en retour modifier le comportement des autres. En effet, l’illumination peut être suffisante pour contrecarrer l’attraction de l’idée et stopper le flot dans son ensemble. La seule conséquence dans ce cas est que quelques individus peuvent avoir traversé l’horizon de rationalité au-delà duquel l’idée à la mode est devenue un article de foi. Ces esprits infortunés ne s’en sortiront

228

Des quasars aux trous noirs

jamais ; des exemples de ce dernier phénomène sont familiers à chacun d’entre nous ». Inutile de préciser que, outre une fine analyse psychologique et sociologique, ce texte ne comporte pas un mot dont le sens physique ne soit parfaitement clair pour un spécialiste. Le congrès de Copenhague apporta donc un début de mise en forme dans notre compréhension des quasars. Après lui, presque tous les spécialistes abondonnèrent les « décalages anormaux ». L’on y sentait en gestation un certain nombre d’idées qui ne mûriraient que pendant la décennie suivante. Comme toujours, quelques esprits éclairés avaient devancé le mouvement mais ils n’étaient pas encore suivis par l’ensemble de la communauté.

Chapitre 8

Les années soixante-dix : fin d’une grande controverse Dans les années soixante-dix, on n’avait pas encore trouvé les explications de tous les paradoxes que posaient les quasars et la controverse « des décalages anormaux » battait son plein. Les découvertes continuaient en effet à affluer et chaque fois elles reposaient le statut du décalage et de la distance des quasars – cosmologique ou non. Il faut dire que l’on avait eu droit à quelques résultats surprenants. Il ne se passait donc pas de réunions sans que soient exhibées de nouvelles données corroborant l’idée des décalages non cosmologiques. Et comme le montraient bien le congrès du Vatican et celui de Copenhague, de nombreux astronomes étaient encore perplexes et prêts à accepter l’idée de décalages anormaux. L’un des points forts de la controverse fut la publication en 1974 d’un numéro spécial du Journal of the Royal Astronomical Society of Canada, « The Redshift Controversy », édité par trois Américains, George Field, Halton Arp et John Bahcall. Ce livre reprenait les articles écrits pour et contre les décalages anormaux, en y ajoutant des sortes de synthèses. Un lecteur averti pouvait donc en principe se faire une opinion lui-même car à l’époque il n’était pas encore évident de savoir de quel côté la balance allait pencher. Mais peu à peu la clarté se fit et la controverse se dégonfla. Et si l’on voit encore souvent écrit qu’elle est encore vivante et que les décalages des quasars sont inexpliqués, c’est dans des journaux non spécialisés, en faisant fi de tous les arguments que l’on peut invoquer contre eux et en oubliant que seul un quarteron d’astronomes, certes éminents, continuent d’y être favorables. Nous avons vu que plusieurs phénomènes « mystérieux » avaient été expliqués dès la fin des années soixante-dix dans

230

Des quasars aux trous noirs

le cadre de la physique conventionnelle. Il en restait certes d’autres encore mal compris mais il aurait été surprenant qu’ils l’aient tous été, les quasars ayant été découverts à peine quinze ans plus tôt et la communauté travaillant sur le sujet étant limitée. Cependant, les tenants de la physique non conventionnelle estimaient que l’on ne pouvait faire l’impasse d’une remise en cause globale de la théorie et la violence du débat fut grande comme je l’ai déjà montré à propos du congrès de Copenhague. En son temps, ce débat a été fascinant non seulement à cause de son importance scientifique, mais également par ce qu’il a révélé sur les personnalités et les différentes conceptions de la science. Pourquoi en effet tant de passions se sontelles déchaînées dans cette discussion ? Il est certes normal et même indispensable au bon déroulement de la recherche d’avoir une démarche critique et de remettre en cause en permanence ce qui est acquis, y compris les paradigmes les mieux implantés. Beaucoup l’oublient et n’écoutent que ce qui rentre dans le cadre des idées à la mode. Les promoteurs d’une idée iconoclaste pensent donc, parfois à juste titre, qu’ils sont porteurs d’une vérité et qu’ils doivent à tout prix l’imposer à des scientifiques conservateurs et frileux (rappelons que l’espoir d’un prix Nobel se profile aussi souvent derrière ces batailles de titans). Ce fut le cas pour les grandes coupures épistémologiques comme la révolution copernicienne ou galiléenne. Mais tout le monde n’est pas Copernic ou Galilée. Et lorsque la démarche critique s’accompagne de la négation des connaissances précédentes et du recours à une physique nouvelle, il faut qu’elle soit sans faille, d’une parfaite rigueur, que le qualitatif et l’approximatif en soit proscrit, que la démonstration soit probante. Et il faut qu’un modèle prédictif en émerge. Rien de tout cela ne s’est produit avec les décalages anormaux. Je suis pourtant sûre que tous les astronomes, même les plus « orthodoxes », auraient été excités et ravis qu’un concept totalement nouveau se dégage de leur science, montrant que l’astrophysique ne se réduit pas à appliquer la physique connue dans des conditions extrêmes. Mais, comme l’écrivait Martin Rees à cette époque : « La théorie orthodoxe d’un phénomène est par définition la plus développée parmi les théories qui n’ont pas encore pu être éliminées empiriquement. Donc suivre une approche orthodoxe est généralement la meilleure stratégie pour obtenir une confrontation décisive entre la théorie et l’observation qui permettra soit de renforcer l’orthodoxie, soit de l’éliminer en faveur d’une autre qui deviendra alors la nouvelle orthodoxie. »

Les années soixante-dix : fin d’une grande controverse

Une affaire de statistique On peut se demander pourquoi il a été si difficile de statuer sur ce problème des décalages anormaux. C’est que, outre les phénomènes dont il a déjà été question, un astronome, Halton Arp, excellent photographe, publiait sans cesse d’étranges observations. Il fut pendant presque trente ans membre de l’Observatoire du Mont Palomar et avait donc un accès facile au télescope de cinq mètres. Il était d’ailleurs l’auteur d’un Atlas de galaxies particulières où l’on trouve de nombreuses galaxies de formes extraordinaires qui ont été étudiées en détail par la suite. Donc Arp et quelques autres découvraient de bizarres alignements de quasars, des décalages semblant répondre à des récurrences ou à des lois d’exclusion, des quasars situés à côté de galaxies brillantes proches auxquels ils étaient joints par un pont de matière, des groupes de galaxies dans lesquels un membre n’avait pas le même décalage que les autres, etc. Arp publia en 1987 un livre Quasars, Redshifts and Controversies, dans lequel il rassemblait ses principales découvertes. Je ne crois pas que ce livre ait contribué à faire changer quiconque d’avis : c’était déjà devenu une sorte de dogme au-delà du rationnel car entre temps la controverse avait fait long feu et seul un petit bastion d’irréductibles croyaient encore à l’existence de décalages anormaux, à l’instar de Arp, Burbidge, Hoyle et Narlikar. Ils continuent d’ailleurs à publier livres et articles sur le sujet. Qu’est-ce donc qui a conduit à la désaffection de ce problème ? Il y a à cela deux raisons. La première est que l’on peut comparer ce cas à celui des OVNI : on ne peut les réfuter tous ou bien notre temps y serait entièrement consacré. Car chaque fois qu’une observation étrange est expliquée, il s’en trouve de nouvelles. Cela pourrait continuer indéfiniment puisque le ciel est immense et contient des millions, voire des milliards d’objets, dont il est maintenant possible d’obtenir une image détaillée et dont certains ont des particularités curieuses. Mais presque aucun astronome n’éprouve l’envie de passer son temps à montrer que tel alignement peut être dû au hasard, ou que tel quasar est bien situé derrière la galaxie près de laquelle il semble se trouver. Il suffit à mon avis que quelques exemples phares aient été prouvés faux et qu’aucun des autres ne soit indiscutable. Voici un exemple. En 1877, l’astronome Édouard Stéphan découvrit avec le télescope de 80 cm de l’Observatoire de

231

232

Des quasars aux trous noirs

Figure 8.1. Le quintette de Stephan.

Marseille un magnifique groupe de cinq galaxies que l’on appelle depuis le « quintette de Stephan ». En 1961, Gef et Margaret Burbidge montrèrent que le décalage de l’une des galaxies du groupe, NGC 7320, était huit fois plus petit que celui des quatre autres galaxies (Figure 8.1). Cela signifiait qu’elle était plus proche que les autres. Or, on aurait logiquement attendu avec l’hypothèse cosmologique conventionnelle que cette galaxie, étant plus proche, soit en apparence plus grande que les autres, ce qui n’était pas le cas. Les quatre autres galaxies devaient donc avoir des décalages non cosmologiques. Ou bien NGC 7320 avait été expulsée du groupe des quatre autres dans notre direction avec une vitesse au moins égale à 6 000 kilomètres par seconde, ce qui représentait une énorme énergie de mouvement pour une galaxie de cette taille. C’était l’hypothèse que favorisaient en ce temps les Burbidge. Mais il s’avéra rapidement que toutes ces galaxies possédaient bien les propriétés (par exemple radio) correspondant à leur distance déduite de leur décalage, environ 270 millions d’années-lumière pour les quatre plus lointaines. Et il ne fait maintenant aucun doute pour personne que NGC 7320 est simplement une petite galaxie de champ située à 30 millions d’années-lumière, se projetant par hasard sur le groupe plus lointain des autres galaxies. Les Burbidge pensaient que ce phénomène avait une chance infime de se produire et l’avaient évalué à moins de un millième. Or il très fréquent dans l’univers extragalactique à cause du nombre et de la diversité

Les années soixante-dix : fin d’une grande controverse

233

Jet en forme de V

extraordinaire des objets. Ironiquement d’ailleurs, il est maintenant prouvé que seulement trois des galaxies du quintet (qui est en fait un sextet, comme on peut le voir sur la photographie), NGC 7317, 7318A et 7319, font partie du même groupe et que les deux autres, NGC 7320C et NGC 7318B, passent là tout à fait par hasard. Mais l’histoire ne s’arrêta pas là. En effet, un groupe de six auteurs dont les Burbidge et Arp a publié en 2005 un article dans l’Astrophysical Journal montrant que NGC 7320 contient elle-même un quasar de grand décalage [36]. Ils concluent : « Ceci est donc une évidence de plus que des quasars de grand décalage sont générés et éjectés de galaxies actives de faible décalage » (Figure 8.2). En fait, l’essence de la controverse est principalement statistique. La méthode que Arp a souvent utilisée est particulièrement dangereuse de ce point de vue. En effet, il partait d’une galaxie et cherchait ce qui pouvait exister de curieux autour. Sur le nombre il trouvait évidemment certains cas bizarres. C’est comme si, lisant sur la plaque d’immatriculation d’une voiture devant nous le nombre 9 999, nous nous en étonnions car la probabilité de trouver un tel nombre est très faible, de un pour dix mille. C’est vrai mais nous n’avons simplement pas prêté attention aux 9 990 autres nombres (j’exclus ceux qui ont quatre chiffres identiques). De même, quand nous gagnons à la loterie et que nous trouvons que c’est une institution

Figure 8.2. Une partie de la galaxie NGC 7320 montrant un quasar de décalage 2,114 situé apparemment à l’intérieur de la galaxie. Ce quasar a été découvert sur une image en rayons X obtenue avec le satellite Chandra, puis il a été observé avec le télescope spatial Hubble qui a permis de détecter l’image visible du quasar, enfin un spectre en a été pris au télescope de 10 mètres Keck à Hawaï et a permis d’en obtenir le décalage. Les auteurs de l’article discernent un jet en provenance du quasar qui prouve d’après eux son appartenance à la galaxie (d’après Galianni et al. 2005).

234

Des quasars aux trous noirs

merveilleuse, nous oublions que nous avons acheté des centaines de billets avant d’en arriver là, ou tout bonnement que plusieurs millions d’autres en ont acheté sans rien gagner. Ou lorsque ma mère me disait : « C’est vraiment extraordinaire, j’ai rêvé de toi juste avant que tu aies ton accident d’automobile », n’avait-elle pas rêvé de moi très souvent sans y prêter attention ? La différence réside dans ce qui est statistique a priori et statistique a posteriori. C’est un débat qui n’est pas près d’être clos puisqu’on en est encore à estimer des probabilités différant par des facteurs un million entre les uns et les autres. Tant que le nombre de quasars était très réduit et qu’ils étaient distribués de façon inhomogène sur le ciel pour des raisons diverses, il était difficile de leur appliquer les règles des statistiques a priori. Maintenant que d’énormes régions du ciel ont été explorées et ont livré tous les quasars qu’elles contiennent, y compris les plus faibles, on peut vérifier que les nombres de groupements et d’alignements correspondent bien à ce qui est prédit par les lois du hasard. Tout semble corroborer que le hasard est à l’œuvre sans avoir besoin de faire intervenir une théorie nouvelle. De surcroît, on sait maintenant que « l’effet Einstein » non seulement crée de multiples images du même quasar lorsqu’il est situé derrière un amas de galaxies ou une galaxie massive qui joue le rôle d’une « lentille gravitationnelle », mais également amplifie leur éclat, augmentant ainsi la proportion de fausses associations. Le cas qui a fait le plus couler d’encre est sans conteste le couple formé par la galaxie NGC 4319 et la galaxie de Seyfert Markarian 205 (appelée souvent quasar à cause de sa grande luminosité) : ces deux objets dont les décalages diffèrent par un facteur douze semblent reliés par un pont de matière (Figure 8.3). L’existence de cette connexion a été discutée pendant de nombreuses années mais elle est indubitablement présente. Toutefois, a-t-elle une signification ? Les propriétés des galaxies de Markarian lumineuses, comme on le verra plus loin sont fort bien expliquées par la théorie du « cannibalisme » : pour devenir « actives » elles doivent « avaler » le gaz en provenance d’autres galaxies passant à proximité. Il suffit de jeter un coup d’œil sur la simple galaxie spirale M 51 (Figure 3.9), dont le noyau a un niveau d’activité très faible, pour voir qu’une petite galaxie est en train d’être capturée. Les galaxies à noyau actif, tiraillées par les « marées » créées par les galaxies voisines très proches, présentent donc souvent comme les quasars, des formes tourmentées, avec des bras et des extensions bizarres. Et il serait

Les années soixante-dix : fin d’une grande controverse

235

Figure 8.3. Markarian 205 et NGC 4319.

tout à fait possible que l’extension de Markarian 205 soit la manifestation de l’une de ces perturbations, qui pointe par hasard dans la direction de NGC 4319. On le saura peut-être un jour si l’on parvient à prendre un spectre de ce pont de matière : aura-t-il le décalage de Markarian 205 ou de NGC 4319 ? Et si par extraordinaire il présentait une suite continue de décalages compris entre ceux des deux objets ? Ce serait la preuve irréfutable de l’existence de décalages anormaux. . . De nombreux astronomes, dont moi-même, n’avaient pas encore des idées arrêtées sur les décalages anormaux dans les années soixante-dix et j’apportais donc ma petite contribution au débat. J’effectuais en 1973 un séjour dans l’Observatoire de Buyrakan, situé à une quarantaine de kilomètres de Erevan, la capitale de l’Arménie, pendant lequel je rencontrai Ambartsumian. Je garde un très mauvais souvenir du début de ce voyage car en arrivant à Moscou le jeudi 30 avril, j’appris que mon vol pour Erevan avait été annulé. Le lendemain était le vendredi 1er mai, les gens faisaient naturellement le pont le samedi et il n’y avait pas d’avion le dimanche. Je dus donc attendre le lundi suivant avant de pouvoir quitter Moscou, ne pouvant joindre aucun collègue scientifique, tous les instituts étant fermés

236

Des quasars aux trous noirs

pendant ces trois jours. J’étais logée dans le gigantesque « Hôtel de l’Académie », à la fois luxueux et délabré, que connaissent tous ceux qui ont séjourné quelque temps à Moscou dans ces années-là. Ce genre d’expérience à laquelle ont été confrontés nombre de collègues était dû à la gestion anarchique et bureaucratique de tous les organes gouvernementaux. Je fus stupéfaite de découvrir en Arménie une population misérable mais réussissant à garder une extraordinaire créativité. Je crois qu’environ le tiers de la population était artiste, peintre, poète ou musicien. L’observatoire était plein de scientifiques passionnés qui réussissaient à produire d’excellents résultats malgré des conditions de vie très difficiles, comme Arakelian, et naturellement Markarian. Lors de mon séjour à l’Observatoire de Buyrakan, je travaillai donc sur le problème des décalages anormaux avec Jean-Claude Pecker et un astronome arménien, Tovmassian. Jean-Claude était à l’époque l’un des tenants de la théorie de la « fatigue de la lumière » impliquant l’existence d’une composante non cosmologique du décalage des galaxies. Mes collègues de l’Observatoire de Meudon, Lucette Bottinelli et Lucienne Gouguenheim, avaient découvert à la suite de Arp que les galaxies membres de groupes présentaient systématiquement un petit décalage par rapport à la galaxie la plus brillante du groupe. Ce n’était pas grand chose, moins d’une centaine de kilomètres par seconde, mais l’effet semblait réel. En étudiant les groupes entourant les galaxies nouvellement répertoriées par Markarian qui étaient non seulement plus bleues et plus compactes que les autres mais également plus lumineuses, nous avions confirmé que les autres galaxies du groupe possédaient souvent un petit décalage supplémentaire pouvant faire partie de la catégorie des décalages anormaux. Une dizaine d’années plus tard Arp étudia un ensemble de galaxies compagnons associés à des galaxies brillantes et trouva que plus de trois quarts d’entre elles présentaient un excès de décalage par rapport à la galaxie brillante. Puis, l’américain Sulentic analysa en détail un nouveau catalogue de groupes de galaxies en principe « non biaisé » et conclut que sur les soixante groupes dominés par une galaxie spirale, soixante pour cent des galaxies compagnons avaient un excès de décalage, tandis que dans les groupes dominés par une galaxie elliptique, les décalages étaient distribués de façon égale. La probabilité pour trouver un tel excès était faible en supposant une distribution homogène (cette probabilité dépend en

Les années soixante-dix : fin d’une grande controverse

effet du nombre de cas examinés, qui était grand dans l’étude de Sulentic). Il y avait donc un réel problème pour les groupes dominés par une galaxie spirale brillante (Encadré 8.1).

Encadré 8.1. Sulentic avait essayé de trouver des explications à ces excès. Il mentionnait par exemple une erreur systématique dépendant de la magnitude des galaxies dans les déterminations de décalage mais il n’y croyait pas à cause des mesures très précises obtenues grâce à la raie 21 cm de l’hydrogène*. Il ne croyait pas non plus à la possibilité que l’on sous-estime systématiquement le décalage de la galaxie spirale dominante du groupe. Pourtant, à la lumière de ce que l’on connaît maintenant des galaxies actives, il me semble que cette cause d’erreur était plausible dans le cas particulier des galaxies de Markarian que nous avions examinées. Elle tiendrait au fait que l’on mesure la plupart du temps leurs décalages à partir des raies en émission. Or, il est maintenant prouvé que celles-ci donnent une vitesse d’éloignement plus petite que lorsqu’on utilise les raies stellaires en absorption. Ce phénomène serait dû aux vents éjectés par le noyau dont nous verrions préférentiellement la partie qui se rapproche, l’autre nous étant partiellement cachée par le disque galactique.

Byrd et Valtonen discutèrent ce problème en 1985 et montrèrent que plusieurs effets pouvaient concourir à une surestimation des décalages d’une partie des galaxies des groupes. Il y avait d’abord l’effet des « intrus », c’est-à-dire des galaxies situées devant ou derrière le groupe. Elles sont d’autant plus nombreuses que le groupe est plus éloigné et elles sont surtout situées derrière le groupe. Elles conduisent donc à une surestimation du nombre de galaxies ayant un décalage plus grand que la moyenne du groupe. Byrd et Valtonen remarquèrent aussi que si certains de ces groupes participaient au « flot de Hubble », c’est-à-dire qu’ils étaient encore en expansion à l’heure actuelle – ce qui est probablement le cas, on devait s’attendre à ce que les galaxies situées à l’arrière du groupe aient en moyenne un décalage supérieur aux galaxies situées à l’avant du groupe. Comme le volume observé nous faisant face et se rapprochant est plus petit que celui qui est à l’arrière

237

238

Des quasars aux trous noirs

Figure 8.4. Interprétation de l’excès de décalage dans un groupe de galaxies en expansion.

et s’éloigne, il s’ensuit un excès de décalage. Ils calculaient qu’il était numériquement égal à l’effet observé (Figure 8.4).

Où l’on voit que certains « décalages anormaux » pourraient bien être de vrais « mirages » Bref, on pouvait trouver plusieurs explications à ces phénomènes. Mais la plus probable tient à des effets de relativité générale liés aux inhomogénéités de la matière dans l’Univers ainsi que le montra Laurent Nottale. Après avoir soutenu l’idée des décalages anormaux, il fut en effet l’un des premiers à réaliser dès la fin des années soixante-dix l’importance des « lentilles gravitationnelles » dans lesquelles les amas de galaxies (ou simplement des galaxies massives) amplifient la lumière d’objets situés à l’arrière-plan. Il fit le calcul du trajet optique des photons dans le cadre « conventionnel » de la relativité générale et montra qu’on devait s’attendre à un tel effet. Il trouva en particulier que les galaxies dans les amas devaient subir une magnification et un léger décalage gravitationnel vers le rouge** de 100 à 250 km/s. Il expliquait par la même occasion les mirages gravitationnels qu’on venait de découvrir (Figure 8.5).

Figure 8.5. Explication de l’effet de « lentille » ou de « mirage » gravitationnel.

Les années soixante-dix : fin d’une grande controverse

239

Encadré 8.2. Les rayons lumineux issus d’un quasar distant et passant au voisinage d’un corps massif subissent une déviation prédite par la relativité générale. Eddington vérifia cet effet en observant la déviation des rayons lumineux par le Soleil en 1919. La masse s’interposant entre l’observateur et le quasar joue le même rôle qu’une lentille optique interposée sur le trajet d’un rayon lumineux, d’où son nom de « lentille gravitationnelle ». La lentille peut amplifier l’image mais également la démultiplier. On appelle alors « mirages gravitationnels » ces images multiples, par analogie avec les mirages créés par la réfraction atmosphérique dans le désert ou sur une route chauffée par le Soleil. Le premier mirage gravitationnel fut observé en 1979 [75] sous la forme de deux images exactement identiques du quasar 0957 + 561. Un cas fameux de mirage gravitationnel est celui du quasar 2237 + 0305, appelé la « croix d’Einstein » (Figure 8.6).

Figure 8.6. La « croix d’Einstein » : le quasar 2237 + 0305 (de décalage z = 1,7) est démultiplié en quatre images par une galaxie proche jouant le rôle de lentille gravitationnelle dont on distingue très bien la partie centrale sur la photo.

On peut dire que Laurent Nottale mit longtemps à être entendu par la communauté ! Il avait publié en 1976 dans Nature un article où il prédisait que « des sources distantes doivent être plus lumineuses lorsqu’elles sont vues à travers des amas de galaxies qui jouent alors le rôle de lentilles gravitationnelles ». C’est aussi lui qui avait inventé l’expression tellement usitée maintenant de « télescope gravitationnel » pour ce qui constitue l’un des plus importants domaines de la cosmologie

240

Des quasars aux trous noirs

Figure 8.7. Photo prise avec le télescope Hubble, montrant la déformation des galaxies situées à l’arrière plan de l’amas Abell 2218.

observationnelle à l’heure actuelle, dans lequel la France excelle d’ailleurs. Les « arcs gravitationnels », eux, sont dûs à une sorte « d’astigmatisme gravitationnel » déformant les galaxies situées derrière des amas de galaxies très massifs. Le premier arc gravitationnel fut observé en 1987 derrière l’amas Abell 370 simultanément par une équipe française de Toulouse [96] et par une équipe américaine. En fait, les Français avaient annoncé les premiers leur découverte dans un congrès en 1986 mais leur article ne sortit que l’année suivante en même temps que celui de leurs concurrents. Donc le bénéfice de la découverte n’alla pas à eux mais à l’équipe américaine. Depuis cette époque on a découvert quantité d’autres arcs gravitationnels et on a même constaté que les galaxies sont déformées de façon cohérente dans de grandes régions de l’Univers (Figure 8.7). La gravité étant sensible aussi bien à la matière noire qu’à la matière baryonique, on peut mettre à profit cette propriété pour déterminer la distribution de la matière noire dans l’Univers et par conséquent la « peser ». L’équipe de l’Institut d’astrophysique dirigée par Bernard Fort et Yannick Mellier se consacre à cette recherche. Elle a déterminé dans ce but les formes de deux cent mille galaxies, dont sont déduites les fluctuations à grande échelle de la matière noire. Et elle a déjà obtenu des résultats remarquables, comme l’existence d’une corrélation entre la matière noire et la matière visible. Revenons maintenant aux décalages anormaux. Si je me suis étendue longuement sur ces problèmes c’est pour montrer jusqu’à quel degré de sophistication il faut conduire une analyse pour être sûr qu’elle ne soit pas biaisée par de multiples effets, même minuscules ; et par conséquent quel travail c’est de réfuter cas par cas tous les problèmes posés, chacun étant à la limite des possibilités observationnelles et des erreurs statistiques.

Les années soixante-dix : fin d’une grande controverse

Donc la lassitude a créé la désaffection du sujet. . . Mais il y a une seconde raison d’ordre supérieur. C’est qu’il n’a jamais été proposé pendant trente ans aucun cadre théorique général dans lequel insérer cette série de faits disparates. Bien sûr les tenants de l’Univers quasi stationnaire et Hoyle le premier avaient tenté d’intégrer ces observations dans leur théorie. Hoyle avait suggéré que la matière prenait naissance dans les noyaux des galaxies, rejoignant en cela les anciennes idées d’Ambartsumian. Dans la même ligne de pensée, Arp proposa que des objets très denses et très chauds (des quasars) sont éjectés avec des décalages « anormaux » par les noyaux de galaxies, que leur décalage décroît peu à peu à mesure que se forment des étoiles et qu’ils deviennent des galaxies ordinaires. Les quasars seraient donc des objets proches et ne seraient pas plus lumineux que de simples étoiles supergéantes. C’est oublier qu’il existe tout un faisceau de preuves que les quasars sont bien à des distances cosmologiques. On distingue maintenant jusqu’à des décalages de 2 les galaxies qui hébergent un quasar et celles qui en sont toutes proches ainsi que les amas de galaxies qui les entourent. On est capable d’en prendre des spectres, vérifiant alors que le décalage est le même que celui du quasar. On observe les multiples images de quasars causées par une lentille gravitationelle située sur leur ligne de visée. Cette lentille est généralement constituée par un amas de galaxies bien perceptible sur les photographies et dont le décalage est mesurable. Il est souvent élevé mais toujours inférieur à celui du quasar, indiquant que l’amas se trouve entre le quasar et nous-mêmes, comme on s’y attend. On observe dans tous les spectres de quasars des raies sombres à des décalages moins élevés que celui du quasar et, lorsqu’on mesure les décalages des galaxies qui se projettent sur le ciel tout près d’un quasar, on constate qu’ils sont égaux à ceux de ces raies, signant clairement leur forfait. Donc, dans tous les cas où l’on a fait l’effort de confirmer qu’un quasar était situé à une distance cosmologique, on a pu le prouver. Et il serait étrange que les quasars se partagent en deux populations, l’une faite d’objets proches et peu lumineux, l’autre d’objets très lointains et très lumineux, cette dernière catégorie ayant d’ailleurs une propension à remplacer la première à mesure que les techniques d’observation évoluent. . . Et qu’elles aient toutes les deux exactement les mêmes propriétés dans tous les domaines de longueur d’onde. On peut aussi rappeler que les régions émettant les raies brillantes obéissent à des lois connues simples rendant

241

242

Des quasars aux trous noirs

parfaitement compte des spectres observés. On sait, en effet, de nos jours, que les longueurs d’onde des raies spectrales ne varient pas jusqu’à des distances de plus de dix milliards d’années-lumière dans une proportion de plus d’un millionième. Il faudrait que les tenants des décalages anormaux expliquent pourquoi ceux-ci conservent aussi bien toutes les constantes de la physique comme la « constante de structure fine » ou la constante de la gravitation universelle. Et pourquoi cette matière étrange à grand décalage existerait-elle sous la forme de nos classiques nébuleuses ou même sous forme de gaz très froid, ayant exactement les mêmes propriétés que les nuages interstellaires de notre Galaxie ? Bref pourquoi les phénomènes observés seraient strictement identiques à ceux de la matière qui nous environne et pourtant gouvernés par d’autres lois de la physique ? Donc, à partir de la fin des années soixante-dix, la « controverse des décalages anormaux » commençait enfin à s’éteindre tandis que les trous noirs envahissaient le devant de la scène.

Chapitre 9

Le « Black Power » à l’œuvre dans les quasars À la fin des années soixante-dix, on sortait donc enfin du tunnel et l’on commençait à entrevoir l’explication des quasars et des noyaux actifs de galaxies grâce à ce que l’on a appelé les « trous noirs supermassifs ». Donald Lynden-Bell avait montré à Copenhague que le pouvoir de la gravitation, le « Black Power » comme il le nommait, était plus efficace que tout autre pour convertir de la matière en énergie. Martin Rees avait replacé ce phénomène dans un contexte astrophysique réaliste. Dès lors, la plupart d’entre nous étions convaincus que c’était bien la solution du problème. On peut se demander pourquoi cette vieille idée – celle d’un trou noir – avait mis si longtemps à s’imposer puisqu’après tout elle était contenue dans le cadre de la relativité générale, que Zeldovich et Salpeter l’avaient déjà évoquée à propos des quasars dans les années soixante, que Lynden-Bell l’avait proposée au colloque du Vatican et d’ailleurs qu’elle était acceptée par de nombreux physiciens théoriciens, qui, eux, la considéraient comme une évidence. C’est que pour des astronomes « traditionnels », plus pragmatiques et détestant souvent les considérations théoriques et abstraites, le pas était dur à franchir entre les quasars et des spéculations apparemment très hardies car on n’avait encore à cette époque aucune preuve de l’existence de ces entités bizarres. Cependant les choses avaient beaucoup progressé depuis le début des années soixante, on avait bâti des modèles de trous noirs et des découvertes importantes les concernant avaient été réalisées dans des domaines différents. De plus, la dimension des quasars avait due être révisée à la baisse par l’observation des variations très rapides du rayonnement X et il devenait impératif de ne plus invoquer les réactions

244

Des quasars aux trous noirs

nucléaires pour rendre compte de la puissance des quasars car elles impliquaient trop de matière dans un trop petit volume. Une remarque vaut la peine d’être faite à ce propos. En relisant les publications des années soixante-dix, on s’aperçoit que l’un des arguments invoqués pour la petite dimension de la source d’énergie dans les quasars a été la découverte de quelques variations extraordinairement fortes et rapides. Par exemple, une lacertide (A00235 + 164) s’était mise brutalement à émettre un rayonnement puissant comme dix mille fois celui de notre Galaxie pendant l’automne 1975 ! Évidemment, si l’on avait su à ce moment que l’objet pointait dans notre direction et que le rayonnement était par conséquent amplifié et le temps contracté, le phénomène serait devenu beaucoup moins étrange. Mais, dans le contexte de l’époque, il fit une très forte impression et joua un grand rôle pour la crédibilité des trous noirs alors qu’en fait il ne prouvait rien. Voici donc l’exemple d’un mauvais argument ayant impulsé une idée novatrice, ceci sans aucune arrière-pensée frauduleuse1 . L’une des raisons poussant les astronomes à prendre plus au sérieux des spéculations qu’ils jugeaient au début complètement farfelues tient certainement à la découverte des pulsars en 1967. Car elle prouva qu’un corps aux propriétés extraordinaires, prédit depuis longtemps par une théorie fondée sur des lois rigoureuses, existait bel et bien dans la réalité.

Digression sur les pulsars J’ai rappelé dans le premier chapitre qu’à la fin de leur vie – c’est-à-dire lorsqu’elles ont épuisé leur combustible nucléaire – les étoiles s’effondrent sur elles-mêmes sous la poussée de la pesanteur. Ainsi le Soleil, après avoir d’abord enflé jusqu’à remplir le système solaire en dévorant comme Cronos ses enfants2 jusqu’à Vénus et peut-être même jusqu’à la Terre, se contractera lentement pour devenir une naine blanche de quelques milliers de kilomètres de diamètre. Sa densité sera d’environ une tonne pour un dé à coudre de matière et il sera soutenu par 1

On se souvient en effet de l’exemple du moine Mendel qui fut à l’origine de l’une des plus grandes découvertes de la biologie, celle de la transmission des caractères héréditaires : il aida fortement la nature en modifiant ses statistiques pour les rendre plus probantes et mieux convaincre ses collègues.

2

Suivant la terminologie de mon collègue André Brahic.

Le « Black Power » à l’œuvre dans les quasars

la pression des électrons. Chandrasekhar3 en fit la théorie et Évry Schatzman en expliqua le débit d’énergie au début des années quarante. La première naine blanche à avoir été découverte est le compagnon de Sirius. On en connaît maintenant des milliers de tous âges et de masses diverses (mais toujours inférieures à 1,4 masse solaire). Les étoiles plus massives, elles, subissent un véritable cataclysme, avec une explosion spectaculaire sous forme de supernova et l’éjection de leurs couches extérieures tandis que leur cœur implose en quelques secondes et s’écroule pour former une minuscule étoile de quelques dizaines de kilomètres de diamètre. C’est du moins ce qui avait été prédit au début des années trente, après la découverte par le physicien britanique Chadwick des neutrons comme constituants des noyaux atomiques. La formidable pesanteur régnant dans ce cœur stellaire pousse en effet les électrons à se coller aux protons pour former des noyaux électriquement neutres (appelés par conséquent « neutrons ») qui, ne subissant plus la répulsion électrique, peuvent se coller à leur tour les uns aux autres. L’essentiel de la matière consiste alors en une sorte de magma constitué essentiellement de neutrons. Les astronomes Baade et Zwicky dont j’ai déjà parlé avaient ainsi conjecturé que, après l’explosion d’une supernova, le résidu pouvait devenir une « étoile à neutrons » constituant en quelque sorte un seul et immense noyau atomique. Ce qu’ils n’avaient pas prévu, je pense, c’est que les étoiles à neutrons seraient observables et même très facilement. L’histoire n’est pas sans rappeler celle des quasars, car elle débuta également par des observations radio effectuées à Cambridge, de surcroît avec un radiotélescope qui devait servir à détecter des quasars. Elle fut aussi totalement inattendue. En 1967, une jeune étudiante en thèse à Cambridge, Jocelyn Bell, fut chargée d’analyser les données provenant d’un radiotélescope nouvellement mis en service. Au bout de quelques semaines, elle remarqua une source semblant émettre des signaux périodiques toutes les secondes. C’était tellement étrange que, pendant plusieurs mois, son directeur de thèse, Antony Hewish, refusa d’annoncer la nouvelle car il pensait à un artefact provenant du radiotélescope. On ne saurait le lui reprocher puisque nous avons vu que de telles erreurs se produisent fréquemment, surtout lors de la mise en service 3 Ce chercheur indien vécut principalement aux États-Unis et s’illustra par des travaux fondamentaux dans pratiquement tous les domaines de l’astrophysique ; il obtint le prix Nobel en 1985 ; ses élèves racontent qu’il travaillait dix-huit heures par jour et ne prenait jamais de vacances. . .

245

246

Des quasars aux trous noirs

d’un nouvel instrument. Et il se rappelait trop bien ce qui était arrivé deux ans plus tôt avec le quasar CTA 102. . . Mais Jocelyn Bell insistait et se battit pour imposer ses vues. Par plaisanterie, Hewish et elle avaient d’ailleurs surnommé le signal « LGM », ou « Little Green Men » (Petits Hommes verts »). Chaque fois qu’ils ré-observaient cette source, ils voyaient apparaître sur les enregistrements des signaux durant une fraction de seconde et répétés régulièrement chaque seconde4 . Ne trouvant aucune explication pouvant provenir des instruments eux-mêmes, ils finirent par annoncer la nouvelle dans la revue Nature en février 1968 [44]. Comme pour les quasars, celle-ci galvanisa les esprits et tous les radiotélescopes se mirent à rechercher des « étoiles pulsantes ». Au cours de l’année qui suivit, on en découvrit plusieurs dizaines et on leur donna immédiatement le nom de « pulsars » (par analogie justement avec les quasars). On a beaucoup glosé sur le fait que Jocelyn Bell aurait dû être associée au prix Nobel de Hewish. Et, de fait, nous verrons plus loin que dans le cas de la découverte du premier pulsar binaire et de son ralentissement par émission d’ondes gravitationnelles, l’étudiant qui partagea cette découverte, Russell Hulse, reçut le prix Nobel avec son directeur de thèse. Or, cet étudiant ne participa même pas à la longue étude qui permit de valider l’existence des ondes gravitationnelles. Il ne publia d’ailleurs plus aucun article et disparut complètement de la circulation. Il s’occupa apparemment de fusion contrôlée et l’on peut supposer que les militaires mirent l’embargo sur ses découvertes. Alors pourquoi cette disparité dans les traitements de Russell Hulse et de Jocelyn Bell ? Il est probable qu’en 1974 il était encore assez inimaginable de donner le prix Nobel à quelqu’un de jeune et de surcroît à une femme : il fallait être Marie Curie ou Irène Joliot-Curie pour le mériter ! Tandis qu’en 1993, année où furent récompensés Hulse et Taylor, beaucoup d’eau avait coulé sous les ponts, on commençait à réaliser que les femmes avaient souvent été brimées dans leurs carrières scientifiques, Hulse lui-même avait déjà un âge plus « convenable » et peut-être le jury Nobel voulait-il racheter sa « bévue » précédente. Quoiqu’il en soit, Jocelyn Bell fit une carrière des plus honorables, devint doyenne d’une université et même présidente de la prestigieuse Royal Astronomical Society. 4 Ils ne les « entendaient » pas, car on n’avait pas encore pris comme maintenant l’habitude de transformer les ondes électromagnétiques en ondes acoustiques pour faire « écouter » les pulsars. Et de toute façon, le premier pulsar découvert aurait été inaudible, car sa fréquence était trop basse.

Le « Black Power » à l’œuvre dans les quasars

Contrairement aux quasars, qui n’avaient pas de cadre théorique pour les accueillir lorsqu’ils furent découverts, les pulsars en avaient un tout prêt : c’étaient les étoiles à neutrons. Une déduction à laquelle on était en effet conduit pour les étoiles à neutrons était qu’elles devaient posséder un énorme champ magnétique et tourner sur elles-mêmes effroyablement vite (Encadré 9.1).

Encadré 9.1. Le champ magnétique a en effet la propriété de conserver son intensité intégrée sur la surface. Ce qui signifie que lors d’une contraction, l’intensité augmente comme le carré de la dimension. D’une part, lorsqu’une étoile d’un million de kilomètres de diamètre (à peu près la taille du Soleil) s’effondre pour devenir une étoile à neutrons de 10 kilomètres, son champ magnétique augmente par un facteur 1010 (dix milliards). Si le champ magnétique à la surface de l’étoile était de 1 000 gauss au début de la contraction, il sera de 1013 gauss à la surface de l’étoile à neutrons. D’autre part, le « moment cinétique » (appelé souvent « moment angulaire »), qui est le produit de la masse par le rayon et par la vitesse de rotation, est conservé dans la contraction (c’est le phénomène bien connu des patineurs qui tournent plus vite lorsqu’ils ramènent leurs bras le long de leur corps). Donc la vitesse de rotation augmente aussi énormément lors de la contraction. Les choses ne sont cependant pas aussi simples que pour le champ magnétique, car il faut tenir compte du fait qu’une partie du moment cinétique est perdu par rayonnement, mais on peut montrer que la vitesse angulaire d’une étoile à neutrons doit être supérieure ou égale à un tour par seconde.

S’il existe des électrons relativistes au voisinage du pulsar – et il n’y a aucun doute là-dessus – ils doivent produire un rayonnement dirigé suivant l’axe du champ magnétique dans lequel ils baignent. Cet axe n’est en général pas le même que l’axe de rotation de l’étoile (comme le champ magnétique terrestre dont l’axe ne passe pas par les pôles). Il tourne donc avec l’étoile et celle-ci se comporte par conséquent comme un véritable phare illuminant périodiquement l’espace. Si le phare est bien dirigé, le pinceau lumineux rencontre nos radiotélescopes et ceux-ci reçoivent des signaux réguliers.

247

248

Des quasars aux trous noirs

On comprit donc immédiatement que les signaux périodiques observés provenaient de ce corps extrêmement bizarre : une étoile ayant une masse plus grande que celle du Soleil, un rayon comparable à la taille d’une ville comme Paris et tournant comme une toupie avec une période de quelques secondes ou même de quelques millièmes de seconde. Il est d’ailleurs admirable que seulement quelques mois après la découverte de ce phénomène nouveau et a priori incroyable, il était non seulement accepté par tous mais on en avait trouvé l’explication. On était dès lors prêt à admettre l’existence d’objets encore plus étranges.

Où l’on découvre que certaines étoiles vivant en couple doivent être des trous noirs Il est temps d’en revenir maintenant aux trous noirs euxmêmes. Comme pour la cosmologie, je ne me lancerai pas dans une description de la physique des trous noirs, d’autres que moi l’ayant déjà fait et ce, très bien. D’excellents livres ont été publiés sur le sujet, il ne se passe pas d’année sans qu’une revue en soit donnée dans la presse de vulgarisation scientifique et les médias ont largement contribué à populariser ce concept. Tout le monde a donc entendu parler peu ou prou des trous noirs et sait qu’il s’agit d’un astre possédant une gravité si intense que la lumière ne peut en sortir. Aucune information n’en parvient donc directement. Pourquoi les trous noirs nous interpellent-ils si fortement ? Ce n’est sûrement pas parce que les propriétés de la matière qu’ils renferment nous sont totalement inconnues – le non-scientifique l’ignore en général. C’est probablement parce qu’au plus profond de notre inconscient réside la frayeur ancestrale d’un abîme sans fond dans lequel tout se trouve inexorablement englouti. Le trou noir représente sans doute dans notre imaginaire une sorte d’enfer glacial où le temps luimême, ce concept si fondamental, perd son sens, et où le zéro se dilue dans l’infini (Figures 9.1 et 9.2). La notion de trou noir est en fait vieille de deux cents ans. L’anglais John Michell puis le français Jean-Simon Laplace avaient déjà suggéré au xviiie siècle que si la vitesse de libération** à la surface d’un corps est plus grande que celle de la lumière, les rayons lumineux devaient en rester captifs. Cette conclusion était juste mais fondée sur la physique

Le « Black Power » à l’œuvre dans les quasars

249

Figure 9.1. Une représentation courante à deux dimensions d’un trou noir.

newtonienne qui était approchée, et sur une idée fausse stipulant que les photons de lumière ont une masse. Les deux erreurs se compensant, tout se passe comme si c’était effectivement le cas, mais seule la relativité générale – que Michell et Laplace ne connaissaient évidemment pas – est capable de rendre compte correctement de ce phénomène. On peut montrer qu’un corps devient un trou noir lorsque son rayon exprimé en kilomètres est égal à trois fois sa masse exprimée en masse solaire. En d’autres termes, si le Soleil était un trou noir, il aurait un rayon de trois kilomètres (sa densité moyenne5 serait alors de vingt milliards de tonnes pour un dé à coudre). Ce rayon est appelé le « rayon de Schwarzschild », du nom du physicien allemand qui a formalisé ce problème. Il délimite « l’horizon » du trou noir car on ne peut rien voir audelà, comme l’horizon à la surface de la Terre. On a également l’habitude de parler de « rayon gravitationnel » : il est égal à la moitié du rayon de Schwarzschild. On peut le définir pour n’importe quel objet : c’est celui qu’il aurait s’il était un trou noir. Si la Terre était un trou noir, elle aurait la taille d’une bille et sa densité moyenne serait encore 1016 fois plus grande

5

On ne peut parler que de densité moyenne, car on ignore tout de ce qui se passe à l’intérieur.

Figure 9.2. Un phénomène impressionnant auquel un trou noir nous fait inéluctablement penser, le maelström.

250

Des quasars aux trous noirs

que celle du Soleil6 . Mais il n’existe à l’heure actuelle aucune évidence pour l’existence de tels trous noirs, tandis qu’il en existe pour les trous noirs plus massifs. Karl Schwarzschild avait le premier, en 1917, décrit la métrique autour d’une masse sphérique sans rotation dans le vide et il avait montré qu’elle dépend de sa masse. Le terme de trou noir lui-même n’a été introduit qu’en 1967 par le physicien américain Wheeler après la publication par Kip Thorne d’un article fondateur sur la question (on se souvient peut-être qu’il nous avait enseigné les rudiments de cette théorie à Varenna et aux Houches). L’anglais Roger Penrose proposa alors une loi que l’on a l’habitude d’énoncer sous une forme assez bizarre : « un trou noir n’a pas de cheveux ». Ce qui signifie qu’il n’a pas d’autre caractéristique que sa masse, sa charge électrique et sa vitesse de rotation7 . À partir des années soixante-dix le domaine se développa activement. J’ai mentionné ainsi l’installation à Meudon sous la houlette de Brandon Carter d’une équipe très connue dans le domaine de la gravitation relativiste. Elle produisit de beaux résultats, tels que la première « image » simulée par ordinateur d’un trou noir entouré d’un disque de gaz (ce fut la thèse de Jean-Pierre Luminet effectuée sous la direction de Brandon Carter, cf. Figure 9.3 ; plus tard Jean-Alain Marck refit ce calcul en le généralisant pour la première fois aux trous noirs en rotation).

Figure 9.3. Première image simulée d’un disque d’accrétion autour d’un trou noir (réalisée par Jean-Pierre Luminet en 1985) telle qu’elle apparaîtrait à un observateur extérieur. Le rayonnement de la partie du disque qui se rapproche de nous est amplifié et certains rayons lumineux émis derrière le trou noir nous parviennent car ils sont déviés. 6

En effet, un trou noir est d’autant plus dense qu’il a une masse plus faible. Ceci est dû au fait que sa masse est proportionnelle au rayon, d’après la définition du rayon de Schwarzschild, tandis que son volume est proportionnel au cube du rayon.

7

Comme dit mon collègue Jean-Pierre Lasota, spécialiste des trous noirs, « ce sont en fait des objets très ennuyeux » !

Le « Black Power » à l’œuvre dans les quasars

Comme le trou noir engloutit la lumière et la matière environnante, il constitue une formidable réserve d’énergie, malheureusement difficilement exploitable. Nous verrons toutefois que l’énergie de rotation d’un trou noir peut être récupérée et il est possible qu’elle soit à l’origine des « jets » dans les radiosources. En outre, une théorie de Stephen Hawking avait fait grand bruit dans les années soixante : il prédisait que des effets quantiques pussent permettre à des particules et du rayonnement de sortir d’un trou noir : on appela cela le « rayonnement de Hawking ». Mais, pour autant, ce rayonnement ne devait contenir aucune information sur l’intérieur du trou noir. Hawking lui-même est revenu en 2004 sur cette idée, affirmant que l’information est conservée et qu’elle finira par être libérée. L’incrédulité pour l’hypothèse des trous noirs était donc devenue moins grande après l’observation des pulsars. Mais ce qui encouragea fortement l’idée des trous noirs supermassifs au cœur des quasars, ce fut la découverte de « trous noirs stellaires ». Je vais m’arrêter sur cette question un moment car ces trous noirs, bien que beaucoup moins massifs que ceux des quasars, nous en ont appris beaucoup sur ces derniers. Leurs propriétés sont très semblables et ils diffèrent presque uniquement par les dimensions et les échelles de temps. Ainsi, un phénomène que l’on mettrait des milliers d’années à observer sur un trou noir massif peut être observé en quelques heures sur un trou noir stellaire. La formation des trous noirs est prévue dans le cadre de l’évolution stellaire. Toute étoile ayant épuisé ses ressources nucléaires lui permettant de lutter contre sa propre pesanteur « implose » sous l’effet de la gravité. Comme nous l’avons vu au début de ce chapitre, le processus s’accompagne toujours de l’expulsion d’une partie de l’étoile tandis que le cœur devient une naine blanche ou à une étoile à neutrons. L’étoile implosée est alors une sorte de « cadavre stellaire » très compact. On ne sait pas encore quelle proportion de l’étoile se retrouve dans ce « cadavre », en revanche on connaît de façon précise la forme qu’il prend car elle ne dépend que de sa masse. Si celle-ci est inférieure 1,4 fois la masse du Soleil, qu’on appelle la « limite de Chandrasekhar », l’étoile deviendra une naine blanche. Si la masse de l’étoile effondrée est comprise entre 1,4 et environ 3 masses solaires, qu’on appelle la limite d’Oppenheimer-Volkoff, ce sera une « étoile à neutrons », bien plus petite et bien plus dense.

251

252

Des quasars aux trous noirs

Mais que se passe-t-il au-dessus de 3 masses solaires ? Il n’existe alors plus aucune force capable de soutenir l’étoile et son effondrement doit nécessairement se poursuivre jusqu’au stade ultime, celui de « trou noir ». Et comme on n’a pas trouvé d’étoile à neutrons de masse supérieure à 2 masses solaires, on peut même penser qu’elles deviennent des trous noirs lorsque leur masse excède cette valeur. L’étoile n’est alors plus perceptible que par son champ de gravité qui continue à s’exercer sur son environnement. Qu’advient-il si un « cadavre stellaire » – donc une étoile très compacte – est membre d’un système double comme l’est environ la moitié des étoiles de la galaxie ? Cela a plusieurs conséquences importantes lorsque les deux étoiles sont suffisamment proches. D’abord, première conséquence, la masse de l’étoile compacte peut être déterminée, au moins approximativement, grâce au mouvement orbital de sa compagne. L’étude des étoiles doubles permet en effet de les « peser ». On détermine en fait une combinaison des masses des deux étoiles appelée la « fonction de masse ». Et si l’on peut estimer la masse de la compagne à travers sa place dans le diagramme HR par exemple, on en déduit une limite inférieure de la masse de la compacte8 . La méthode est détaillée dans l’annexe B. Deuxième conséquence, les étoiles orbitant l’une autour de l’autre subissent une évolution chahutée car chacune attire successivement la matière de l’autre, la période et la taille de l’orbite variant au cours du temps pour compenser ces pertes de masse. Lorsque la première étoile a épuisé son combustible nucléaire et s’effondre, l’autre va en subir le contrecoup. Ses couches extérieures seront attirées par ce cadavre stellaire qui, véritable vampire, la videra en partie de sa substance. Ainsi épluchée, elle connaîtra une évolution complètement différente et beaucoup plus rapide que celle d’une étoile isolée et elle deviendra à son tour aussi une étoile compacte. Un cas assez fascinant est celui où les deux compactes ont atteint le stade d’étoiles à neutrons et où l’une d’elle est perçue comme un pulsar. Sa période de pulsation oscille alors régulièrement autour d’une valeur moyenne, traduisant le fait qu’elle tourne autour d’un compagnon invisible qui est lui-même une étoile compacte. Le système peut même se manifester sous la forme d’un pulsar double dont il existe pour le moment un seul exemple. Une propriété de ces astres jumeaux est que leur distance mutuelle est très petite : quelques fois seulement la 8

Limite inférieure, seulement, si l’on ne connaît pas l’inclinaison de l’orbite.

Le « Black Power » à l’œuvre dans les quasars

distance de la Lune à la Terre mais cela concerne des masses un million de fois plus grandes que celle de la Terre ! L’influence de la relativité générale devient alors importante : les étoiles se rapprochent l’une de l’autre car le système perd de l’énergie en émettant des ondes gravitationnelles – un phénomène de pure relativité générale – et ce rapprochement entraîne une diminution de la période orbitale (c’est-à-dire de la période de rotation de l’une autour de l’autre). Or cette période orbitale est observable car elle module les impulsions, leur fréquence étant plus grande lorsque le pulsar se rapproche que lorsqu’il s’éloigne (c’est un phénomène semblable au changement de longueur d’onde des raies spectrales par effet Doppler). Joseph Taylor et son étudiant Russell Hulse de Princeton découvrirent en 1975 le premier de ces « pulsars binaires ». Ils constatèrent que la période orbitale du pulsar décroissait régulièrement au cours du temps (dans cet objet une seule des deux étoiles compactes apparaît comme un pulsar). Ils comprirent immédiatement l’enjeu extraordinaire que cet objet représentait pour la physique et Taylor l’observa pendant de nombreuses années afin de déterminer avec une grande précision le ralentissement de la période : il était exactement égal à celui prédit par la relativité générale. Cette découverte valut à Taylor et Hulse le prix Nobel en 1993, comme je l’ai déjà mentionné. Par la suite, Thibaut Damour de l’Observatoire de Meudon continua avec Taylor l’étude des ondes gravitationnelles. Pendant toute la période où l’une des étoiles est une compacte et sa compagne une étoile « normale », la matière de la compagne est attirée inéluctablement par la compacte et se précipite sur elle. Ce faisant, elle acquiert une énorme vitesse. Cette énergie de mouvement est convertie en chaleur (comme celle d’un météorite tombant sur terre), elle-même convertie en lumière. Le phénomène se traduit par une émission de rayonnement d’autant plus puissante que l’étoile est compacte. Si la compacte est une étoile à neutron, la matière de la compagne s’écrase à sa surface et peut encore contribuer au rayonnement du couple. Si la compacte est un trou noir, le gaz est englouti et disparaît à jamais après avoir lancé ses derniers feux. En 1971, une source X fut observée par le satellite Uhuru dans la constellation du Cygne. Nommée Cygnus X-1 (à ne pas confondre avec la galaxie Cygnus A), elle fluctuait en quelques secondes (Figure 9.4). Ce devait donc être un objet compact. Il avait déjà été observé pendant plusieurs années

253

254

Des quasars aux trous noirs

Figure 9.4. Fluctuations du rayonnement X de la source Cygnus X-1 observée le 11 juin 1971 par le satellite Uhuru (de Shreier et al., ApJ 170, L21).

en fusée et en ballon et l’on avait découvert qu’il disparaissait périodiquement tous les cinq jours. Comment expliquer ce comportement complexe ? Toujours en 1971, on identifia la source X à une étoile supergéante bleue, l’étoile HD 226868. Observé en août et septembre avec le télescope de 2,5 mètres du Royal Greenwich Observatory, son spectre révéla que la vitesse radiale variait avec une période de 5,60 jours, ce qui correspondait à la période des variations X. On pouvait donc les expliquer en supposant que l’étoile compacte était « éclipsée » périodiquement par la supergéante. On était donc clairement en présence d’un couple d’étoiles doubles dont il était possible de déterminer la « fonction de masse ». Comme on pouvait supposer que la masse de la supergéante était de dix à trente masses solaires, on en déduisait la masse minimum de la compacte. Dans le numéro du 7 janvier 1972 de la revue Nature, les anglais Webster et Murdin annoncèrent qu’elle était de deux à six masses solaires. Leur article se terminait sur cette phrase : « La masse du compagnon étant probablement supérieure à deux masses solaires, il est inévitable que l’on spécule sur la possibilité que ce soit un trou noir » [101]. Le 4 février de la même année, un article quasiment identique était publié dans Nature par le canadien Bolton. Il avait observé la même étoile en septembre et octobre avec le télescope un peu plus petit (1,90 mètres du David Dunlap Observatory). Il trouvait une fonction de masse un peu plus grande que les Anglais et en déduisait que la masse de l’étoile compacte était d’au moins trois masses solaires. Mais, curieusement, il ne mentionnait pas la possibilité que ce fût

Le « Black Power » à l’œuvre dans les quasars

un trou noir ! J’imagine l’amertume de Bolton de s’être vu devancé d’à peine un mois par les Anglais et de n’avoir pas compris qu’il venait de faire une découverte cruciale. Précisons tout de suite que la détermination des masses des composantes de Cygnus X-1 a été affinée depuis cette époque et qu’il ne fait plus aucun doute que la compacte a une masse supérieure à trois masses solaires. On peut même affirmer qu’elle a une masse d’au moins dix masses solaires. C’est donc un vrai candidat trou noir. La chasse au trou noir pouvait commencer, on savait enfin où les trouver. Il existe maintenant une vingtaine d’étoiles doubles candidats trous noirs dont la masse est supérieure à trois masses solaires. Est-ce que ce sont des trous noirs avérés ? Les scientifiques, toujours prudents, ne l’affirment pas encore bien qu’ils aient plusieurs fortes raisons de le croire. On dispose en effet maintenant de tests supplémentaires car on a découvert des différences importantes entre le spectre X provenant des trous noirs et celui des étoiles à neutrons (c’est dû à la présence sur les étoiles à neutrons d’une surface solide sur laquelle la matière vient se fracasser, alors qu’elle n’existe pas sur les trous noirs). On trouve aussi que le rayonnement des étoiles à neutrons montre des sursauts très rapides contrairement à celui des trous noirs. Les sceptiques diront : « Quelques trous noirs avérés, c’est bien peu, considérant le grand nombre de trous noirs qui doivent exister dans la Galaxie puisque toutes les étoiles massives doivent finir dans la peau d’un tel trou noir. » Et de fait j’ai lu récemment sous la plume d’un vulgarisateur connu qu’il ne croit pas aux trous noirs à cause « de la rareté des observations ». Comparant le nombre de trous noirs connus à celui des étoiles à neutrons connues qui est de quelques centaines, il s’étonne qu’en trente ans on n’ait pas réussi à mettre en évidence plus de trous noirs, surtout avec le développement de l’astronomie spatiale, alors qu’on prédit qu’il y en existe environ trois cent millions dans la Voie lactée. Il semble oublier que traquer un trou noir n’est pas chose facile, puisque par définition il ne rayonne pas. Et que pour le mettre en évidence, il faut qu’il ait du gaz à avaler ; donc il doit se trouver dans un système double très rapproché et ils ne sont pas légion. En fait, les trous noirs que l’on découvre par ce moyen constituent seulement le sommet visible d’un immense iceberg qui serait presque entièrement immergé. Et je crois que c’est justement en restant très prudents, en cherchant pendant de longues années à accumuler des preuves, que les chercheurs font leur métier correctement. Pour avoir entendu

255

256

Des quasars aux trous noirs

discuter en détail de chaque candidat, évaluer toutes les méthodes, peser les différents arguments, adopter les hypothèses les plus défavorables, lorsque j’entends affirmer que tel candidat trou noir a passé tous les tests, je le crois. Et même s’il n’y en avait que quelques-uns, voire s’il n’y en avait qu’un seul absolument indiscutable, cela me paraît suffisant pour prouver la réalité des trous noirs. Dans dix ans, dans vingt ans, il y en aura d’autres, et c’est ainsi que la recherche avance. En revanche, on peut objecter que le seul fait de trouver des étoiles compactes de plus de trois masses solaires ne prouve pas qu’elles soient des trous noirs et que c’est faire acte de foi envers une théorie que de le croire. Les lois de la physique ont conduit à l’élaboration d’une théorie rigoureuse et cohérente de la structure interne et de l’évolution stellaire concluant à la formation des trous noirs à la fin de la vie des étoiles lorsqu’elles ont plus de deux ou trois masses solaires. Mais si la théorie était fausse, si la matière trouvait un autre moyen que le trou noir pour survivre à son effondrement ? Il est effectivement possible qu’il existe un état encore inconnu de la matière où elle serait plus compacte que celle des étoiles à neutrons. Laissons donc encore le doute planer sur cette question, car si nous avions absolument besoin d’avoir des preuves de l’existence des trous noirs stellaires pour conforter la thèse des trous noirs massifs il y a une dizaine d’années, c’est plutôt l’inverse aujourd’hui. Nous avons en effet depuis peu des indices très forts de la réalité des trous noirs géants. En particulier, nous verrons plus loin qu’un trou noir massif absolument incontestable, que l’on a pu « peser » d’une façon extrêmement précise, se situe au cœur même de notre Galaxie, dans une région plus petite que notre Système solaire.

Où il est montré que les noyaux actifs de galaxies et les quasars recèlent nécessairement des trous noirs géants Mais en 1977, croire à la réalité des trous noirs stellaires ne signifiait pas pour autant admettre l’existence de trous noirs supermassifs au cœur des quasars. C’était pourtant la conclusion à laquelle Martin Rees était parvenu dans son exposé au congrès de Copenhague. Pour éclairer le lecteur, je reproduis ici son « diagramme d’évolution » (« flow chart ») traduit en français exactement tel qu’il fut montré alors. Il l’a modifié depuis mais les traits essentiels restent valables (Figure 9.5).

Le « Black Power » à l’œuvre dans les quasars

L’essence de ce diagramme compliqué peut être résumée en quelques mots : une fois qu’une masse suffisamment grande est rassemblée dans un volume suffisamment petit au centre d’une galaxie, l’emballement conduisant à l’effondrement et à la formation d’un trou noir massif semble inéluctable. Dans un premier temps, le gaz présent dans l’espace intergalactique va s’effondrer sous l’effet de la gravité pour donner une « protogalaxie ». Il faut dire que ce mécanisme n’est pas encore totalement compris à l’heure actuelle (Encadré 9.2). Mais il se produit nécessairement. . . puisque les galaxies existent.

Encadré 9.2. La difficulté réside dans l’évacuation du « moment angulaire », ou « moment cinétique » (Figure 9.6). En effet, les particules de gaz ont des mouvements erratiques qui ne sont pas tous dirigés vers le centre de la protogalaxie.

257

Figure 9.5. Le « diagramme d’évolution » de Martin Rees.

258

Des quasars aux trous noirs

Figure 9.6. Le « moment cinétique » est égal à m × R × V (projetée) si la masse m est négligeable devant M. Il doit être conservé dans le mouvement, sauf si un processus dissipatif intervient.

Cela signifie qu’ils ont un « moment angulaire », égal à leur masse multipliée par leur vitesse angulaire et par le carré de leur distance au centre. Or nous avons déjà mentionné – voir l’exemple du patineur – que le moment angulaire est conservé (c’est ce que l’on nomme un « invariant », comme l’énergie totale) à moins qu’un processus dissipatif ne permettre l’évacuer. Si un tel processus n’existe pas, les particules de gaz ne vont pas « tomber » au centre mais tourner indéfiniment en cercle autour de lui. S’il existe, elles se rapprocheront du centre en décrivant des spirales, ce qui nécessite beaucoup de temps. C’est ce processus qui n’est pas encore bien compris. Nous verrons que ce problème est résolu avec le « disque d’accrétion » mais pour des dimensions bien plus petites que celles dont il est question ici.

Une fois le gaz condensé en une galaxie, la formation d’étoiles s’amorce et se maintient longtemps car les étoiles perdent du gaz qui donne naissance à de nouvelles étoiles, et c’est un cycle qui se reproduit presque sans fin. Le gaz s’épuise peu à peu mais dans certaines galaxies comme les spirales et surtout les irrégulières, il en reste encore une grande quantité à l’heure actuelle. Par des processus qui commencent à être compris seulement maintenant (car Rees proposait une solution de « chute radiale » ne tenant pas compte de l’existence inévitable du moment cinétique), une partie du gaz ainsi rassemblé dans la galaxie va se diriger vers le centre. Quelques trous noirs l’attendent déjà, résidus de l’évolution d’étoiles massives. Une fraction du gaz va former alors des étoiles, construisant peu à peu un amas dense d’étoiles qui constituera le « noyau » de la galaxie. Et là vont se produire des phénomènes mentionnés : explosions de supernovae et collisions

Le « Black Power » à l’œuvre dans les quasars

violentes d’étoiles. Un phénomène n’avait cependant pas été envisagé dans les modèles primitifs de quasars : les étoiles étant des corps visqueux, on s’attend à ce que lors de leur collision elles fusionnent en une seule étoile plus grosse. C’est la « coalescence » qui va permettre aux étoiles de grossir jusqu’à éventuellement arriver à ce stade d’étoiles supermassives invoquées pendant les années précédentes. Cependant, en aucun cas, si un tel stade est atteint, l’étoile ne peut survivre longtemps car elle est instable et va s’effondrer rapidement en un trou noir massif. Par ailleurs, les étoiles de l’amas central évolueront rapidement vers le stade d’étoiles à neutrons ou de trous noirs. Les phénomènes vont alors s’emballer car, dès qu’un trou noir est formé dans le noyau, même petit, il sert de « graine » à un trou noir plus massif en attirant la matière environnante qui va s’engouffrer dedans. Des phénomènes spectaculaires vont alors se produire. Par exemple, des étoiles attirées par le trou noir vont s’en rapprocher au point d’être brisées par des « marées » gigantesques, semblables à celles que nous connaissons sur Terre mais d’une intensité formidablement plus grande. Elles sont dues au fait que le champ de gravité s’exerçant sur le côté de l’étoile le plus proche du trou noir est beaucoup plus puissant que celui s’exerçant de l’autre côté. Ce phénomène avait été prédit au xixe siècle par un astronome français, Édouard Roche. Il avait introduit la « limite de Roche » correspondant à la distance audessous de laquelle les forces de cohésion interne d’un satellite sont dépassées par les forces de marées auxquelles il est soumis par le corps autour duquel il orbite9 . Imaginons le Soleil, tiré comme un élastique, qui finit par se déchirer ! Très près du trou noir les étoiles deviennent même des sortes de « crêpes » fines, et des réactions nucléaires se déclenchent sous l’effet de la compression et de l’étirement violents qu’elles subissent (Brandon Carter et Jean-Pierre Luminet ont proposé ce mécanisme en 1982 [19]). Dans tous les cas, les étoiles se volatilisent en se transformant en un gaz très chaud rayonnant à profusion dans le domaine X (Figure 9.7). Un tel phénomène a été probablement observé récemment dans plusieurs objets avec les satellites XMM-Newton et Chandra par Stéphanie Komossa, du Max Planck Institut de Garching [55]. Il est expliqué dans l’annexe B. Le gaz lui-même va se précipiter pour se faire avaler par le trou noir. Mais il empruntera des voies détournées. Il s’en rapprochera lentement en spiralant et en formant un « disque 9

Roche avait été refusé à l’Académie des sciences par 55 voix contre une. . .

259

260

Figure 9.7. Vision d’artiste de la mort d’une étoile s’approchant d’un trou noir.

Des quasars aux trous noirs

d’accrétion ». Ralenti par la viscosité du disque, il parviendra à éliminer ce fameux « moment angulaire » bien gênant comme on le verra un peu plus loin. Ce faisant il rayonnera et nous apparaîtra bientôt comme un quasar lumineux. Une fois que le trou noir a absorbé tout le gaz et toutes les étoiles se trouvant à sa portée, il ne se produit plus aucun rayonnement. Le quasar s’éteint. En quelque sorte, le trou noir se « repose ». Mais il est toujours là, ogre endormi tapi au cœur de la galaxie, perceptible seulement par son champ de gravité. Et si, par hasard, une proie passe à sa portée sous forme d’étoiles ou de gaz, il ne manque pas de se réveiller pour se nourrir. Le quasar se « rallume ». Avec ce scénario, Rees prédisait entre autres que certaines galaxies d’apparence tout à fait normale devaient contenir des « quasars éteints » dans leur noyau. Il prédisait également des stades intermédiaires, certains dominés par des amas denses stellaires, d’autres par des trous noirs de relativement faible masse. Ces prédictions ont été effectivement vérifiées beaucoup plus tard. En relisant son article, je suis stupéfaite par la quantité d’idées qu’on y trouve et qui se sont avérées justes des années, voire des décennies après. Tout est pratiquement correct dans ce modèle. Il lui manque seulement quelques ingrédients supplémentaires que nous découvrirons plus loin : la présence proche d’une autre galaxie ayant pour effet d’accélérer la chute

Le « Black Power » à l’œuvre dans les quasars

du gaz vers le centre, éventuellement même de fournir ce gaz à sa compagne plus avide et plus grosse qu’elle et de générer une intense formation d’étoiles ; la collision de deux galaxies contenant chacune un trou noir, pouvant conduire à la fusion des deux trous noirs ; enfin l’expulsion de gaz par le quasar dans sa phase « active » qui peut stopper la formation de la galaxie elle-même (car maintenant on pense que le trou noir se forme avant même que la galaxie ait pris sa forme actuelle).

Arrivée du « disque d’accrétion » et fin du mythe du rayonnement synchrotron Par de multiples chemins, les galaxies devaient donc inévitablement engendrer des trous noirs massifs au cours de leur évolution. Il restait à comprendre leur fonctionnement, comment et pourquoi ils génèrent autant de rayonnement. Une découverte effectuée une année seulement après le congrès de Copenhague permit de résoudre ce problème en 1978. J’ai souvent mentionné le terme de « rayonnement synchrotron » depuis le début de ce livre. J’ai expliqué que le rayonnement radio des radiogalaxies et des quasars était imputé à ce mécanisme, dû à des électrons relativistes se déplaçant dans un champ magnétique**. Par extension, et parce qu’on ne lui voyait pas d’autre origine possible, on pensait que tout le rayonnement des quasars, depuis l’infrarouge jusqu’aux rayons gamma, était également du rayonnement synchrotron. Ce n’était pas complètement sans raison. Le rayonnement visible des quasars est en effet légèrement polarisé10 comme on l’attend d’un rayonnement synchrotron. On a vu également que les noyaux des galaxies de Seyfert et les quasars sont caractérisés par leur couleur bleue qui peut-être est la signature d’un rayonnement synchrotron. Une grande surprise avait été, à mesure que l’on explorait de nouveaux domaines de longueurs d’onde grâce aux missions spatiales, de découvrir que les quasars et les noyaux des galaxies de Seyfert rayonnaient presque autant dans toutes les bandes spectrales, depuis l’infrarouge jusqu’aux rayons X. C’était très différent des étoiles. En effet, celles-ci ne rayonnent que dans un domaine de longueur d’onde restreint : dans 10 En général très peu, sauf dans quelques objets où la polarisation est importante. Ceux-là sont certainement dominés par le rayonnement synchrotron, qui est amplifié par rapport aux autres mécanismes (voir les explications données sur les lacertides).

261

262

Des quasars aux trous noirs

l’infrarouge proche pour les étoiles les plus froides, dans le visible ou l’ultraviolet pour les plus chaudes. En dehors de ces bandes, il n’y a presque rien. Bien sûr on perçoit parfois d’autres émissions, comme du rayonnement X pour certaines étoiles entourées d’une couronne très chaude, ou du rayonnement infrarouge pour d’autres qui sont enrobées d’un cocon de poussières, mais jamais on ne verra une étoile avoir une puissance aussi grande dans tout le spectre électromagnétique à la fois. Un phénomène complètement différent des étoiles se produisait donc dans les quasars. Mais lequel ? Et c’est là que l’on peut voir encore une fois comment cette tendance que j’ai appelée « rasoir d’Occam » à vouloir que « le plus simple soit le plus juste » peut mener à des conclusions fausses. Comme on savait que les quasars radio émettaient du rayonnement synchrotron, on en avait déduit que l’ensemble du spectre des quasars était dû à ce seul et même mécanisme (ou éventuellement à l’effet synchrotron self-Compton**). C’est un jeune astronome américain, Greg Shields, qui comprit qu’un autre processus était à l’œuvre dans les quasars. Voici comment il parvint à cette conclusion. Il faut d’abord prendre conscience que la façon dont on représente un spectre n’est pas indifférente. On avait à l’époque l’habitude de porter en ordonnées le logarithme de l’intensité par unité de fréquence et en abscisse le logarithme de la fréquence. Avec ces unités le spectre de 3C 273 apparaissait comme représenté sur la figure 9.8. Avec le peu de précision que l’on avait à l’époque (rappelons également que 3C 273 est très variable et que les différentes portions du spectre n’avaient pas été observées au même moment), on pouvait avoir l’impression que l’intensité obéissait à une loi de puissance depuis l’infrarouge jusqu’aux rayons gammas comme devait le faire un rayonnement synchrotron. Mais on devine toutefois qu’elle s’en détache et en particulier qu’elle est probablement très supérieure dans la bande qu’on appelle « extrême ultraviolet », vers 1016 hertz. Or cette bande est inobservable, comme on peut le voir sur la figure, car la lumière y est absorbée par le gaz interstellaire se trouvant entre nous et le quasar. Quant aux rayons ultraviolets moins énergétiques, à 1015 hertz, ils sont absorbés par l’atmosphère terrestre et il faut monter en fusée ou en satellite pour les observer. C’est une grande chance pour nous qui serions brûlés par ces rayons en l’absence d’atmosphère. Mais c’est un gros inconvénient pour l’étude d’astres comme les quasars qui rayonnent essentiellement dans ce domaine, car on

Le « Black Power » à l’œuvre dans les quasars

263

Figure 9.8. Le spectre de 3C 273 (en tirets, tel que connu en 1978), comparé à une loi de puissance (en trait solide). On voit que le spectre, lorsqu’il était connu avec peu de précision, pouvait apparaître comme du rayonnement synchrotron avec une loi de puissance en 1/ν. En fait, il n’était pas facile d’expliquer toute la puissance des quasars par du rayonnement synchrotron. On y parvenait bien seulement pour le domaine radio. Pour les domaines visibles, X et gamma, il fallait faire appel à toute une panoplie de mécanismes plus ou moins ad hoc. Par exemple on invoquait des ondes de choc pouvant accélérer des particules jusqu’à des énergies relativistes et, pour peu qu’il y ait un champ magnétique important, le tour était joué. Mais quelle était l’origine de ces chocs ? Se produisaient-ils lors de la chute du gaz sur un corps compact ou au contraire lors d’une explosion « à la supernova » ? Tout cela était très arbitraire.

ne disposait pratiquement d’aucune mesure dans cette bande jusqu’en 1978, année du lancement du satellite International Ultraviolet Explorer (IUE). Shields s’aperçut cependant que le spectre de plusieurs quasars, dont 3C 273, amorçait une sorte de « bosse » dans le bleu qui l’écartait de la fameuse loi de puissance11 . On avait bien remarqué la présence de cette bosse dans le passé mais on l’attribuait à diverses émissions se superposant au rayonnement synchrotron. Or Shields avait travaillé sur les trous noirs avec Wheeler et il y croyait fermement. Il pensait qu’on devait trouver la signature du « disque d’accrétion » alimentant le trou noir et que celle-ci devait correspondre à un rayonnement intense dans le bleu et l’ultraviolet. En 1978, il publia donc dans la revue Nature un article intitulé « Thermal Continuum from 11 Pour les quasars de grand décalage, la bande ultraviolette se trouve reportée dans le visible, ce qui permet de l’observer du sol. De plus, elle n’est pas absorbée par le gaz interstellaire.

264

Des quasars aux trous noirs

Figure 9.9. Vue d’artiste d’un disque d’accrétion dans un couple d’étoiles rapprochées contenant une compacte. L’étoile étendue est à gauche et cède du gaz à la compacte située au centre du disque d’accrétion.

Accretion Disks in Quasars » (« Continu thermique12 provenant des disques d’accrétion dans les quasars ») [91]. Il lui fallait vraiment une intuition remarquable et une foi inébranlable dans la théorie pour proposer ce modèle, car on ne peut pas dire qu’à cette époque les données d’observation étaient suffisantes en elles-mêmes pour justifier une pareille affirmation. Pourtant, quelques mois à peine après la publication de son article, les premiers résultats du satellite IUE démontrèrent la justesse de son hypothèse, et par la suite l’existence de la bosse ne fut plus remise en cause. Qu’est-ce donc que ce « disque d’accrétion » qui permet au gaz de parvenir jusqu’au trou noir, invoqué ici pour expliquer le rayonnement ultraviolet des quasars ? C’est un concept bien étudié depuis les années soixante-dix pour les étoiles en couple contenant une étoile compacte – étoile à neutron ou trou noir. En effet, nous avons vu que celles-ci échangent de la masse qui s’écoule de l’étoile compagnon jusqu’à la compacte. Comme les deux étoiles sont en rotation l’une autour de l’autre, la force centrifuge contraint cet écoulement à suivre des orbites circulaires, formant ainsi une sorte de « disque » plat dans le plan de rotation des deux étoiles (Figure 9.9). Deux astronomes russes, Nicolas Shakura et Rachid Sunayev, avaient étudié les mécanismes à l’œuvre dans ce disque d’accrétion et ils avaient montré en 1973 que la viscosité du gaz pouvait le freiner en lui 12 On l’appelle « rayonnement thermique », car il est produit par toutes les particules d’un gaz, et non par une infime proportion de particules très énergétiques. Par opposition, on appelle « rayonnement non-thermique » le rayonnement synchrotron ou le rayonnement Compton Inverse.

Le « Black Power » à l’œuvre dans les quasars

faisant perdre du moment angulaire ce qui lui permettait de se rapprocher de l’étoile compacte en spiralant [90] (Encadré 9.3).

Encadré 9.3. Comme la masse du disque est très inférieure à celle de l’étoile centrale, chaque parcelle du disque tourne avec une vitesse donnée par la loi de Kepler (comme les planètes autour du Soleil), c’est-à-dire inversement proportionnelle à la racine carrée de la distance au centre**. Cela signifie que les couches intérieures tournent plus vite que les couches extérieures. Le frottement des couches les unes sur les autres ralentit légèrement le gaz tout en le réchauffant, ce qui lui permet de rayonner et d’évacuer du moment angulaire vers l’extérieur du disque. Beaucoup plus tard, en 1991, deux chercheurs américains, Balbus et Hawley [8], identifièrent le mécanisme de viscosité (dont l’existence avait été seulement postulée par Shakura et Sunyaev) à une instabilité dynamique découverte en 1941 par Chandrasekhar. On appelle ce mécanisme « l’instabilité magnéto-rotationnelle » car un champ magnétique y est généré par la seule rotation du disque. Il est très largement admis à l’heure actuelle. Mais il faut tout de même ajouter que quelques récalcitrants (dont mon époux, Jean-Paul Zahn) pensent que la démonstration n’est pas encore faite que c’est bien ce seul mécanisme – dont la réalité n’est certes pas discutable – qui est à l’origine de la viscosité.

Le gaz est finalement « accrété », c’est-à-dire capturé par l’étoile compacte, et c’est pourquoi l’on dit qu’on a affaire à un « disque d’accrétion »13 . Par suite de la dissipation intense qui s’y produit, le disque est chauffé jusqu’à des températures élevées et il émet des rayons X en abondance14 . Exactement le même processus chauffe et même volatilise les météorites lorsqu’elles pénètrent dans l’atmosphère terrestre et nous apparaissent sous forme « d’étoiles filantes ». 13

Ce qui est différent dans d’autres disques, comme les disques galactiques des galaxies spirales. Dans ce cas, il n’y a pas accrétion, sauf éventuellement dans les parties très internes du disque, où la présence d’une barre peut créer des instabilités conduisant à un écoulement de matière vers le centre.

14 On peut comparer la surface de ce disque à celle d’une étoile qui, au lieu d’avoir une température de quelques milliers ou quelques dizaines de milliers de degrés, aurait une température de dix millions de degrés.

265

266

Des quasars aux trous noirs

C’est en fait l’énergie gravitationnelle qui est transformée dans le disque en chaleur puis en rayonnement. À mesure que le gaz se rapproche de sa compagne en spiralant, il est accéléré jusqu’à atteindre une vitesse très élevée, proche de celle de la lumière si la compacte est un trou noir, mais en contrepartie il perd de l’énergie gravitationnelle. Par ailleurs, à mesure que sa vitesse augmente, il s’échauffe et il s’ensuit que le disque d’accrétion est plus chaud près du centre. Lorsque le gaz arrive finalement sur l’étoile compacte, il a perdu d’autant plus d’énergie qu’il peut s’en approcher au plus près. C’est ce rayonnement que l’on avait découvert avec Cygnus X-1. Shakura et Sunayev avaient donc fait un pas énorme dans la compréhension des phénomènes d’accrétion (qui interviennent également dans la formation des étoiles) et l’on comprend pourquoi leur article est l’un des plus cités en astrophysique. Dans les quasars, certains, comme Rees ou Lynden-Bell, suspectaient que le gaz en provenance des régions internes de la galaxie-hôte était attiré par le trou noir et qu’il formait un disque d’accrétion comme dans le cas des couples d’étoiles, cette fois dans le plan de la galaxie. Ce disque devait donc avoir les mêmes propriétés que ceux des étoiles binaires. Mais ce que Shields trouvait dans les quasars, c’était un excès de rayonnement dans la bande visible et UV et non dans la bande X. Pourquoi ? C’est que la température atteinte par le disque d’accrétion au voisinage du trou noir n’est pas toujours la même : on peut montrer qu’elle est plus faible lorsque la masse du trou noir est plus grande. Ceci est développé dans l’annexe B. Ainsi dans un quasar dont le trou noir a typiquement une masse cent millions de fois plus grande que celle d’une étoile compacte de quelques masses solaires, la surface du disque doit avoir une température cent fois plus faible. Elle doit donc être voisine de quelques dizaines de milliers de degrés : s’il existe dans les quasars, le disque doit se manifester dans le domaine visible et ultraviolet et non dans le domaine X. C’était donc bien lui qui créait la « bosse » du spectre dans le bleu découverte par Shields. Comme je l’ai dit plus haut, la température du disque augmente vers le centre**. Ce qui signifie que le disque autour d’un trou noir d’un milliard de masses solaires est rouge à grande distance du trou noir, jaune, puis bleu à des distances intermédiaires, enfin il est ultraviolet tout près du trou noir. Si nous pouvions en obtenir des images directes nous devrions le voir comme une sorte d’arc en ciel dont la lumière la plus intense serait au centre dans le violet et l’ultraviolet. J’ignore si

Le « Black Power » à l’œuvre dans les quasars

267

Figure 9.10. Les couleurs du disque d’accrétion. Les dimensions indiquées sont approximatives car elles dépendent de la masse du trou noir et du taux d’accrétion.

une telle prouesse sera possible dans l’avenir, car elle nécessiterait une résolution plus petite que le millionième de seconde d’arc, même pour les NAGs les plus proches. La figure 9.10 montre comment on pourrait représenter schématiquement un disque d’accrétion dans un NAG typique. La suggestion de Shields, aussi approximative et peu élaborée fût-elle, eut un grand retentissement sur les recherches concernant les quasars et les noyaux actifs de galaxies. Dans les années qui suivirent, on se mit à « réinterpréter » les spectres en y cherchant l’empreinte du disque d’accrétion. Alors que précédemment on voulait toujours y voir des lois de puissance, on y recherchait au contraire maintenant une « bosse » dans le visible et l’ultraviolet. Avec le satellite International Ultraviolet Explorer, on pouvait aller jusque dans l’ultraviolet lointain et en utilisant des quasars de grand décalage on pouvait monter encore plus loin dans l’ultraviolet. Et l’on trouva des « bosses » dans tous les quasars et les noyaux actifs de galaxies ! Les premiers astronomes à le faire furent en 1982 les Américains, Wallace Sargent et son étudiant Matt Malkan [62], suivis par de nombreux autres qui leur embrayèrent le pas. On nomma « Big Blue Bump » ou BBB (« grosse bosse bleue » !) cette signature du disque d’accrétion15 . Pendant un certain temps, il fut encore habituel de penser que cette bosse se superposait à une loi de puissance que l’on continuait à attribuer au rayonnement synchrotron et qui dominait toujours l’énergétique des quasars. Il avait la vie dure ce rayonnement synchrotron, car c’est seulement en 1989 qu’un 15

Par opposition avec la « petite bosse », due à des émissions diverses, qui se superpose également au continu.

268

Des quasars aux trous noirs

Figure 9.11. Cette figure représente le spectre de 3C 273 dans de nouvelles coordonnées dont l’avantage est de montrer à quel endroit se situe l’essentiel de la puissance rayonnée : c’est là où ν f (ν) est le plus élevé. Ici, on voit bien que c’est l’émission ultraviolette qui domine.

article de l’américain Sanders et de ses collaborateurs trancha définitivement la question [84]. Ils montrèrent que les quasars non-radio ne rayonnaient pas du tout par le mécanisme synchrotron et qu’ils étaient entièrement dominés par du rayonnement « thermique »**. Seuls les quasars radio avaient effectivement une composante synchrotron dans le domaine radio et dans le domaine X. Comment avait-on pu se tromper à ce point sur la nature du rayonnement des quasars ? C’était d’abord dû à l’absence d’observations dans le domaine ultraviolet, et surtout, à une représentation trompeuse qui ne permettait pas d’observer facilement les écarts à une loi de puissance. Comparez en effet le spectre précédent de 3C 273 (Figure 9.8) avec celui de la figure 9.11, où le logarithme de l’intensité par unité de fréquence multipliée par la fréquence a été porté en ordonnées et non simplement le logarithme de l’intensité par unité de fréquence. Avec de telles coordonnées, un spectre en loi de puissance en ν−1 comme celui qui est en trait solide sur la figure 9.8 serait une droite horizontale : on voit aisément qu’il n’en est rien. De plus, l’avantage d’une telle représentation est qu’elle montre où se situe l’essentiel de l’énergie : c’est là où le spectre atteint la plus grande hauteur sur la figure. On n’est maintenant plus du tout tenté de faire passer une droite parmi ces points. On voit beaucoup plus nettement qu’avant, le début de la « bosse » due au disque d’accrétion. Évidemment, on ne peut déterminer qu’avec une grande incertitude la quantité d’énergie dans cette « bosse » puisqu’on n’en observe qu’une petite fraction mais il est clair qu’elle domine le spectre électromagnétique. Et par la suite, lorsqu’on observa des quasars de plus grand décalage spectral, cette bosse apparut encore plus nettement (Figure 9.12). On distingue aussi

Le « Black Power » à l’œuvre dans les quasars

269

Figure 9.12. La « bosse » ultraviolette dans le spectre de quelques quasars, due au disque d’accrétion (ici modélisé par la courbe passant au milieu des observations). Ces résultats ont été obtenus en 1989 par Sun et Malkan aux États-Unis.

deux autres « bosses », l’une dans l’infrarouge, l’autre dans le domaine X (Figure 9.13). En fait, Sanders concluait de son analyse basée sur une centaine de quasars et de galaxies de Seyfert que la « bosse infrarouge » était due, non pas au rayonnement synchrotron, mais à des poussières situées à la périphérie du disque d’accrétion et chauffées par son rayonnement ultraviolet. Quant à la « bosse X », on sait maintenant qu’elle est produite au voisinage immédiat du trou noir par un processus lié également au disque d’accrétion et qu’elle n’a rien à voir avec l’effet synchrotron, sauf dans certains quasars radio

270

Des quasars aux trous noirs

Figure 9.13. Le spectre électromagnétique des quasars et des galaxies de Seyfert, adapté de Sanders et ses collaborateurs en 1989. Les quasars radio (comme on l’a découvert seulement quelques années après) rayonnent jusque dans le domaine gamma tandis que le spectre des quasars non radio et des galaxies de Seyfert s’arrête dans le domaine X à quelques centaines de KeV. On note aussi que le rayonnement X est plus intense, par rapport au rayonnement visible dans les Seyfert que dans les quasars.

(dont 3C 273 fait peut-être partie). Ces résultats n’ont été mis en évidence que dans les années quatre-vingt-dix. Dans cette affaire, le plus étrange est que l’on soit passé d’un spectre électromagnétique des quasars entièrement « non thermique », à un spectre presque entièrement « thermique » ! Et celui qui aurait dû être crédité de cette révolution, Shields, est passablement oublié, tout simplement parce que presque personne ne se souvient que pendant presque vingt ans le rayonnement des quasars avait été attribué à l’effet synchrotron. On n’aime pas se rappeler de ses erreurs. . . Une fois de plus, cette histoire montre combien nous devons nous défaire de nos présupposés lorsque nous entreprenons une étude dont « les évidences observationnelles sont fragmentaires et partiellement défectueuses » ! On disposait donc au début des années quatre-vingts d’un scénario de formation des trous noirs supermassifs dans les quasars et les noyaux actifs de galaxies et d’un modèle rendant compte de leur rayonnement. Un paradigme était né, celui de « l’accrétion sur un trou noir supermassif » qui n’a pratiquement jamais été remis en cause depuis, sauf par une équipe conduite par un astronome anglo-argentin, Roberto Terlevich. Il proposa en 1985 un modèle constitué d’un amas dense d’étoiles qui permettait, disait-il, d’expliquer tous les phénomènes observés dans les quasars. Il a dû rendre les

Le « Black Power » à l’œuvre dans les quasars

271

Figure 9.14. « Destin de théoriciens essayant de comprendre l’engin central d’un NAG », d’après M. Begelman. Comme on peut le voir, le « Deus ex machina » à été remplacé par un « D.E.O. ex machina », en l’honneur de Donald Edward Osterbrock dont c’était le soixantième anniversaire.

armes maintenant16 , après vingt années de bataille acharnée. Mais déjà le trou noir s’était imposé depuis longtemps. Pour preuve, un congrès s’intitulant « Testing the AGN Paradigm » se tint dans le Maryland en 1992. J’y fis d’ailleurs une revue que j’intitulais « Towards a Disk Paradigm ? » (Vers un paradigme du disque ?). Car dès ce moment, il était clair que le disque d’accrétion devenait lui-même un paradigme au même titre que le trou noir, au détriment d’autres scénarios possibles d’accrétion et en dépit de certains problèmes encore non résolus. Comme pour le trou noir lui-même, ce nouveau dogme fut accueilli avec humour par certains astrophysiciens – qui en fait y croyaient fermement. Voici à titre d’exemple le dessin concocté par Mitch Begelman au cours de l’école d’été de Santa Cruz en 1984, célébrant le soixantième anniversaire d’Osterbrock (Figures 9.14 et 9.15).

Où l’on découvre qu’il y a beaucoup plus de trous noirs géants qu’on ne le pensait, mais où sont-ils ? Avant de clore ce chapitre, je voudrais donner quelques informations supplémentaires concernant l’environnement du trou noir qui montreront bien la grande logique du modèle proposé. 16 Enfin, pas tout à fait ! Car s’il convient maintenant qu’il est impossible d’expliquer les quasars lumineux par de simples « flambées d’étoiles », il pense encore que les noyaux des galaxies de Seyfert le sont.

Figure 9.15. Donald Osterborck, qui a consacré une partie de sa vie aux galaxies de Seyfert, en 1990.

272

Figure 9.16. Rayon de la dernière orbite circulaire stable (ISCO) exprimée en rayon gravitationnel (égal à la moitié du rayon de Schwarzschild) à gauche, et efficacité de conversion de la matière en rayonnement à droite, en fonction du moment angulaire du trou noir rapporté à sa valeur maximum. On voit que le rayon de l’ISCO est maximum pour un trou noir sans rotation (moment angulaire = 0) et l’efficacité correspondante est minimum (6 %) tandis que le rayon de l’ISCO est minimum (1,5 rayon gravitationnel) et l’efficacité maximum (30 %) pour un trou noir avec rotation maximum (moment angulaire = 1).

Des quasars aux trous noirs

Nous avons vu qu’une fraction de l’énergie de mouvement du gaz pénétrant dans le trou noir peut être transformée en rayonnement dans le processus d’accrétion**. En principe, l’énergie de mouvement est égale à mc2 /2 lorsque la vitesse du gaz atteint celle de la lumière, donc on devrait pouvoir récupérer jusqu’à la moitié de « l’énergie de masse » E = mc2 , suivant la formule fameuse d’Einstein. Mais les choses ne sont pas si simples, car il faut tenir compte de corrections relativistes ainsi que de ce que l’on nomme la dernière orbite circulaire stable (ISCO, ou « Innermost Stable Circular Orbit »). Si le trou noir est sans rotation, on montre que, dès que le gaz franchit la limite de trois fois le rayon de Schwarzschild, il tombe comme une pierre sur l’horizon du trou noir sans plus avoir le temps de rayonner. Par conséquent, l’efficacité de la conversion de la matière en rayonnement est limitée à l’énergie qu’il avait pu rayonner avant d’atteindre ce rayon : elle est égale à 5,7 % de l’énergie de masse. Ce n’est pas énorme mais tout de même plus que les réactions nucléaires (0,7 %, rappelons-le). Si le trou noir est en rotation rapide, le gaz peut s’approcher en spiralant jusqu’à l’horizon du trou noir car l’espace lui-même est entraîné par la rotation du trou noir en un gigantesque maelström tournant presque à la vitesse de la lumière. Il reste en certain temps dans cette « ergosphère »17 où il rayonne avec une efficacité pouvant atteindre jusqu’à 30 % de son énergie de masse (Figure 9.16). Puisque la puissance des quasars est produite par un mécanisme capable de convertir de la masse en énergie avec une efficacité voisine de dix pour cent, on calcule que si un quasar comme 3C 273 a rayonné pendant cent millions d’années 17

Ce mot vient du grec « ergon » qui veut dire « travail ». Il signifie qu’il est possible d’extraire de l’énergie (ou du travail) de cette région.

Le « Black Power » à l’œuvre dans les quasars

(une durée de vie probable, déduite des comptages de quasars), une masse d’environ cent millions de masses solaires doit avoir été entièrement convertie en énergie et une masse dix fois plus grande doit être maintenant capturée dans le trou noir. Le rayon de l’horizon est alors de trois milliards de kilomètres, soit trois heures-lumière. Or que constate-t-on ? Que c’est précisément la dimension que l’on déduit de la variabilité dans le domaine des rayons X. Avec le trou noir, on a donc à la fois un mécanisme efficace d’extraction de l’énergie et une dimension correcte. On peut aller encore plus loin. En effet, la puissance maximale d’un quasar est limitée par ce que l’on nomme la « luminosité d’Eddington »18 . Lorsqu’une étoile ou un astre quelconque se forme et commence à rayonner, la « pression de radiation » de la lumière émise repousse le gaz, empêchant le taux d’accrétion de dépasser une certaine valeur**. Cette limite est valable non seulement pour les étoiles en train de se former, mais également pour toute autre étoile, y compris dans leur phase de réactions nucléaires car, dès qu’elles dépassent une certaine puissance, leur atmosphère est balayée par la pression du rayonnement qu’elles créent elles-mêmes. Ainsi un trou noir ayant une masse donnée ne peut dépasser une certaine luminosité. Celle-ci est proportionnelle à la masse du trou noir** : on calcule qu’elle est voisine de 1040 watts pour une masse d’un milliard de masses solaires19 . Comme on a de bonnes raisons de penser que les quasars disposent à profusion de gaz à avaler, on pense qu’ils accrètent à leur taux maximum, correspondant à la luminosité d’Eddington. Or 1040 watts est justement la puissance de 3C 273 que nous avons pris comme exemple. Ainsi « la boucle est bouclée » et le modèle parfaitement cohérent. Continuons à explorer les conséquences de ce scénario. Nous savons maintenant que les trous noirs rayonnent parce qu’ils avalent de la matière. Contrairement aux êtres vivants, ils gardent tout et par conséquent ils grossissent. On peut calculer le taux de croissance correspondant à la luminosité d’Eddington : celle-ci est proportionnelle à la masse du trou noir, par conséquent le taux d’accrétion maximum est également proportionnel à la masse. C’est ce que l’on appelle une 18 Du nom de l’astronome britannique qui, au début du siècle dernier, a compris l’un des processus conditionnant la formation des étoiles – j’ai déjà mentionné ce nom à plusieurs reprises. 19 À cette luminosité correspond un taux d’accrétion donné, qu’on appelle le « taux d’accrétion d’Eddington », mais on verra plus tard que les quasars peuvent accréter au dessus du taux d’Eddington.

273

274

Des quasars aux trous noirs

Figure 9.17. Le décalage en fonction du temps écoulé depuis le Big Bang. Ce calcul est fait avec le modèle d’Univers accepté actuellement (une constante de Hubble H0 égale à 70 km/sec/Mpc, une densité de matière – incluant la matière noire – Ωm = 0,3, et une densité « d’énergie noire » ΩΛ = 0,7). On voit qu’un quasar de décalage voisin de 7 tel que l’on en observe maintenant, a acquis déjà toute sa masse 800 millions d’années après le Big Bang.

« croissance exponentielle » et l’on sait qu’elle a la propriété d’être de plus en plus rapide si rien ne vient la contrecarrer, comme la croissance démographique sur terre. On trouve que la masse d’un trou noir double en à peu près quarante millions d’années. Imaginons que nous ayons au départ un trou noir de dix masses solaires disposant à volonté de matière à avaler. Après quarante millions d’années, il aura vingt masses solaires ; après quatre-vingts millions d’années il en aura quarante, et après un milliard d’années – c’est-à-dire en seulement dix fois plus de temps – il sera devenu un trou noir de 300 millions de masses solaires. Or, on observe des quasars très massifs (plusieurs milliards de masses solaires) avec des décalages de presque 7. Selon le modèle actuel d’Univers, un tel décalage correspond à 850 millions d’années après le Big Bang (Figure 9.17). Cela signifie que ces quasars ont dû commencer à grossir immédiatement après le Big Bang, et encore ont-ils eu à peine le temps d’acquérir leur masse en si peu de temps. Si l’on découvre un jour des quasars de plus grand décalage ayant vécu à des époques encore plus reculées, ils poseront de graves problèmes aux cosmologistes. Il faudrait expliquer comment de gros trous noirs se sont formés dans des temps très courts et comment ils ont pu naître dans un Univers encore dans les limbes. Dans le droit fil de ce raisonnement, on peut calculer la masse accumulée dans les quasars sous forme de trous noirs. C’est ce que fit le Polonais Andrez Soltan en 1982. Il se contenta en fait de considérer la lumière émise par tous les quasars. Partant de l’idée simple que ceux-ci rayonnent à leur limite d’Eddington, il en déduisit la masse accumulée au cours du temps depuis leur allumage jusqu’à leur extinction. Il trouva

Le « Black Power » à l’œuvre dans les quasars

qu’il devait y avoir environ cent mille « quasars morts » d’environ cent millions de masses solaires chacun dans un cube d’un milliard d’années-lumière de côté (en tenant compte évidemment de l’expansion de l’Univers, c’est-à-dire que le volume est ramené à notre environnement local). Lorsque l’on refait ce calcul en utilisant les données les plus récentes et en les corrigeant avec le plus grand soin de tous les biais et erreurs possibles, on trouve à peine trois fois cette valeur (qui était de toute façon une sous-estimation). C’est déjà remarquable en soi. Mais ce qui l’est plus encore, ce sont les conclusions qu’en tirait Soltan. Il déduisait que « les noyaux des galaxies normales devaient contenir des quasars morts de cent millions de masses solaires » et il suggérait de les rechercher activement. Bien que ce résultat fût pris extrêmement au sérieux par quelques spécialistes comme Martin Rees qui le développa et essaya de le promouvoir pendant une dizaine d’années, peu de gens y accordèrent du crédit. Il me paraissait très important et j’en parlais au cours de plusieurs séminaires, mais toujours devant un auditoire très sceptique. Il fallut attendre la fin des années quatre-vingt-dix, avec la découverte du trou noir massif dans notre propre Galaxie et celle de la relation entre la masse des trous noirs et des galaxies, pour que cette idée soit enfin validée et qu’elle change radicalement notre vision de l’évolution des galaxies et des trous noirs.

275

This page intentionally left blank

Chapitre 10

De l’importance du regard et de l’apparence Je pourrais arrêter ce livre ici car à partir du début des années quatre-vingts la compréhension des quasars, enfin munis d’un cadre de pensée cohérent et consensuel, progressa sans grande remise en question. Il subsista bien les discussions inhérentes au développement d’une science, mais dans l’ensemble tout se passa « normalement » sans retours en arrière et sans violentes controverses. La mise en service des grands télescopes au sol et l’augmentation de la sensibilité des détecteurs, enfin la multiplication des missions spatiales dans les domaines infrarouge, ultraviolet, X et gamma, entraînèrent une moisson d’observations nouvelles. Elles furent parfois inattendues, mais pas toujours. La généralisation des simulations numériques lourdes permit de grandes avancées théoriques. Je pense donc que la suite de l’histoire vaut la peine d’être contée – d’autant que le lecteur se sentirait sans doute frustré de ne pas en connaître la fin – en tout cas ce que l’on en sait actuellement. Mais à partir de maintenant je ne me limiterai pas seulement à respecter un ordre chronologique, je me placerai aussi dans une démarche thématique correspondant aux différentes branches de cette discipline telles qu’elles se sont développées depuis vingt ans. À mon avis, quatre découvertes observationnelles décisives se produisirent au cours de ces vingt dernières années. C’est peu, direz-vous, mais deux de ces découvertes changèrent fondamentalement notre vision des quasars et des NAGs, et les deux autres permirent d’asseoir profondément le modèle du trou noir. Et comme je l’ai déjà dit, la science avance lentement, sauf à de rares moments où elle subit une accélération brutale et où un éclairage nouveau est jeté sur les phénomènes. Ces instants privilégiés sont en général l’œuvre d’un chercheur seul ou d’un petit groupe, qu’ils aient réalisé dans un but précis une observation qui corrobore une idée nouvelle et audacieuse (c’est le cas de deux de ces découvertes),

278

Des quasars aux trous noirs

ou qu’ils aient rassemblé suffisamment d’indices à partir des observations publiées, même anciennes, pour accomplir une percée (c’est le cas des deux autres). L’idée nouvelle apparaît comme une évidence une fois qu’elle a été émise. On se dit (comme Raymond Souplex à la fin de ses énigmes policières des années soixante) « mais c’est bien sûr ! ». Sur le plan théorique, je dirais qu’on progressa considérablement dans trois directions : les mécanismes d’accrétion, la physique des jets et l’évolution globale des galaxies et des trous noirs. Cependant, de nombreuses questions restent encore sans réponse. Ce chapitre sera consacré à l’une de ces découvertes observationnelles fondamentales, celle du « schéma unifié ». Pour suivre les avancées du sujet, j’ai pris l’habitude d’utiliser les comptes-rendus des congrès, qui sont en quelque sorte les points d’orgue de la recherche. On peut en lire l’introduction qui définit les contours du domaine et ses limites présentes et qui pose les questions à l’ordre du jour, puis aller aux conclusions ; lorsqu’elles sont bien faites, elles résument en quelques pages les nouveaux résultats et annoncent les travaux à mener dans le futur. Il est souvent amusant de comparer les prédictions d’un congrès avec les résultats obtenus dix ans plus tard. Certaines des questions posées plus tôt sont alors résolues mais pas toutes, et dans ce cas il est rare qu’elles aient gardé leur intérêt car on a en général découvert nombre de nouveaux problèmes plus importants et insoupçonnés.

Une pause à mi-course Prenons comme exemple le symposium de l’UAI1 sur les quasars qui se tint à Bangalore en Inde à la fin de l’année 1985 et qui rassembla plus de deux cents participants (Figure 10.1). Huit années s’étaient écoulées depuis le congrès de Copenhague dont j’ai longuement parlé et l’on peut considérer que, par rapport à l’époque actuelle, il s’agit d’un point à « mi-parcours ». L’introduction était de Martin Rees et les conclusions de Lo Woltjer. 1 Parmi les congrès organisés par des instituts, certains le sont sous l’égide de l’Union astronomique internationale (IAU). On les appelle des « symposiums ». Depuis sa création en 1919, l’UAI a organisé environ deux cents symposiums. Ils rassemblent en général au moins cent cinquante participants, et ils sont tenus de respecter certains quotas correspondants aux différents pays de l’Union. Ils sont relativement espacés sur un sujet donné. À part cela, il n’y a pas de différence fondamentale avec les autres congrès.

De l’importance du regard et de l’apparence

Il est curieux de relever que ces deux grands scientifiques ont très souvent fait les introductions ou les conclusions des congrès sur les quasars. Certes ils s’acquittent remarquablement de ce travail et ont une connaissance profonde de l’ensemble du sujet en dépit de sa complexité. Mais on peut se demander si personne d’autre n’est capable de prendre la relève et s’en inquiéter. Je crois en fait qu’en science, comme dans les médias, on préfère s’adresser toujours aux mêmes : on sait qu’ils font bien le travail et l’on hésite à prendre des risques avec de nouvelles têtes. . . En passant, puisque je me suis donné comme règle de ne pas me limiter aux sujets purement scientifiques, j’en profiterai pour dire quelques mots sur la mondialisation de la science. Elle est naturellement indispensable et personne n’irait s’en plaindre. Dans les années quatre-vingts, on commença à se préoccuper des « pays émergents » et à y tenir les congrès internationaux. Avant, les congrès avaient lieu dans les pays riches, en Europe et en Amérique du nord, en Australie, parfois dans les pays d’Europe de l’Est, du moins ceux qui avaient conservé une science de haut niveau. À partir cette date, ils commencèrent à se tenir en Asie (en Chine et en Inde surtout)

279

Figure 10.1. Le congrès sur les quasars à Bangalore, Inde, en 1985.

280

Des quasars aux trous noirs

et en Amérique du Sud (au Brésil et en Argentine). Cependant, à ma connaissance, jamais aucun congrès d’astronomie ne s’est tenu en Afrique (sauf naturellement en Afrique du Sud), en particulier dans le Maghreb ou dans l’un des grands pays du Moyen-Orient (Iran, Pakistan, Irak. . . ) d’où proviennent pourtant un certain nombre de bons chercheurs (exception faite de l’Afrique sub-saharienne qui a évidemment bien d’autres problèmes à résoudre que de développer la recherche astronomique). Cette pratique des congrès permet aux scientifiques locaux d’être au courant des dernières découvertes et des grandes discussions et d’établir des relations de coopération avec les scientifiques « occidentaux », car tous ne peuvent pas bénéficier de bourses de séjour à l’étranger ou de frais de missions leur permettant de se rendre dans des pays dont le niveau de vie est de plusieurs fois supérieur au leur. Mais le revers de la médaille est que nous autres, occidentaux, sommes accueillis dans ces pays comme de véritables nababs et nous y côtoyons une misère qui nous paraît insupportable au regard du luxe dans lequel nous sommes reçus. Bien sûr, on peut se dire qu’on fait ainsi « marcher le commerce », mais personnellement c’est une question que je n’ai pas encore résolue et que je ne résoudrai sans doute jamais. Cinq grands congrès sur les quasars s’étaient tenus au cours des trois années précédentes, c’est dire si le sujet continuait à être chaud et débattu. Martin Rees fit la statistique des sujets qui y avaient été discutés en fonction de la distance à « l’engin central » comme il l’appelait. Celle-ci est intéressante. Vingt pour cent des études seulement étaient relatifs aux régions proches du trou noir, quarante pour cent portaient sur les régions se trouvant à quelques années-lumière du trou noir (la région des raies spectrales « larges » surtout), tandis que quinze pour cent s’intéressaient aux régions plus éloignées, c’est-à-dire les « galaxies hôtes », enfin vingt-cinq pour cent à l’Univers dans son ensemble. Réfléchissons au pourquoi cette distribution. Je ne pense pas que les raies spectrales constituaient réellement le sujet le plus intéressant (bien que ce fût mon propre thème de recherches à cette époque), mais c’est dans ce domaine que l’on pouvait faire les plus belles observations. Les détecteurs à comptage de photons ou les CCD montés sur des télescopes de la classe des quatre mètres fournissaient des spectres comportant de magnifiques raies. Par ailleurs, on commençait également à disposer de programmes de calculs permettant de déduire certaines conditions du gaz émissif comme sa den-

De l’importance du regard et de l’apparence

sité et sa température ou encore les abondances des différents éléments. En revanche, on ne savait encore presque rien des régions proches du trou noir puisque les missions spatiales X n’avaient pas encore révélé leurs secrets essentiels – comme la variabilité X très rapide – et l’on n’avait pas encore de théorie pour expliquer le rayonnement X, sauf à l’attribuer aux jets relativistes ; or ces jets ne semblaient pas exister dans les quasars non radio. Et concernant les régions plus éloignées, on commençait à peine à obtenir les images de quelques galaxies hôtes de quasars proches. Enfin, la proportion relativement importante d’études portant sur la cosmologie provenait du fait que l’on considérait encore les études des « nuages » sur la ligne de visée des quasars, ainsi que les « mirages gravitationnels », comme faisant partie intégrante de l’étude des quasars. Très peu d’exposés furent consacrés à l’engin central qui pourtant aurait dû représenter le but ultime des recherches dans le domaine des quasars. Les sujets les plus étudiés ne sont en effet pas nécessairement les plus importants : c’est un constat général en astrophysique comme probablement dans toute science dépendant fortement des avancées de la technologie. Les recherches sont souvent gouvernées par les capacités instrumentales du moment ou par l’existence de programmes de calculs permettant un début d’interprétation plus que par l’intérêt réel d’un sujet. Et les observations effectuées ne sont pas nécessairement celles qui jettent le plus de lumière sur une question posée. Voyons le cas des raies spectrales. Martin Rees posait quatre questions à leur propos : « Est-ce que le seul mécanisme de chauffage est le rayonnement ? Est-ce que l’on connaît exactement la densité de la région des raies larges ? Quelle en est la configuration spatiale ? Quelle en est la cinématique ? ». Eh bien aucune de ces questions n’a de réponse à l’heure actuelle ! À l’opposé, un résultat fondamental sera tiré de l’étude des raies spectrales quelques années plus tard, la mesure de la masse des trous noirs, et il ne fut mentionné à aucun moment au cours du congrès bien qu’il fût prévisible. On se rappelle que les quasars présentent des raies spectrales larges et intenses en émission. On commençait à l’époque à observer systématiquement leurs variations et l’on essayait d’en comprendre les raisons (Figure 10.2). La « région des raies larges » (la « Broad Line Region ») était l’objet de beaucoup de questions. On se disputait sur sa densité que certains estimaient être relativement faible, et d’autres (dont je faisais partie) élevée, proche de celle d’une atmosphère

281

282

Des quasars aux trous noirs

Figure 10.2. Enregistrement du spectre de la galaxie de Seyfert NGC 4151 à 10 ans d’intervalle, obtenu avec le télescope de quatre mètres Isaac Newton (à Hertsmonceux en Angleterre, d’abord, puis aux Canaries, où il avait été transféré). Bien que les deux figures ne soient pas à la même échelle, on voit très nettement la variation des profils des raies larges Hα et Hβ, et celle du continu. Les raies « étroites » ne varient pas car elles sont formées dans une région d’une centaine d’années-lumière. Le continu sous-jacent varie également et l’on peut voir qu’il est « plus bleu » lorsqu’il est plus intense. Notons qu’en 1984 le spectre de ce noyau de galaxie était en tout point semblable à celui d’une Seyfert 2, tandis que c’était une Seyfert 1 dix ans plus tard.

stellaire. On se demandait si elle correspondait à du gaz qui allait lui aussi s’engouffrer dans le trou noir, ou au contraire qui était chassé vers l’extérieur. La question la plus obsédante était tout simplement : de quoi est faite cette région ? On avançait que ce pouvait être des étoiles perdant leur atmosphère, soufflée par le rayonnement du quasar, ou bien des morceaux arrachés au disque d’accrétion, ou encore des condensations dans un flot de gaz chaud (comme les gouttes de pluie qui se forment lorsque la température baisse). On évoque encore ces hypothèses sans avoir pu trancher entre elles. On commençait également à fabriquer pour cette région des programmes comparables à ceux utilisés pour les atmosphères stellaires, permettant de simuler un spectre et d’en déduire les conditions régnant dans le milieu observé. Les deux premiers du genre furent ceux de l’israélien Netzer et des américains Kwan et Krolik. Ils furent publiés pratiquement au même moment2 et furent suivis par d’autres. Le plus célèbre de ces programmes est incontestablement Cloudy (son 2 Pour preuve de ce que je disais dans l’introduction, l’un des auteurs reproche à l’autre d’avoir été le « referee » de son article et d’en avoir volontairement retardé la publication. . .

De l’importance du regard et de l’apparence

nom – ce n’est pas un sigle – rappelle qu’il s’intéresse à des « nuages ») mis en libre accès et utilisé dans des milliers d’articles. J’ai d’ailleurs lu dans des statistiques que son auteur, Gary Ferland, est la personne la plus remerciée au monde en astronomie. J’ai moi-même développé un tel programme avec Simone Dumont, spécialiste des atmosphères stellaires ; il utilisait pour la première fois les méthodes des atmosphères stellaires pour les spectres des quasars (Simone n’a aucun lien de parenté avec Anne-Marie Dumont, avec qui j’ai repris plus tard un problème similaire, mais pour le domaine X). La mise en service public de Cloudy a conduit à mon avis à une grave dérive que je veux mentionner ici. On a vu fleurir une multitude d’articles décrivant minutieusement les spectres de divers objets observés essentiellement parce qu’ils sont suffisamment brillants et sans chercher à résoudre un problème particulier. On y ajoutait un semblant d’interprétation obtenu en faisant tourner Cloudy que l’on utilisait comme une boîte noire sans en connaître les hypothèses et les approximations sous-jacentes (parfois problématiques dans les premières années). On évitait ainsi de publier un article purement observationnel qui ne recevrait peut-être pas l’aval des rapporteurs. Cette dérive m’est toujours apparue pernicieuse et elle a conduit dans le passé à une inflation d’articles insignifiants (mais néanmoins très cités puisqu’ils rentrent maintenant automatiquement dans les bases de données et qu’on les mentionne lorsqu’on décrit un objet précis). J’appelle cela le « syndrome du modèle ». Je suppose qu’il existe dans tous les domaines. En ce qui concerne les spectres des quasars, il se poursuit actuellement avec certains résultats obtenus dans la bande X, chaque spectre étant décrit avec un grand luxe de détails et « modélisé » grâce à des programmes introduits dans les logiciels de réduction des données (« packages »). Le néologisme « modéliser » signifie ici : déterminer les valeurs les plus probables d’un ensemble de paramètres. Le problème est que les relations de ces paramètres avec des quantités physiques réelles ne sont pas claires du tout. Je ne veux pas dire que les observations en elles-mêmes sont inutiles, bien sûr, mais que ces articles n’apportent en général rien de neuf s’ils ne sont pas accompagnés d’une véritable réflexion qui en général ne peut être fondée sur une seule observation. Et comme les experts qui examinent un article sont souvent eux-mêmes les auteurs de travaux identiques, ils n’y voient en général rien à redire. Pour revenir au congrès de Bangalore, quelques résultats y furent annoncés, qui s’avérèrent prématurés et faux par la suite, comme celui d’une périodicité trouvée dans les

283

284

Des quasars aux trous noirs

variations des raies d’une Seyfert. Elle était due au hasard et ne se reproduisit jamais, mais il se trouva immédiatement des théoriciens pour l’interpréter. De telles périodicités sont d’ailleurs annoncées de façon récurrente sans avoir jamais pu être confirmées bien qu’elles soient recherchées activement. Le congrès de Bangalore se tint en décembre 1985 et il ne fit aucune mention de l’une des découvertes majeures concernant les quasars et les NAGs. Elle avait été publiée en octobre, deux mois avant le congrès et apparemment personne n’en avait encore pris la mesure. Actuellement, les choses ne se passeraient évidemment plus ainsi puisque, sans attendre la « sortie papier », les articles sont disponibles sur internet dès qu’ils sont acceptés – dans le cas présent il était sous presse depuis plus de six mois. Moi-même, j’écrivis en 1985 avec ma collègue Grazyna Stazinska, un petit livre intitulé Aux confins de l’Univers, les quasars qui parut l’année suivante. Je dirais que l’essentiel en était correct car nous ne nous étions pas beaucoup avancées, nous contentant de décrire les résultats acquis avec certitude. Cependant, là aussi il manquait cet ingrédient majeur. La figure 10.3 montre comment j’avais à cette époque l’habitude de représenter ce que j’appelais « le portrait robot d’un quasar » – qui était en fait celui d’un quasar radio. Il y a quelques erreurs dans cette représentation. La première est que le plan de la galaxie et celui du disque d’accrétion ne sont pas nécessairement confondus ; c’est même rarement le cas et l’on en comprendra plus tard la raison. Ensuite, l’émission X provient essentiellement du disque d’accrétion et non du jet, sauf dans le cas particulier où le jet est orienté dans la direction de la ligne de visée. Enfin et surtout, il manque l’ingrédient dont il va être question ci-dessous.

Des noyaux de galaxies qui cachent leur vraie nature Une question importante à l’époque était de déterminer s’il existait, excepté pour le trou noir, un ou plusieurs principes unificateurs pour les divers types d’objets paraissant avoir des points communs avec les quasars. Il s’agissait des galaxies de Seyfert mais également des radiogalaxies et de façon générale des objets que l’on commençait à appeler des « blazars », contraction de BL Lac et de quasars, c’est-à-dire un mélange d’objets montrant à la fois une forte variabilité et une forte

De l’importance du regard et de l’apparence

285

Figure 10.3. « Portrait robot d’un quasar » tel que je l’imaginais en 1985. Cette figure fait des zooms successifs sur un quasar radio – radio parce qu’il inclut un jet cosmique qui n’existe pas dans les quasars non radio. On peut y reconnaître, d’abord une galaxie, entourée de deux grands lobes radio ; puis le noyau de cette galaxie à une échelle de mille années-lumière, avec un jet des deux côtés, et la région émettant les raies étroites qu’on suspectait être liée au jet ; ensuite à l’échelle d’une année lumière, le jet et la région émettant les raies larges ; enfin à l’échelle d’un millième d’année-lumière, toujours le jet, avec le disque d’accrétion.

polarisation, mais pas nécessairement des raies spectrales intenses. On se souvient également que parmi les galaxies de Seyfert, on trouve les « Seyfert 1 », avec des raies permises larges et des raies relativement étroites (essentiellement des raies interdites) et les « Seyfert 2 » avec uniquement des raies étroites. Si tous ces objets possédaient un trou noir massif, on pouvait supposer qu’ils différaient au moins par la masse de ce trou noir et par son taux d’accrétion. Mais il ne semblait pas évident d’attribuer des aspects aussi disparates à ces deux paramètres seulement. Étaient-ils gouvernés également par un autre principe ? Au début des années quatre-vingts, on avait acquis la conviction de la présence d’un « disque d’accrétion » ou au

286

Des quasars aux trous noirs

moins d’une rotation organisée autour du trou noir. On en déduisait logiquement qu’il existait une direction privilégiée correspondant à l’axe de rotation. L’angle entre cette direction et la ligne de visée ne devait-il pas avoir une certaine importance pour l’aspect des objets ? En 1983, Joe Miller et son étudiant Roberto Antonucci de l’Observatoire de Lick en Califormie constatèrent que le rayonnement visible de la galaxie NGC 1068 (une Seyfert 2, je le rappelle) était assez fortement polarisé [66]. Ils n’éliminaient pas complètement l’hypothèse que ce fût du rayonnement synchrotron (le temps où on le croyait dominant dans les quasars et les NAGs n’était pas bien loin) mais ils suggéraient qu’il pouvait aussi s’agir d’un mécanisme complètement différent, spécifique aux Seyfert 2. Deux ans plus tard ils publièrent un article où ils montraient que les raies larges (normalement absentes dans le spectre des Seyfert 2) étaient présentes dans le spectre polarisé de NGC 1068 [4]. Ils en déduisaient que cellesci étaient cachées à notre vue directe par un milieu absorbant et qu’elles étaient « réfléchies » par un « miroir » situé plus loin que le milieu absorbant. Ce miroir avait la propriété de polariser la lumière. Il devait être constitué d’un milieu chaud dont les électrons diffusaient le rayonnement provenant du centre. En somme, NGC 1068 était une Seyfert 1 « vue par la tranche », à travers un milieu opaque dont Antonucci et Miller pensaient qu’il pouvait être lié au disque d’accrétion. Ils lui supposaient donc la forme d’un « tore ». En anglais on l’appelle souvent « doughnut », par allusion à ces beignets très appréciés outre-Atlantique. La figure 10.4 donne un schéma de leur modèle. Le modèle proposé par Antonucci et Miller permettait donc d’unifier les Seyfert 1 et les Seyfert 2. Il n’y avait plus qu’un seul type de Seyfert, apparaissant comme des Seyfert 2 lorsqu’on les regardait dans une direction voisine du plan du disque et comme des Seyfert 1 lorsqu’on les regardait dans une direction voisine de l’axe de rotation. C’était, suivant l’expression d’Antonucci, comme si l’on disposait d’un périscope pour regarder à l’intérieur des Seyfert. Une galaxie comme NGC 4151 dont le spectre est montré sur la figure 10.2, qui était passé d’un état de Seyfert 2 à celui de Seyfert 1, devait être vue dans une direction proche du bord du « tore ». Et suivant qu’un nuage traversait ou non sur sa ligne de visée, elle changeait de statut. Ce modèle permettait de comprendre enfin pourquoi le rayonnement X de la galaxie de Seyfert 1068 était très faible, au point que l’on n’avait pas réussi à le détecter dans les

De l’importance du regard et de l’apparence

années-soixante dix bien que ce fût une des plus brillantes galaxies de Seyfert : tout simplement parce qu’il est lui aussi caché à notre vue par le « tore », et que l’on n’en voit que la faible proportion diffusée en direction de l’observateur. Pour la petite histoire, précisons qu’Antonucci est un astronome peu classique. La première fois que je l’ai vu dans un congrès, il y faisait un exposé pieds nus et je crois même qu’il se promenait torse nu aux alentours. Alors que tout le monde ou presque donne actuellement des séminaires ou des conférences en s’aidant d’un ordinateur, Antonucci arrive encore avec des transparents non terminés qu’il complète sur place d’une écriture illisible et en général il n’atteint pas le quart de ce qu’il a prévu de raconter dans le temps qui lui est imparti. Ses articles sont dans le même style, d’une langue imagée qu’on pourrait appeler tout sauf de bois. J’ai eu un temps avec lui un échange de courriels qui frisaient les injures (de ma part aussi), avant que nous puissions discuter de vive voix et devenir presque amis. Il faut reconnaître que ses idées sont toujours originales et intéressantes. Si Antonucci ou Miller étaient venus à Bangalore, ils y auraient fait un tabac comme on dit maintenant. Leur découverte est un exemple de la façon dont les recherches devraient toujours être conduites. On a un modèle en tête, on bâtit une observation dans le but de le tester et on le propose si le test est positif. Leur modèle avait l’avantage de résoudre un problème précis et de le faire à partir d’une observation simple, originale et incontestable. Ce qui était remarquable

287

Figure 10.4. Coupe d’un noyau de Seyfert 1, suivant Antonucci et Miller, montrant les positions respectives du disque d’accrétion, de la région des raies larges, de la région des raies étroites, du milieu absorbant et du milieu réfléchissant. Lorsqu’on regarde la Seyfert 1 de côté, on ne voit directement ni le disque d’accrétion ni la région des raies larges, car ils sont cachés par le milieu absorbant (on suppose qu’il s’agit d’une sorte de disque de poussière épais ayant la forme d’un tore et prolongeant le disque d’accrétion). On voit donc une Seyfert 2. Si l’on observe alors cette Seyfert 2 en lumière polarisée, les raies larges et le disque d’accrétion apparaissent car leur rayonnement est réfléchi sur un milieu qui joue le rôle de miroir et a la propriété de polariser la lumière. Ce milieu est un gaz chaud entourant le noyau comme un cocon. Il s’agit très probablement d’un « vent » provenant de l’atmosphère du disque et chassé par son rayonnement intense.

288

Des quasars aux trous noirs

aussi dans leur démarche, c’est que ce modèle était à son tour réfutable et qu’à aucun moment ils n’ont été tentés de surinterpréter leurs observations ni de valoriser outre mesure leur découverte puisque leur article s’intitulait modestement « Spectropolarimetry and the Nature of NGC 1068 ». Je peux très bien imaginer actuellement un titre comme « Une interprétation révolutionnaire des NAGs grâce à la spectropolarimétrie », ou encore « Des quasars cachés à l’intérieur des galaxies de Seyfert 2 ». Car si l’on tient compte de l’absorption dans notre direction, la puissance réelle rayonnée par NGC 1068 est celle d’un modeste quasar. Il ne serait toutefois pas honnête de faire croire que la différence entre Seyfert 1 et 2 peut être entièrement attribuée à l’angle de vue car on a constaté depuis qu’elles se distinguent également par d’autres propriétés. Par exemple on suspecte que dans les Seyfert 2, la région absorbante (le « tore ») est plus développée que dans les Seyfert 1. Catherine Boisson, Monique Joly, Didier Pelat et leurs étudiants à l’Observatoire de Meudon pensent – avec d’autres – que le noyau des Seyfert 2 contient plus d’étoiles jeunes que les Seyfert 1. Il est même possible que l’activité des Seyfert 2 soit liée à l’existence de « flambées d’étoiles », semblables à celles que l’on observe dans les couples de galaxies en forte interaction (l’extension plus grande du tore pouvant en être la conséquence). Bref il n’est pas évident que toutes les Seyfert 2 soient bien des Seyfert 1 vues à travers un milieu absorbant. Et surtout ce fameux tore, il fallait le voir. Des essais avaient bien été tentés, mais ils furent infructueux car la résolution des images était insuffisante pour obtenir des conclusions fermes. Une observation récente dans l’infrarouge avec le VLTI (« Very Large Telescope Interferometer ») de l’ESO dévoila enfin le cœur de poussières présent dans le noyau de NGC 1068. C’est un consortium européen auquel participe activement une équipe de l’Observatoire de Paris-Meudon qui a obtenu ce résultat remarquable [49]. Après avoir été acceptée largement pendant vingt ans, l’hypothèse du « tore de poussière » est battue en brèche par cette observation. Car une fois de plus ce que l’on a trouvé est assez éloigné de ce que l’on cherchait. On pensait en effet que le tore avait une dimension d’une centaine d’années-lumière et l’on a découvert une toute petite structure de quelques années-lumière seulement. Ce qui remet complètement en cause nos idées sur le tore : il est beaucoup plus dense et inhomogène que l’on imaginait et il est probable qu’il ne s’agit pas réellement d’un « tore » mais plustôt d’une sorte de « vent » produit par le disque d’accrétion. Comme le dit

De l’importance du regard et de l’apparence

Moshe Elitzur [31] c’est sans doute « la fin du paradigme du beignet » ! Quelques mois après la publication de l’article d’Antonucci et Miller tout le monde prit conscience de l’impact que cette découverte aurait sur notre connaissance des quasars et des noyaux actifs de galaxies. On appela cela le « schéma unifié des NAGs » bien qu’il fût pour le moment limité aux seules galaxies de Seyfert. Il témoignait en effet de l’importance de l’angle d’inclinaison du disque et l’on pouvait deviner qu’il y aurait bien d’autres conséquences. L’une d’elle fut par exemple de résoudre le « paradoxe du fond diffus X », une énigme qui avait intrigué les astronomes pendant longtemps. Lorsque l’on fait une observation sans s’attacher à aucun objet en particulier et avec une faible résolution spatiale, on décèle une émission « isotrope » (la même dans toutes les directions) provenant de toutes les régions du ciel. L’émission de « corps noir cosmologique » dans le domaine radio en est l’exemple le plus frappant mais le phénomène se produit également pour tous les domaines de longueur d’onde. On appelle cette émission « le fond diffus » et son spectre a la forme donnée par la figure 10.5. Il est facile de voir que le rayonnement qui domine l’Univers est le corps noir cosmologique, cette émission glaciale baignant tout ce qui nous entoure sans que nous la percevions. Il ne faut cependant pas croire que tous les rayonnements présents sur cette figure fassent effectivement partie du « fond diffus ». L’infrarouge, l’optique et l’ultraviolet sont émis par les galaxies, et le rayonnement radio par les radiogalaxies, mais on ne distingue pas les objets individuels lorsqu’on fait des études à faible résolution spatiale. Il restait en fait seulement le rayonnement X et gamma dont on ignora l’origine jusqu’au début des années quatrevingt-dix. On aurait bien voulu l’attribuer aux quasars et aux NAGs mais cela paraissait impossible. En effet, d’une part ils semblaient en nombre insuffisant, d’autre part la forme du spectre du « fond diffus » ne correspondait pas à celui des NAGs : il était trop riche en rayonnement X « dur » et en gamma. Or, à l’époque on savait déjà qu’il ne pouvait être dû à un milieu intergalactique chaud dans lequel auraient baigné les galaxies. Une solution à ce paradoxe fut proposée en 1989 par Setti et Woltjer [88]. Ils eurent l’idée d’intégrer le « schéma unifié » dans le fond diffus : supposant que de nombreux NAGs avaient échappé aux détections parce qu’ils n’étaient

289

290

Des quasars aux trous noirs

Figure 10.5. Le spectre du fond diffus : cette figure représente, comme on le faisait dans les années quatre-vingts, le logarithme de l’intensité du fond diffus en fonction du logarithme de la fréquence ; elle montre en tirets épais ce que serait le spectre si la quantité d’énergie était égale dans tous les domaines de longueur d’onde.

pas « tournés dans le bon sens », ils trouvaient que les NAGs pouvaient expliquer la forme du fond diffus X. En effet, si les poussières du « tore » sont capables d’absorber les rayonnements ultraviolets et les X « mou », elles laissent passer les X « durs » et les gammas. En ajoutant alors tous les NAGs et en tenant compte du fait que certains ne devaient alors apparaître que dans les X « durs », Setti et Woltjer retrouvaient bien la forme du spectre du rayonnement diffus et son intensité. J’avais moi-même proposé, à la suite de l’américain Boldt, un modèle dans lequel les quasars auraient dans le passé été beaucoup plus puissants en X qu’en visible. C’était plausible à l’époque, car on n’avait pas encore beaucoup d’informations sur leur rayonnement X et nos idées sur les processus d’accrétion allaient dans ce sens. En tenant compte de l’évolution avec le décalage, on pouvait alors également rendre compte du fond diffus X. Mais la suite montra que Setti et Woltjer avaient raison. Et il devint également clair plus tard, avec les observations des satellites X Chandra et XMM-Newton, que le fond diffus X et gamma est entièrement produit par les NAGs et les quasars.

De l’importance du regard et de l’apparence

291

Où l’on regarde les quasars et les NAGs sous tous leurs angles et l’on essaye d’unifier à tour de bras Le schéma unifié ne resta pas limité aux galaxies de Seyfert. Il fut rapidement étendu aux quasars par les américains Sanders et Soifer, puis le hollandais Barthel. On avait en effet découvert avec le satellite infrarouge IRAS3 l’existence de galaxies extraordinairement lumineuses en infrarouge. Leur puissance était égale à celle de modestes quasars, mais elles étaient proches de nous, contrairement aux quasars. On pensait qu’à grande distance où la faible sensibilité d’IRAS ne permettait pas de les observer, elles étaient plus nombreuses encore que les quasars. On les appela des ULIRGs, pour « Ultra-Luminous Infrared Galaxies ». La plupart étaient complètement inconnues mais deux étaient déjà célèbres, Mrk 231 (une galaxie du catalogue de Markarian) et Arp 220 (une galaxie du catalogue de Arp). Rapidement, on s’aperçut que toutes les ULIRGs étaient en forte interaction, certaines même en train de fusionner avec une autre galaxie4 (Figure 10.6). Figure 10.6. Cartes en proche infrarouge de deux galaxies ultra-lumineuses en infrarouge (ULIRG). Elles montrent que ces galaxies sont en fait constituées chacune de deux galaxies en train de fusionner (et même de trois dans le cas de UGC 05101). C’est cette fusion qui déclenche une la formation d’étoiles, créant les poussières dans lesquelles les galaxies sont enrobées et leur permettant d’émettre un intense rayonnement infrarouge.

Sanders et Soifer montrèrent que le rayonnement infrarouge provenait de poussières et non de rayonnement synchrotron. Ils émirent alors l’hypothèse que ces monstres infrarouges étaient des quasars « enrobés de poussière » 3 IRAS ou « Infrared Astronomical Satellite » lancé en 1983 par une collaboration anglo-américaino-néerlandaise fut le premier télescope infrarouge spatialisé. Il observait dans quatre bandes spectrales, de 12 à 200 microns. 4

Felix Mirabel, que j’ai déjà mentionné à propos des « micro-quasars », fut l’un des pionniers dans cette étude.

292

Des quasars aux trous noirs

(« dust-enshrouded »). La poussière aurait été créée par une violente formation d’étoiles (« une flambée d’étoiles » ou « starburst »), elle-même induite par l’interaction entre les deux galaxies. On dit par conséquent que ces galaxies sont des « pouponnières d’étoiles ». Sanders et Soifer pensaient que le gaz et les étoiles issues de la flambée d’étoiles alimentaient un quasar central dont le rayonnement était caché à notre vue par le cocon de poussière et que c’était ce quasar qui chauffait les poussières et leur permettait de rayonner. Peu à peu, les poussières étaient chassées par les explosions de supernovae et la pression de radiation. Comme une chrysalide sortant de son cocon, le quasar apparaissait dans toute sa beauté. Ce scénario était assez juste dans ses grandes lignes, mais il était trop réducteur. Certes le cœur de ces galaxies recèle presque toujours un trou noir géant. En revanche, ce n’est pas lui qui est à l’origine de l’énorme puissance de ces galaxies mais bel et bien les étoiles se formant à un rythme extraordinairement élevé : on pense qu’il s’en crée jusqu’à mille par an ! Si le trou noir joue un rôle, il reste peu important pendant toute la période d’interaction ou de fusion des galaxies. Ce n’est qu’à la fin de la fusion, lorsque la flambée d’étoiles est pratiquement terminée, que le quasar ou le noyau actif de galaxie va donner sa pleine mesure. Et si l’on peut dire effectivement que l’activité d’un noyau de galaxie ou d’un quasar est reliée à l’interaction ou à la fusion avec une autre galaxie, il est clair qu’elle n’est pas induite immédiatement et qu’il faut un certain délai après la période de formation stellaire pour qu’elle puisse démarrer. Il est maintenant possible d’effectuer des simulations numériques de la rencontre de deux galaxies et de vérifier que c’est bien ainsi que les choses se passent, comme nous le verrons dans le dernier chapitre : on estime le délai à quelques dizaines de millions d’années. Il ne faut cependant pas croire que cette conclusion ait été acquise sans discussions. Elles ont été très vives entre ceux qui pensaient que la luminosité des galaxies infrarouges était dominée par un quasar et ceux qui affirmaient qu’elle était dominée par la flambée d’étoiles. Et comme toujours, la bonne solution était entre les deux. Pour résoudre le problème, il fallait repérer des « signatures » des deux processus qui ne fussent pas sensibles à l’énorme absorption que subit la lumière visible dans ces objets. Par exemple, la détection de raies larges dans les spectres infrarouges des galaxies ou celle d’un rayonnement X intense sont considérées comme des empreintes indubitables de l’activité d’un trou noir. À l’inverse, la présence de

De l’importance du regard et de l’apparence

293

Figure 10.7. Spectre obtenu dans l’infrarouge à l’aide du spectrographe ISOPHOT à bord de l’observatoire spatial infrarouge ISO, en compositant 11 galaxies à flambées d’étoiles (en haut à gauche), 17 NAGs (en haut à droite) et 60 galaxies ultra-lumineuses en infrarouge (au dessous). Les lignes en pointillés montrent le spectre tel qu’il apparaîtrait s’il n’était pas obscurci très fortement par de la poussière (l’absorption est supposée de cinquante magnitudes). On voit que le spectre des galaxies infrarouges ressemble beaucoup plus à celui des galaxies à flambées d’étoiles (starbursts) qu’à celui des NAGs.

certaines molécules comme les PAHs (ou Polycyclic Aromatic Hydrocarbons) prouve que la puissance du noyau actif n’est pas dominante car ces molécules très petites sont détruites en présence d’un rayonnement ultraviolet intense5 . Mais ces tests ne purent être réalisés que dix ans plus tard. Pour l’empreinte X, il fallut attendre les satellites Bepposax, Chandra et XMM : j’en parlerai dans le chapitre suivant. Quant aux signatures infrarouges, c’est l’observatoire spatial infrarouge ISO (« Infrared Space Observatory ») de l’Agence spatiale européenne, lancé en 1995, qui apporta la solution. Il permit de montrer que les bandes caractéristiques des PAHs vers dix microns sont pratiquement absentes dans les quasars alors qu’elles sont intenses dans les galaxies à flambées d’étoiles et dans les galaxies infrarouges ultra-lumineuses (Figure 10.7). Un pas supplémentaire fut franchi en 1989 par Barthel dans un article qui fit date, mais pour une tout autre raison que je 5 Les PAHs sont de petites molécules, consistant en séquences d’atomes d’hydrogène et de carbone. Les Français Alain Léger et Jean-Loup Puget ont proposé les premiers que de telles molécules pouvaient exister dans la matière interstellaire. Elles sont à l’origine de bandes en absorption et en émission dans l’infrarouge vers 10 microns. Étant très petites, elles sont détruites très facilement par le rayonnement ultraviolet.

294

Des quasars aux trous noirs

vais expliquer un peu plus loin. Il suggérait d’appliquer aux quasars le schéma unificateur des galaxies de Seyfert. Le « cocon de poussière » des galaxies ultra-lumineuses infrarouges aurait également la forme d’un tore et laisserait passer la lumière dans la direction de son axe. Les ULIRGs seraient alors tout simplement des « quasars de type 2 », c’est-à-dire que pour la famille des quasars ils seraient comparables à ce que sont les Seyfert 2 pour la famille des Seyfert : ils seraient « vus par la tranche » et l’on ne recevrait que le rayonnement infrarouge émis par les poussières, tout le reste étant absorbé par le tore. Ce modèle était crédible tant que l’on ignorait que l’activité du trou noir – donc le quasar – se développe seulement après la flambée d’étoiles. Et de fait, il reste toujours un mystère concernant les quasars non radio de type 2 car on s’attendrait à trouver de nombreux quasars à raies relativement étroites comme les Seyfert 2. Or, on en trouve très peu. Et bien que plusieurs explications de ce phénomène aient été données, aucune ne s’est imposée jusqu’à maintenant. À la fin des années quatre-vingts, on pensait avoir unifié les quasars et les Seyfert non radio grâce à l’angle d’inclinaison de leur axe de rotation. En ce qui concerne les Seyfert, ce scénario s’avéra à peu près correct moyennant quelques retouches. Quant aux quasars et aux ULIRGs, on sait maintenant que l’évolution qui n’avait pas du tout été prise en compte dans le schéma de Barthel est en fait l’élément essentiel distinguant les deux classes, et non l’inclinaison. Une fois de plus, on avait voulu trop simplifier, oubliant qu’en astrophysique de nombreux paramètres ont leur importance et doivent être pris en considération, en particulier ceux qui sont liés à l’âge et à l’environnement. Mais il restait les objets radio. En effet, on se rappelle que les BL Lac étaient expliquées par la présence d’un jet relativiste dirigé le long de la ligne de visée, dont le rayonnement synchrotron est amplifié par « aberration relativiste »6 . Donc la direction jouait bien un rôle dans ce cas. Une idée naturelle venant à l’esprit était que le jet est dirigé suivant l’axe de rotation du disque. Il y avait de bonnes raisons de le penser car on commençait à découvrir que c’était en tout cas ce qui se passait dans des objets très différents, par exemple dans les étoiles en formation, qui pourtant semblaient a priori n’avoir rien de commun avec les quasars. 6

Car il s’agit bien de rayonnement synchrotron dans ce cas. Les autres rayonnements (raies, disque) ne sont pas amplifiés.

De l’importance du regard et de l’apparence

295

Jets et vents, l’autre versant de l’accrétion À plusieurs reprises nous avons mentionné l’existence de « vents » produits par les quasars (où ils sont observés via les « raies d’absorption larges ») et les NAGs. Nous avons vu par exemple que dans NGC 1068 les Burbidge avaient dès 1959 annoncé que le gaz produisant les raies en émission (qui dans ce cas sont seulement des raies « étroites ») était éjecté par le noyau avec des vitesses de plusieurs centaines de km/sec. Des confirmations éclatantes en sont venues beaucoup plus tard avec les images obtenues avec le télescope spatial, et les observations X, montrant une structure en cône (Figures 10.8 et 10.9). L’existence de ces vents n’est pas non plus une caractéristique de la seule galaxie NGC 1068. Pratiquement toutes les galaxies de Seyfert montrent des phénomènes semblables. Par exemple, on observe très bien par effet Doppler les mouvements du gaz éjecté du noyau de la galaxie de Seyfert NGC 4151 (Figure 10.10). Il est temps de nous arrêter maintenant sur ces jets mentionnés à plusieurs reprises dans ce livre, mais dont les

Figure 10.8. Photo de la région centrale de NGC 1068 dans l’ultraviolet prise avec le télescope de Hubble et montrant le gaz chaud. Cette photo est combinée avec une carte radio montrant les électrons relativistes. L’échelle totale de la photo est d’environ 1 kpc.

296

Des quasars aux trous noirs

Figure 10.9. La même région dans l’X, montrant le gaz très chaud s’échappant du noyau que l’on ne voit pas directement. Sa forme allongée, comme sur la figure précédente, est due à l’effet d’entonnoir du « tore ».

mécanismes n’ont pas encore été décrits. La présence d’un jet dans de nombreux quasars et dans les radiogalaxies constitue en fait une étrangeté puisque c’est de l’accrétion et non de l’éjection que les quasars tirent leur rayonnement. Paradoxalement, l’éjection est même une forme de gaspillage de rayonnement, car elle pourrait réduire considérablement la puissance rayonnée par un quasar si elle prenait une grande importance puisqu’elle empêche la matière de parvenir jusqu’à son but ultime, le trou noir. Est-ce l’accrétion qui produit le jet, ou le jet qui est à l’origine des phénomènes spectaculaires observés dans les quasars et les NAGs ? Rappelons-nous que dans les années soixante, certains comme Hoyle et Burbidge pensaient que le jet était la manifestation principale du phénomène des radiogalaxies et ils en déduisaient l’existence d’explosions gigantesques en leur sein. Distinguer la poule de l’œuf dans cette affaire n’avait donc pas été si simple. Il semble en fait que l’accrétion s’accompagne toujours d’une éjection puissante et que les deux phénomènes sont nécessairement liés, pour les quasars radio en tout cas. Ce jet existe-t-il également dans les quasars et les NAGs non radio ? On a bien trouvé quelques « jets » dans des

De l’importance du regard et de l’apparence

quasars ou dans des NAGs non radio, mais ils sont loin d’avoir la puissance des jets dans les objets radio. Il semble en fait que les jets y soient remplacés par des « vents » beaucoup moins directifs et surtout bien moins rapides puisque la vitesse typique en est seulement de quelques centaines à quelques milliers de kilomètres par seconde. Mais les jets pourraient emporter une quantité d’énergie de mouvement comparable à celle qui est rayonnée, à cause de leur vitesse. Quant aux vents, ils pourraient dans certains cas transporter vers l’extérieur une quantité de matière aussi importante, sinon plus importante, que celle qui est accrétée, et par conséquent réduire considérablement l’efficacité de l’accrétion. Je reparlerai dans le chapitre suivant de ces vents, observables surtout par leurs effets sur les spectres X. Nous avons vu comment l’on avait découvert (pour la première fois avec la galaxie NGC 6251) que les jets cosmiques à l’échelle de dizaines de millions d’années-lumière avaient leur origine dans de minuscules régions à l’échelle de l’annéelumière, au sein des noyaux des galaxies. J’ai encore très peu parlé de leur interprétation, alors qu’ils avaient dès les années soixante-dix suscité un grand intérêt et que diverses explications en étaient déjà proposées à cette époque. Ces jets ont toujours été des sujets d’admiration et de fascination. Leur origine bien que largement discutée est encore en partie mystérieuse. Il s’agit d’un phénomène apparemment universel que l’on retrouve partout où l’accrétion joue un rôle dominant, depuis les noyaux de galaxies jusqu’aux disques protostellaires, en passant par les étoiles binaires compactes de notre galaxie. Mais les vitesses et les énergies mises en jeu sont très différentes. Il est clair qu’elles sont liées à la compacité de l’objet qui les produit : le disque protostellaire autour d’une

297

Figure 10.10. Les raies de l’oxygène deux fois ionisé autour du noyau de la galaxie de Seyfert NGC 4151, observée avec le télescope de Hubble (imageur STIS). La dispersion est horizontale. Les lignes verticales indiquent les positions normales des raies (compte tenu du décalage de la galaxie). On voit que les vitesses augmentent avec la distance au noyau, signifiant que le gaz est accéléré. On interprète ce spectre comme un vent biconique semblable à celui de NGC 1068. Dans cette galaxie comme dans NGC 1068, le gaz émettant les raies interdites est éjecté du noyau avec une vitesse bien plus grande que la vitesse de rotation des étoiles.

298

Figure 10.11. Exemple d’un jet dans une étoile en formation, l’objet de Herbig-Haro HH30 (du nom des deux astronomes, l’américain Georges Herbig et le mexicain Guillermo Haro, qui découvrirent indépendamment les premiers jets dans ce type d’objet dans les années cinquante). On distingue le disque protostellaire vu par la tranche, illuminé par l’étoile en formation, et le jet qui jaillit de la partie centrale du disque. La barre représente mille unités astronomiques soit environ un centième d’année-lumière. La vitesse du jet dans ces objets est au plus de quelques centaines de kilomètres par seconde.

Des quasars aux trous noirs

étoile en formation n’engendrera qu’un jet ayant une vitesse de quelques centaines de kilomètres par seconde, tandis que celui qui approvisionne un trou noir dans une étoile binaire créera un jet relativiste comparable à celui des quasars et des radiogalaxies (Figures 10.11, 10.12, 10.13, 10.14, et 10.15). Un autre exemple remarquable de jet est celui de la galaxie que nous connaissons bien, Centaurus A (Figure 10.16). L’existence des jets relativistes – puisque c’est de ceuxlà dont il s’agit ici – pose plusieurs problèmes délicats qui ne sont pas encore tous résolus, ou du moins sur lesquels il n’existe pas encore de consensus. Comment les particules sont-elles accélérées jusqu’à des énergies ultra-relativistes ? Qu’est-ce qui pousse la matière à former un jet et quelle vitesse d’ensemble peut-il atteindre7 ? Pourquoi et à quelle distance le jet devient-il collimaté ? Comment ces jets de particules, une fois collimatés, peuvent-ils garder leur intégrité et ne pas se disperser ni s’évaser sur des millions d’années-lumière ? Voyons le problème de l’accélération des particules. Nous savons que le rayonnement synchrotron est émis par des particules chargées – des électrons – se déplaçant dans un champ 7

Je rappelle que cette vitesse d’ensemble est différente de celle, aléatoire, des particules qui produisent le rayonnement synchrotron. Typiquement, le  « facteur de Lorentz**, défini par γ = 1/ 1 − β2 , où β = v/c, v étant la vitesse des particules et c la vitesse de la lumière, est de l’ordre de dizaines ou centaines de mille pour les particules relativistes individuelles émettant le rayonnement synchrotron, et de quelques unités seulement pour le mouvement d’ensemble. Pour les différencier, on a l’habitude d’utiliser la lettre minuscule γ pour caractériser les vitesses individuelles, et la lettre majuscule Γ pour le mouvement d’ensemble.

De l’importance du regard et de l’apparence

299

Figure 10.12. Cartes radio du « micro-quasar » GRS-1915 obtenues à différentes époques, révélant une éjection « superluminique » semblable à celle des radiogalaxies et des quasars. Ces objets sont constitués d’un trou noir de masse stellaire et d’une étoile ordinaire. Celui-ci est situé près du centre de notre galaxie. La barre tracée représente 10 000 unités astronomiques, soit 0,15 années-lumière.

magnétique de façon ordonnée ou non (plus probablement de façon aléatoire, sinon le degré de polarisation serait beaucoup plus important qu’il n’est), avec des vitesses très proches de celle de la lumière. L’existence de particules de grande énergie dans les jets n’est pas étonnante en soi puisque nous sommes nous-mêmes immergés dans un bain de « rayons cosmiques » et parcourus en permanence par ces particules que nous envoient le Soleil en particulier et les supernovae. Elles sont même à l’origine d’une partie des mutations des espèces vivantes qui sans elles n’auraient peut-être pas évolué. Mais celles que nous recevons du Soleil sont d’énergie relativement faible. D’autres atteignent des énergies extraordinairement élevées puisque l’on en est à détecter des noyaux atomiques d’une énergie équivalente à celle d’une balle de tennis lancée à 100 kilomètres/heure ! Les plus énergétiques nous parviennent d’objets situés aux confins de l’Univers et

Figure 10.13. Carte radio montrant le jet et les lobes radio de la radiogalaxie 3C 219, avec la galaxie elle-même dans le domaine optique au centre de la figure. Les points sont des étoiles de champ et des galaxies.

300

Figure 10.14. Le jet de la galaxie M 87 située au centre de l’amas Virgo, en rayons X (en haut), en radio (en bas à gauche) et en lumière visible (en bas à droite). La longueur du jet est de 5 000 années-lumière. Des observations répétées avec le télescope Hubble ont montré que les condensations dans le jet ont une vitesse apparente de 4 à 6 fois la vitesse de la lumière (j’ai donné l’explication des sources « superluminiques » dans le chapitre 7). Le rayonnement du jet est dû à l’effet synchrotron. La résolution en X est inférieure à celle des images radio et visible, mais on voit tout de même clairement que près du noyau de la galaxie, le jet est plus intense en rayons X qu’en radio et en visible, ce qui traduit la perte d’énergie des électrons à mesure qu’ils s’éloignent. On constate que le jet est visible d’un seul côté : c’est celui où il est dirigé dans notre direction et par conséquent amplifié par effet relativistique. L’autre côté est invisible car le jet se propage dans la direction opposée et qu’ilest affaibli. On calcule que la direction du jet fait un angle de 19 degrés avec la ligne de visée, ce qui signifie que son extension réelle est de 15 000 années-lumière. Les points que l’on distingue sur l’image du télescope de Hubble sont des amas d’étoiles dans la galaxie, invisible sur cette image sous-exposée, mais qui s’étend beaucoup plus loin que le jet.

Des quasars aux trous noirs

Figure 10.15. Carte radio du jet de M 87 mais cette fois à d’autres échelles. L’image totale projetée sur le ciel est d’environ 18 000 années-lumière (donc l’extension réelle en est de 60 000 années-lumière). Le jet à l’intérieur du noyau (image dans le cadre en bas à droite, qui correspond à seulement 0,4 année-lumière) n’est vu que d’un seul côté. Contrairement au grand jet à l’échelle intermédiaire dont l’angle d’ouverture est très petit (on dit qu’il est « collimaté »), l’angle d’ouverture est grand près de la source (60◦ ) et le jet ne devient collimaté que plus loin. En se propageant, le jet perd de l’énergie et sa vitesse devient faible à grande distance : il n’est donc plus amplifié par effet relativistique dans notre direction et les deux côtés rayonnent de façon identique et sont observables. De Junor et al. [51].

De l’importance du regard et de l’apparence

301

Figure 10.16. Superposition d’une image de la galaxie Centaurus A avec une carte radio montrant le jet jaillissant du noyau caché, et les « taches chaudes » aux extrémités du jet.

leur origine est encore mystérieuse. Beaucoup pensent qu’elles sont produites dans les quasars, sans doute en relation avec les jets. Il est intéressant dans ce contexte de savoir que les rayons cosmiques ont une distribution d’énergie en « loi de puissance » comparable à celle des électrons émettant le rayonnement synchrotron dans les radiosources. C’est pourquoi il faudrait en savoir plus sur les particules cosmiques de très haute énergie et en particulier arriver à identifier les sources d’où elles proviennent8 (Encadré 10.1).

Encadré 10.1. L’un des mécanismes souvent invoqué pour l’accélération des rayons cosmiques et, de façon générale des particules chargées, est appelé « mécanisme de Fermi de second ordre ». Il a été proposé par Enrico Fermi en 1949. 8 « L’Observatoire Auger », du nom du physicien français Pierre Auger, a été construit dans le but de traquer les rayons cosmiques de très grande énergie. Comme ils sont extrêmement rares (il en arrive seulement un par kilomètre carré et par an, un par siècle pour les plus énergétiques !), on a dû répartir des détecteurs dans la pampa argentine sur une surface de la taille d’un département.

302

Des quasars aux trous noirs

Les particules subissent des collisions avec des nuages magnétisés se déplaçant de manière aléatoire ; lorsqu’elles rencontrent un nuage se dirigeant vers elles, elles sont « réfléchies » en gagnant un peu d’énergie comme une balle de tennis sur une raquette ; si le nuage s’éloigne, elles perdent de l’énergie. Puisqu’il se produit un plus grand nombre de collisions avec des nuages se déplaçant vers les particules qu’avec des nuages se déplaçant dans la direction opposée, les particules sont accélérées après avoir subi plusieurs rebonds. Ce mécanisme prédit de façon naturelle une distribution d’énergie en loi de puissance, mais il est trop lent pour expliquer les rayons cosmiques de grande énergie. On fait donc appel à une autre version du mécanisme de Fermi dans laquelle les particules sont accélérées par des ondes de chocs. Le deuxième problème est celui du lancement du jet et de la vitesse d’ensemble finale qu’il peut atteindre. On a proposé divers modèles de jets. Certains reposent sur la pression du rayonnement dont j’ai déjà parlé. Mais il est peu probable qu’elle soit suffisante pour lancer des jets relativistes. Dans les premiers temps, on avait aussi pensé à l’accélération que subissent les particules piégées dans le « tunnel » créé par le disque d’accrétion au voisinage immédiat du trou noir (Encadré 10.2).

Encadré 10.2. Il semble en fait que la présence du disque d’accrétion et celle d’un champ magnétique soient des conditions nécessaires à la création d’un jet. L’un des modèles les plus populaires actuellement est celui du jet accéléré par un effet « magnéto-centrifuge ». Il faut pour cela qu’un champ magnétique soit ancré dans le disque (c’est une configuration comparable à notre champ magnétique terrestre avec ses deux pôles) et que l’énergie stockée dans le champ magnétique soit du même ordre que l’énergie thermique du disque. Comme le disque tourne, les lignes de force du champ magnétique tournent aussi et les particules chargées qui suivent ces lignes de force tournent également. Elles parcourent donc des hélices et la force centrifuge les propulse vers le haut comme le ferait une fronde. Lorsqu’elles ont parcouru une certaine distance, les lignes de forces du champ magnétique qui étaient surtout

De l’importance du regard et de l’apparence

303

verticales au début deviennent presque circulaires et produisent sur les particules un effet de « pincement » sur le flot9 (Figure 10.17).

Figure 10.17. Simulation par ordinateur de la propagation d’un jet magnétisé, montrant en les lignes de forces du champ magnétique que suivent les particules accélérées et le disque d’accrétion (Matsumoto-Maglin [65]).

Un autre modèle est celui de Roger Blandford (un étudiant de Rees, maintenant professeur à Caltech) et de Roman Znajek dans lequel un trou noir en rotation rapide est traversé par un champ magnétique intense [18]. L’énergie de rotation du trou noir lui-même peut alors être récupérée par le champ magnétique. Un jet relativiste emportant jusqu’à dix pour cent de la puissance d’accrétion est ainsi créé. Si le disque d’accrétion et non le trou noir crée le jet, la puissance peut être plus grande, mais il est alors difficile de fabriquer un jet relativiste car le rayonnement intense du disque le freine (par effet Compton Inverse produisant un transfert de l’énergie depuis les particules de grande énergie sur des photons de faible énergie**). Un modèle différent de jet avait été proposé dans les années quatre-vingts par les français Hélène Sol, Guy Pelletier et Estelle Asseo [95]. Il combinait deux flots, l’un relativiste entouré d’un vent non-relativiste provenant du disque d’accrétion. Ce dernier contenait l’essentiel de la puissance du jet. L’un des avantages de cette configuration était de rester stable jusqu’à de grandes distances et de pouvoir expliquer la collimation des jets. Ce modèle continua par la suite à être développé à Grenoble par Gilles Henry et ses étudiants. 9 C’est par cet effet de pincement, qui a pour résultat de comprimer et par conséquent de chauffer un plasma, que l’on fait de la fusion contrôlée.

304

Des quasars aux trous noirs

La connexion entre les processus d’accrétion et d’éjection a été mise en évidence par Felix Mirabel et ses collaborateurs au CEA de Saclay dans une étoile binaire de notre galaxie, grâce aux échelles de temps très courtes des phénomènes [26]. Ils ont observé une chute brutale du rayonnement X traduisant un « vidage » du disque d’accrétion, suivie quelques minutes plus tard par une augmentation du rayonnement dans l’infrarouge correspondant à l’éjection d’une « bouffée » relativiste émettant un rayonnement synchrotron infrarouge, enfin, quinze minutes après, par une augmentation du rayonnement radio lorsque le nuage devient transparent pour les ondes radio. Le même phénomène durerait probablement de dix mille à cent mille ans dans un quasar et serait donc totalement inobservable. Pour résumer la situation sur le plan théorique, on peut dire que l’on est loin d’avoir atteint un consensus concernant la théorie des jets et qu’aucun modèle n’est capable d’expliquer la totalité des phénomènes observés (la variation du spectre électromagnétique le long du jet, la polarisation, la variation de l’énergie des particules. . . ). Une autre caractéristique des radiogalaxies et des quasars radio – liée à l’existence du jet – est un rayonnement gamma intense. On le savait depuis que le satellite COS-B, lancé en 1975 par l’Agence spatiale européenne, avait détecté des photons gammas en provenance de 3C 273 (c’était une erreur, ils provenaient en fait du quasar proche 3C 279). On les attribuait à un processus synchrotron ou Compton Inverse**. Ces premiers résultats semèrent plutôt la confusion car ils ancrèrent l’idée que l’émission de rayonnement gamma était une propriété commune à tous les quasars et les NAGs. Cela explique que l’on fut stupéfait par les résultats du satellite gamma francosoviétique GRANAT lancé en 1989, montrant sans ambiguïté que les objets non radio n’émettaient pas du tout de rayonnement gamma. Mais je préfère revenir sur cette question dans le chapitre suivant, entièrement consacré aux émissions à haute énergie des quasars et des NAGs.

La grande unification Le « schéma unifié » semblait donc pouvoir être étendu aux objets radio. Peter Barthel franchit ce pas en 1989 [9]. Malheureusement, il mélangeait un peu trop d’idées (son article contenait entre autres l’erreur sur les galaxies ultralumineuses infrarouges qu’il croyait être des quasars non ra-

De l’importance du regard et de l’apparence

dio vus par la tranche) et son modèle ne pouvait s’appliquer tel quel à toutes les radiogalaxies, comme on le comprit rapidement. Et, comme toujours lorsqu’il y a un trop plein d’idées, on préfère les écarter. De plus, il faisait appel à des statistiques discutables. Ses idées eurent donc plus de mal à s’imposer que le modèle unifié des Seyfert 1 et 2. Le raisonnement de Barthel se fondait sur la remarque que les quasars radio ont des structures très comparables aux radiogalaxies puissantes (donc de type FRII). J’ai déjà montré la similitude frappante entre les cartes radio d’un quasar et d’une radiogalaxie FRII. On y reconnaissait la structure habituelle des radiogalaxies comme Cygnus A, avec ses deux grands lobes symétriques par rapport à une source centrale. Barthel notait toutefois quelques différences indiquant que, dans les quasars radio, les jets semblent se propager dans une direction relativement proche de la ligne de visée (par exemple les radiosources associées aux quasars montrent toujours des signes d’amplification car elles contiennent une source radio très compacte et les jets apparaissent généralement d’un seul côté). Ces constatations le conduisirent à proposer que les quasars radio étaient des radiogalaxies vues dans une direction proche de celle du jet, les radiogalaxies étant des quasars radio vus par la tranche. Il expliquait ainsi non seulement l’absence de raies spectrales larges dans les radiogalaxies mais également celle d’un rayonnement visible intense, car tous deux étaient cachés à notre vue par un milieu absorbant comme dans les Seyfert 2. Cela signifiait que ces radiogalaxies produisaient une puissance lumineuse égale à celle des quasars mais invisible pour nous. Pour prouver la validité de cette hypothèse, il fallait trouver les empreintes d’un quasar enfoui dans les radiogalaxies. Ce ne fut pas facile. Une fois de plus, Cygnus A servit de cobaye. Grâce aux observations effectuées à l’aide du satellite ISO, on détecta dans cet objet des raies infrarouges ayant la largeur caractéristique des quasars et des galaxies de Seyfert 110 . Les missions spatiales X confirmèrent ensuite la présence d’une puissante source X à cet endroit11 . Ces deux faits plaident fortement pour la présence d’un quasar caché dans le noyau de Cygnus A (Encadré 10.3). 10 Les raies infrarouges sont beaucoup moins absorbées par les poussières, et de ce fait, elles peuvent traverser la région absorbante et être observées alors que les raies de la bande visible ne le peuvent pas. 11 Comme l’infrarouge, les rayons X de grande fréquence et les rayons gammas peuvent traverser la région absorbante, contrairement aux rayons X dits « mous », de petite fréquence.

305

306

Des quasars aux trous noirs

Encadré 10.3. Il s’avéra rapidement que les choses étaient plus compliquées que ne le croyait Barthel. Il était clair que les radiogalaxies de type FRII (puissantes et avec des « taches chaudes » aux extrémités) et les FRI (moins puissantes mais avec de grands jets très développés) ne pouvaient être traitées de la même manière. Les radiosources associées aux premières ressemblaient bien à celles des quasars, mais pas les secondes. Ce modèle devait donc être affiné, ce qu’il fut grâce à de nombreux travaux effectués en particulier par Meg Urry qui travaillait à l’époque dans l’équipe du télescope Hubble. Le principe de ces études est de comparer des propriétés qui sont sensibles à l’orientation avec d’autres qui ne le sont pas. Ainsi la luminosité d’une galaxie (du moins d’une elliptique, non d’une spirale qui a une forme aplatie) ne dépend pas de l’angle sous lequel on la regarde, de même que la luminosité radio à grande échelle (qui ne subit pas l’amplification relativiste). Pour la luminosité radio, elle était facile à déterminer. C’était une autre histoire pour les luminosités des galaxies abritant des quasars, car ceux-ci sont cent fois plus lumineux que leur pauvre hôtesse et seul le télescope spatial pouvait permettre (grâce à la suppression de la turbulence atmosphérique) d’observer et de mesurer l’intensité de ces galaxies qui apparaissent comme de faibles halos. Meg Urry et ses collaborateurs entreprirent cet énorme travail et l’effectuèrent en plusieurs années. Leurs efforts furent récompensés car ils montrèrent que les galaxies hôtes des BL Lac sont des elliptiques lumineuses identiques aux hôtes des radiogalaxies FRI. De plus, sur un diagramme où l’on portait la luminosité radio à grande échelle en fonction de la luminosité de la galaxie hôte, ils trouvaient que les quasars et les radiogalaxies FRII se plaçaient au même endroit, tandis que les BL Lac et les radiogalaxies FRI étaient situés dans une autre région. Il apparut que seulement les radiogalaxies du type FRII étaient assimilables à des quasars vus par la tranche, les FRI étant les contreparties des lacertides moins puissantes. Enfin, on vérifia que les nombres de quasars et de BL Lac observés correspondaient bien à ce qui était prévu en supposant que ces objets étaient réellement les contreparties amplifiées des radiogalaxies FRII et FRI respectivement. Tout cela était donc la preuve indéniable que les galaxies FRI et FRII sont les populations « parentes », respectivement des BL Lac et des quasars radio.

De l’importance du regard et de l’apparence

307

Région des raies étroites Région des raies larges jet

Trou Noir

Tore absorbant

Disque d’accrétion

Seyfert 1 Quasar (radio ou non)

Seyfert 2, radio galaxies

Blac, Blazars

Paulo Padovani et Meg Urry résumèrent en 1995 le modèle unifié par une figure que l’on a pu voir maintes fois dans des livres ou des articles sur les quasars et les NAGs. Je la reproduis ici en l’aménageant pour qu’elle illustre mieux mon propos (Figure 10.18).

Radio ou pas, hérédité ou environnement ? Il reste cependant encore quelques mystères à élucider : pourquoi certains noyaux de galaxies et certains quasars – une minorité, en fait – sont-ils capables de lancer des jets et de rayonner par conséquent dans le domaine radio ? Pourquoi les radiogalaxies sont-elles systématiquement des galaxies elliptiques et jamais des spirales ? Pourquoi dans certaines radiogalaxies (les FRI) et dans les BL Lac, le jet est-il très développé mais peu puissant, alors que dans d’autres radiogalaxies (les FRII) et les quasars radio, il est plus puissant et il génère à ses extrémités des « taches chaudes » lumineuses12 comme celles que l’on voit par exemple sur la carte radio de Cygnus A ? 12 Elles sont dues aux chocs provenant de l’interaction du jet avec le milieu ambiant, qui servent de ré-accélérateurs d’électrons relativistes. Le français James Lequeux avait proposé cette interprétation pour expliquer ce qui n’apparaissait alors que comme des « bords brillants » externes dans Cygnus A.

Figure 10.18. Schéma unifié des objets radio et non radio, d’après Urry et Padovani. Lorsque le « tore » traverse la ligne de visée on ne voit pas le rayonnement visible et les raies larges. On apperçoit une Seyfert 2 ou une radiogalaxie. Lorsqu’on vise exactement dans la direction du jet (s’il existe) on trouve une BL Lac ou un Blazar (c’est-à-dire une lacertide mais avec des raies spectrales en émission). Entre les deux, on voit les Seyfert 1 et les quasars, radio ou non.

308

Des quasars aux trous noirs

La cause de ces comportements est-elle intrinsèque, due aux conditions différentes dans le lancement du jet ou dans le disque d’accrétion ? Ou est-elle extrinsèque, due à un environnement différent ? Certains ramènent ce débat à deux mots : hérédité ou environnement (en anglais on peut dire « nature or nurture ») ? Du côté de l’environnement, beaucoup pensaient que le jet pouvait se propager plus facilement dans les galaxies elliptiques que dans les spirales, plus riches en gaz. Je ne crois pas que cette thèse ait encore cours. Le « noyau » des elliptiques paraît en effet aussi riche en gaz que celui des spirales et, de plus, on devrait trouver au moins l’amorce d’un jet au sein des spirales, ce qui n’est pas le cas. C’est donc plutôt vers l’hérédité que l’on se tourne en ce moment. Une tentative de « super-unification » permettant de résoudre ces problèmes a été proposée par Wilson et Colbert en 1995 [102]. Leur idée était de prendre en compte un paramètre supplémentaire, la rotation du trou noir (plus exactement son moment angulaire). J’ai déjà dit qu’il semble exister des trous noirs à rotation très rapide (des « trous noirs de Kerr ») et d’autres sans rotation (des « trous noirs de Schwarzschild »). On vient de voir que ceux qui ont une forte rotation sont susceptibles de lancer des jets relativistes par le mécanisme Blandford-Znajek. D’après Wilson et Colbert, les quasars radio et les radiogalaxies contiendraient un trou noir en rotation rapide tandis que les quasars non radio renfermeraient un trou noir sans rotation. Et c’est leur histoire préalable qui déterminerait la valeur de leur rotation. Lorsque deux galaxies fusionnent, leurs trous noirs massifs – si elles en contiennent toutes deux – pourraient former un « trou noir binaire ». Comme nos fameux pulsars binaires du chapitre précédent ces trous noirs tournent rapidement l’un autour de l’autre avant de fusionner en formant un trou noir unique ayant une forte rotation. Tandis qu’un trou noir qui suit une évolution normale, accrétant tranquillement le gaz qui l’entoure, va garder une rotation plus faible. Là réside peut-être effectivement la différence. Mais pourquoi dans ce cas les galaxies hôtes des quasars radio seraient-elles des galaxies elliptiques et celles des quasars non radio des spirales ? La réponse de Wilson et Colbert était simple : les galaxies elliptiques ont en général subi dans le passé une fusion avec une autre galaxie dont résulte un trou noir en rotation rapide. C’était une intuition remarquable, comme on le verra. Évidemment le débat n’est pas encore clos car le modèle soulève encore des problèmes. Par exemple, on a montré que

De l’importance du regard et de l’apparence

309

Figure 10.19. Représentation souvent proposée pour les quasars : un disque et un jet autour d’un trou noir.

la rotation du trou noir ne subsiste pas longtemps et que le mécanisme Blandford-Znajek seul n’est pas suffisamment efficace. Et à l’inverse, on a constaté que le simple processus d’accrétion peut conduire rapidement à une importante rotation du trou noir. Ce scénario est cependant très attrayant et c’est jusqu’à maintenant le meilleur permettant d’expliquer la dichotomie entre les objets radio et les autres, même les différences entre les FRI et FRII. Aussi, commence-t-on à parler du « paradigme du spin13 ». Mais peut-être à vouloir tout unifier finit-on par aller trop loin. . . Ce que l’on peut se demander maintenant c’est si TOUS les quasars passent par une « phase radio » qui durerait environ dix pour cent de leur « vie active » (c’est-à-dire celle pendant laquelle ils rayonnent) ou bien si les quasars radio forment une classe vraiment distincte des autres. Si le phénomène radio est lié à la rotation du trou noir et est bien déclenchée par la fusion de trous noirs binaires massif, c’est plutôt vers la première solution que l’on devrait se tourner. Ce sera certainement un problème intensément étudié dans les années à venir. Avant de terminer ce chapitre, je voudrais tordre le cou à une image que l’on trouve assez souvent dans la littérature représentant les quasars ou les NAGs comme sur la figure 10.19. Cette image n’est correcte que pour les objets radio, mais non pour les objets non radio qui constituent 90 % de 13

On parle en effet de « spin » pour désigner le moment angulaire du trou noir, par analogie avec la rotation des particules élémentaires sur elles-mêmes.

310

Des quasars aux trous noirs

Figure 10.20. Disque et vent dans les NAGs, vue d’artiste.

l’ensemble des quasars et des NAGs. En effet, à la différence des disques d’accrétion dans les étoiles jeunes ou dans les quasars radio et les micro-quasars, les disques d’accrétion dans les quasars non radio ne sont pas accompagnés d’un jet, mais d’un « vent », qu’il serait certainement plus réaliste de représenter comme l’a proposé Martin Elvis et que nous allons retrouver dans le chapitre suivant (Figure 10.20).

Chapitre 11

Le cœur bouillant des quasars Je dois prévenir le lecteur que ce chapitre est très difficile et plutôt destiné à des scientifiques avertis. Il peut parfaitement être sauté, n’étant pas nécessaire à la compréhension des chapitres suivants.

Tout au long des chapitres précédents, nous avons pu apprécier la richesse du spectre électromagnétique des quasars. Pourtant jusqu’à maintenant, nous avons très peu parlé des rayonnements X et gamma. Or, non seulement une grande partie de l’énergie rayonnée par les quasars se situe dans ce domaine, mais c’est également là que l’on observe les variabilités les plus fortes et les plus rapides. Ce rayonnement provient des régions les plus centrales et c’est lui qui va nous permettre d’approcher au plus près du trou noir. En fait, l’émission X est considérée comme la caractéristique fondamentale des quasars et des NAGs et comme la manifestation par excellence de la présence du trou noir. Je préférais donc réserver un chapitre entier à ce sujet, ou plutôt aux résultats que l’on en a tirés et qui n’ont commencé à se structurer que dans les années quatre-vingts. Plus de trente missions spatiales ont déjà été consacrées aux observations X et la plupart ont apporté des révélations concernant les quasars ; donc loin de moi l’idée d’en faire une revue complète. Dans ce sujet complexe, peut-être plus que dans d’autres, l’hyper-spécialisation semble inévitable. Il implique un ensemble de connaissances précises, chaque détecteur ayant sa spécificité et chaque observation son type de réduction. Comme je l’ai dit au début de ce livre, je ne suis pas une observatrice – ou plutôt je ne le suis plus car les méthodes ont complètement changé depuis ma jeunesse. Et, quand je l’étais, c’était dans le domaine optique où l’on observe le spectre tel qu’il a été émis par une source presque sans modification. Tandis que dans le domaine X, il faut faire d’innombrables corrections dont la plus importante provient de

312

Des quasars aux trous noirs

l’absorption interstellaire qui cache à nos yeux, même relayés par un satellite au-dessus de l’atmosphère terrestre, une grande partie du rayonnement inférieur à un « kilo-électron-volt » (un keV) (voir Encadré 11.1). Il faut donc reconstituer le trajet de la lumière à travers notre galaxie et à travers la galaxie hôte du quasar en tenant compte des nuages interstellaires qu’elle a dû traverser. Il arrive ainsi que les observateurs X ne soient absolument pas d’accord sur ce qu’est le véritable spectre de l’objet qu’ils observent.

Encadré 11.1. Pour une meilleure compréhension de ce chapitre, il est bon de connaître les unités adoptées dans le domaine des hautes énergies. Contrairement aux autres bandes spectrales, on utilise en effet peu les fréquences ou les longueurs d’onde. On a pris l’habitude de parler en termes d’électronvolt, ou eV. L’électron-volt est l’énergie acquise par un électron soumis à une différence de potentiel d’un volt. Il lui est associé une longueur d’onde de 12 400 angströms (ou 1,24 micromètre) qui est située dans l’infrarouge proche. Disons qu’une telle énergie permet à un photon d’arracher un électron superficiel d’un atome ou d’une molécule et de produire ce que l’on nomme l’effet photoélectrique dans les cellules du même nom. C’est une énergie minuscule par rapport à celles que nous manipulons dans la vie courante, puisque 1 eV est égal à 1,6 x 10−19 joules, le joule étant l’énergie délivrée par une ampoule de 100 watts en un centième de seconde. Mais n’oublions pas que les phénomènes dont nous parlons font intervenir des quantités énormes d’électrons. Comme les énergies sont inversement proportionnelles aux longueurs d’onde, on voit que celles des photons X, qui ont des longueurs d’onde de l’ordre de quelques dizaines d’angströms au maximum, s’exprimeront en kilo-électronvolt (milliers d’électron-volts, ou keV). Elles correspondent aux transitions entre les niveaux d’énergie d’une couche externe et d’une couche interne d’un atome lourd comme le fer, ou bien au rayonnement d’un gaz chaud porté à des millions de degrés. À partir de quelques centaines de keV, on parle de rayons gammas et non de rayons X. On utilise alors les millions d’électron-volts, ou MeV. Ces énergies correspondent aux transitions entre les niveaux d’énergie des noyaux eux-mêmes (ce sont donc celles qui se produisent dans les réactions thermonucléaires) mais

Le cœur bouillant des quasars

ces photons peuvent également être émis par un gaz porté à des milliards de degrés. Plus énergétiques encore sont les photons provenant de la désintégration de particules lourdes, qui ont des énergies de milliards d’électron-volts, ou GeV (de giga-electron-volts). Dans le cas de certains quasars radio l’énergie des photons peut monter jusqu’aux TeV (tera-électron-volts), soit mille milliards d’électron-volts et nous verrons plus loin que c’est probablement par le processus déjà rencontré appelé synchrotron self-Compton.

Où l’on découvre enfin l’importance du rayonnement X des quasars et des NAGs Les premiers grands observatoires spatiaux X furent les « High Energy Astronomy Observatories » ou HEAO, lancés par la NASA : HEAO1 en 1977, HEAO2 surnommé Einstein en 1978 (il y eut aussi un HEAO3, mais il était consacré à l’étude des rayons cosmiques). HEAO1 fut surtout une mission de relevés (ou « surveys »1 ). Il fournit les spectres X de 85 sources, NAGs, quasars et amas de galaxies, qui servirent ensuite de base à toute une série d’études dans d’autres domaines de longueur d’onde. L’avantage de tels relevés est de n’être pas « biaisés » : tous les objets d’une certaine classe sans exception sont observés de façon identique pourvu seulement qu’ils soient détectables par l’appareil de mesure. On évite ainsi l’écueil déjà mentionné qui est de prendre pour la moyenne ce qui n’est que la partie émergée d’un iceberg. Une tendance naturelle fait en effet préférer observer les astres les plus brillants parce qu’ils donnent de plus belles images ou de plus beaux spectres ; or ils se distinguent souvent des autres par quelques traits particuliers comme par exemple 3C 273 qui fait partie de la petite fraction de quasars « superluminiques » et qui est encore maintenant l’un des quasars les plus puissants de l’Univers. L’une des « grandes » découvertes de HEAO1 fut la dramatique variabilité de la galaxie de Seyfert NGC 6814. Je reviendrai plus loin sur ce phénomène car il mérite réflexion. HEAO2 – Einstein – apporta une moisson de résultats, telle la découverte des jets X alignés sur les jets radio dans Cen A 1 C’est un mot qu’il n’est pas facile de traduire en français car il comporte maintenant certaines connotations provenant de son usage. On peut le traduire malgré tout par « relevé ».

313

314

Des quasars aux trous noirs

et dans Virgo A, montrant l’identité des processus à l’œuvre en radio et en X (on en a vu un bel exemple dans le chapitre précédent avec le jet de Virgo A – M 87 – en radio, visible et X). Pour la première fois, on réalisa que du rayonnement X pouvait être émis dans ces jets par effet synchrotron, c’est-à-dire que des particules terriblement énergétiques étaient générées sur d’immenses distances. De façon générale, on observait une remarquable corrélation entre les propriétés radio et X des quasars radio, prouvant là aussi une origine identique des phénomènes. Ces résultats étayèrent l’hypothèse du mécanisme « Synchrotron self-Compton »** qui permet à un photon de faible énergie radio ou visible d’atteindre des énergies très élevées par ricochets successifs sur des électrons relativistes. Mais on finit par réaliser qu’il était limité aux seuls objets radio. Après le satellite EXOSAT (« European X-ray Observatory Satellite ») lancé en 1983 par l’ESA (l’« European Space Agency », l’équivalent européen de la NASA, dont le sigle est moins connu) qui n’apporta pas de résultats majeurs dans le domaine des NAGs2 , la mission spatiale japonaise Astro-C Ginga (nom japonais pour « galaxie ») lancée en 1987 fut à mon avis la première à amorcer une véritable compréhension des mécanismes de radiation près du trou noir. En effet, le britannique Pounds et ses collaborateurs eurent l’idée de combiner les spectres d’une douzaine de noyaux de galaxies de Seyfert observés par Ginga, ce qui leur permit de découvrir un petit motif spectral vers 6,4 KeV qui allait faire beaucoup parler de lui plus tard. Les Japonais ont une tradition d’observation X et ils furent à l’origine de plusieurs missions parmi les plus performantes. Ils s’étaient déjà fait la main sur des petits satellites lorsqu’ils lancèrent Ginga, suivie en 1993 par Astro-D, appelé ASCA (« Advanced Satellite for Cosmology and Astrophysics »), puis récemment par Astro-E2 appelé Suzaku3 (Astro-E1 ayant été détruit au moment du lancement, un alea qui se produit malheureusement parfois). La combinaison de l’expertise instrumentale japonaise et de celle théorique des britanniques fit merveille et l’on peut dire que les principales découvertes X dans le domaine des NAGs, à cette époque, furent anglojaponaises. 2 Il eut plusieurs problèmes, et sa sensibilité n’atteignit pas les valeurs espérées. Il est d’ailleurs amusant que l’on trouve une description détaillée de ces problèmes sur le site de la NASA, mais non sur celui de l’ESA. 3 Il ne faut pas chercher un acronyme dans ce mot. C’est le nom donné par les Japonais et les Chinois au phénix rouge, un oiseau mythique associé aux quatre points cardinaux et aux quatre éléments.

Le cœur bouillant des quasars

315

Figure 11.1. L’observatoire X, XMM-Newton, lancé par l’ESA le 10 Décembre 1999 de la base de Kourou.

Figure 11.2. Et son alter ego, Chandra, lancé par la NASA le 23 juillet 1999. Les deux télescopes n’ont pas les mêmes caractéristiques, et sont en fait assez complémentaires. Ils continuent encore à fournir des données.

Entre-temps, les Allemands avaient lancé le satellite ROSAT (« Rontgensatellit ») dont l’intérêt principal fut d’effectuer un relevé complet du ciel X qui permit de découvrir une centaine de milliers de sources, essentiellement des NAGs d’ailleurs, dont les données continuent à livrer des découvertes. Puis, il y eut l’américain « X-ray Timing Explorer » ou XTE qui marche encore, l’italien « Satellite per Astronomia X », appelé BeppoSAX en l’honneur de Giuseppe (Beppo) Occhialini, qui eut le privilège de trouver la première contrepartie de ces objets mystérieux qu’étaient alors les sources des sursauts gamma – une fois de plus par chance car il n’avait pas été programmé dans ce but. Deux missions récentes, l’une de la NASA, AXAF (« Advanced X-ray Astrophysics Facility », appelée Chandra en l’honneur de Chandrasekhar), l’autre de l’ESA, XMM-Newton (« X-ray Multi Mirror Mission »), continuent avec Suzaku à engranger des résultats importants (Figures 11.1 et 11.2).

316

Des quasars aux trous noirs

On voit donc que l’on n’a pas lésiné sur les moyens pour étudier les hautes énergies. D’autant que chacun de ces satellites comporte plusieurs détecteurs travaillant dans différents domaines de longueur d’onde et dans différents modes – imagerie, spectrographie à faible et forte résolution, etc. Au moins un millier d’articles sur le sujet voient le jour chaque année et il est impossible d’en suivre en détail les développements. Je vais donc me contenter de présenter seulement certains résultats importants obtenus au cours de ces quinze dernières années.

Où l’on s’aperçoit que ce que l’on croyait être la règle est l’exception Mais, demanderez-vous, où est le rayonnement gamma dans tout cela ? Il y avait eu effectivement moins de missions gamma que de missions X, entre autres à cause de la difficulté à satelliser des détecteurs assez grands pour capter suffisamment de photons de très haute énergie. Il en existait tout de même quelques-unes. J’ai mentionné déjà qu’on avait observé avec le satellite Cos B dans les années soixante-dix un intense rayonnement Gamma que l’on croyait provenir de 3C 273 alors qu’en fait il était émis par 3C 279. La méprise était due à la mauvaise résolution spatiale de l’instrument. 3C 273 émet effectivement du rayonnement gamma mais moins que 3C 279. Quoiqu’il en soit, il semblait évident, à cette époque, que les quasars devaient produire d’intenses radiations gamma puisqu’ils étaient censés contenir tous des électrons très énergétiques. La NASA lança en 1991 un véritable observatoire gamma, CGRO (Compton Gamma-Ray Observatory), appelé aussi GRO, qui fonctionna pendant dix ans. Il a fourni l’essentiel de nos connaissances actuelles sur le rayonnement gamma des quasars et des NAGs. Actuellement, il existe un satellite aux fonctions plus restreintes, INTEGRAL, lancé en 2002 par les européens (International Gamma-Ray Astrophysics Laboratory). On peut immédiatement détruire un mythe : contrairement à ce que l’on attendait et à ce qu’imaginent encore maintenant les non spécialistes et parfois même les spécialistes, on trouva peu de quasars émettant des rayonnements gamma. Pour le comprendre, il faut en revenir une fois de plus à la dichotomie entre les objets radio et les objets non radio. J’ai insisté volontairement sur cet aspect à la fin du chapitre précédent, montrant que ce phénomène que l’on attribue souvent aux quasars en

Le cœur bouillant des quasars

général, le jet, n’est présent que dans les quasars radio (ou s’il est présent dans les quasars non radio, il est très faible) et ceux-ci ne constituent qu’environ dix pour cent de l’ensemble des quasars. Or, c’est précisément au jet que l’on doit le rayonnement gamma, particulièrement intense lorsqu’il est dirigé le long de la ligne de vue. L’émission de rayonnement gamma par les quasars fut d’ailleurs l’objet d’une controverse il y a une quinzaine d’années. À cette époque, on entretenait la confusion entre quasars radio et non radio, persuadés que leurs « engins centraux » étaient semblables en tous points. Et depuis la découverte du rayonnement gamma de 3C 279 par le satellite CosB, l’idée qu’ils devaient nécessairement émettre des rayons gamma était fortement implantée. Sur ces entrefaites, un télescope monté en ballon stratosphérique avait montré en 1977 que la célèbre galaxie de Seyfert NGC 4151 (l’une des six galaxies initiales de Seyfert et probablement celle qui a été le plus réobservée depuis) émettait du rayonnement jusque dans le domaine des MeVs (millions d’électron-volts). Or, le satellite franco-soviétique GRANAT observa plusieurs fois cette galaxie en 1990 avec son télescope X SIGMA construit par des laboratoires français, et Élisabeth Jourdain avec ses collaborateurs du Centre d’études spatiales des rayonnements de Toulouse (le CESR) trouvèrent que l’émission X s’effondrait au-dessus de 50 KeV. Ils annoncèrent très prudemment cette nouvelle, après beaucoup de vérifications, en avançant l’explication possible d’une variation au cours du temps car ce résultat allait en effet complètement à l’encontre des idées admises [50]. En 1992, l’un des instruments à bord de GRO, OSSE (Oriented Scintillation Spectrometer Experiment) permit de confirmer ce résultat. Ouf, les américains arrivaient à la même conclusion ! Il semblait dès lors évident que la mesure effectuée quinze ans plus tôt, au cours de l’expérience en ballon, était erronée et que l’absence de rayonnement gamma dans NGC 4151 était peut-être liée au fait qu’elle n’émettait pas non plus d’ondes radio. Une fois de plus, on peut donc remarquer qu’une idée fortement enracinée peut être fausse et qu’elle peut influencer notre interprétation des observations lorsque celles-ci sont à la limite des possibilités instrumentales. Nous avons déjà vu un tel phénomène avec l’interprétation du rayonnement des quasars en termes de rayonnement synchrotron. On constate également que, dans la mesure du possible, il ne faut pas se limiter à observer un astre dans un seul domaine de longueur d’onde car on peut en tirer des conclusions erronées. Cela me

317

318

Des quasars aux trous noirs

rappelle une histoire que l’américain Martin Elvis a l’habitude de raconter, justement à propos des quasars. C’est un vieux conte indien. Plusieurs aveugles essayent de deviner ce qu’est un éléphant. L’un entoure une jambe et dit : « c’est un arbre ». Un autre saisit la trompe et dit : « c’est un serpent ». Le troisième se heurte au flan de l’éléphant et dit : « c’est un mur ». Le quatrième touche une oreille et dit : « c’est un éventail ». Le cinquième prend la queue et dit : « c’est une corde ». Le dernier saisit une défense et dit : « c’est une épée ». Chacun est sûr d’être dans le vrai, alors que tous ont tort ! Cette idée pourtant simple a mis du temps à s’imposer dans la communauté astronomique, ne serait-ce qu’à cause de la spécificité des techniques utilisées : il est par exemple difficile pour un radio-astronome d’observer dans le domaine X. Il n’était donc pas rare de tenir des congrès sur « les observations (en général) dans le domaine infrarouge » ou « les observations dans le domaine X », où l’on parlait de tous les types d’objets depuis les planètes jusqu’aux quasars, entraînant la confusion. Cela se produit encore, mais c’est moins fréquent grâce à la généralisation des banques de données qui permet de connaître facilement les résultats concernant un objet dans toutes les bandes spectrales (pourvu naturellement que les observateurs soient d’accord sur ces résultats) et de les rapprocher entre eux pour en tirer une vision synthétique et cohérente. Vers le milieu des années quatre-vingt-dix, le doute s’installa donc : et si les quasars n’émettaient pas tous des rayons gamma ? Et si le rayonnement gamma était même rare parmi les NAGs ? La question fut tranchée surtout grâce au satellite BEPPOSAX qui révéla qu’aucun NAG ou quasar non-radio ne rayonnait au-dessus de quelques centaines de kilo-électrons-volt (mille électrons volt, ou keV). C’était un gros pavé dans la mare des théoriciens qui s’évertuaient depuis de nombreuses années à élaborer des théories fondées sur l’hypothèse d’un rayonnement synchrotron ou Compton s’étendant depuis le domaine infrarouge jusqu’aux gamma, dû à des particules relativistes. Or, on se souvient peut-être que quelques années auparavant, Sanders et ses collaborateurs avaient déjà montré que le rayonnement infrarouge des quasars non radio était produit par des poussières chaudes et non par l’effet synchrotron comme on le croyait. Le clou fut définitivement enfoncé lorsqu’il fut prouvé que la raie « d’annihilation » des électrons-positrons à 511 keV prédite comme devant être très intense dans le cadre des modèles « non thermiques » était en fait complètement absente (Encadré 11.2).

Le cœur bouillant des quasars

Encadré 11.2. Pour chaque particule de matière il existe une particule correspondante « d’antimatière ». Celle de l’électron s’appelle le « positron ». Il a la même masse que l’électron et une charge égale mais de signe contraire. On ne doit pas le confondre avec le proton qui a aussi une charge égale et de signe contraire mais une masse mille fois plus grande. L’énergie de repos d’un électron (le fameux E = mc2 ) est 511 keV, ainsi que celle du positron. Ces deux particules s’attirent et « s’annihilent » lorsqu’elles sont en contact, produisant deux photons de 511 keV chacun. Si les électrons et les positrons se meuvent avec de grandes vitesses, les photons produits ont des énergies supérieures à 511 keV car ils récupèrent en plus l’énergie de mouvement des particules. L’émission d’un rayonnement au dessus de 511 keV, que ce soit par effet synchrotron ou par annihilation de paires électrons-positrons, implique nécessairement la présence de particules de grande énergie. Inversement, deux photons de 511 keV chacun ou bien un photon de faible énergie et un autre de très grande énergie (supérieure à 511 x 2, soit 1 022 keV) peuvent disparaître et être remplacés par un électron et un positron. On fabrique ainsi de la matière à partir de la lumière comme l’auraient certainement rêvé les alchimistes du Moyen Âge. C’est ce qui s’est passé dans l’Univers primordial lorsqu’il s’est refroidi après le Big Bang : les photons gamma dont il était rempli ont été convertis en matière et anti-matière et des paires d’électrons-positrons ont été créés ainsi. Un grand mystère demeure encore : pourquoi y a-t-il si peu d’anti-matière actuellement dans l’Univers ? Estelle cachée quelque part ? C’est l’hypothèse qu’ont faite il y a une trentaine d’années plusieurs chercheurs, dont Puget, Omnes et Schatzman en France. Malheureusement, il semble n’exister aucune preuve de la réalité d’un tel modèle. Bien qu’un « monde » d’anti-matière soit très difficile à détecter car son aspect devrait être exactement semblable au nôtre, la frontière entre ces deux mondes devrait être le lieu de manifestations spectaculaires comme une émission intense de rayons gammas provenant de toutes les directions de l’Univers et l’on en a jamais trouvé. On considère souvent qu’au dessous de 511 keV, on a affaire à du rayonnement X, et au-dessus à du rayonnement gamma.

319

320

Figure 11.3. Les quatre télescopes de l’expérience HESS en Namibie, inaugurée officiellement en septembre 2004. La surface effective de détection des photons gamma est de dix mille mètres carrés, à comparer avec la surface typique d’un mètre carré d’un détecteur dans l’espace.

Des quasars aux trous noirs

Contrairement aux quasars non radio, les quasars radio se révélèrent tous de puissants émetteurs de photons gamma jusqu’au giga-électron-volt (un milliard d’électrons-volt, ou GeV) ainsi que le montra l’instrument EGRET (Energetic Gamma Ray Experiment Telescope) de GRO. Mais grande fut la surprise de découvrir que certains émettaient jusqu’au Tera-électron-volt (mille milliards d’électrons-volt, ou TeV) ! Ceci fut réalisé par des expériences au sol détectant le rayonnement Cherenkov provenant de grandes gerbes de particules créées par les photons gamma lors de leur traversée de l’atmosphère. La plus performante est l’expérience franco-allemande HESS mise en service récemment dans le désert de Namibie4 (Figure 11.3 et Encadré 11.3).

Encadré 11.3. Comme les photons gamma de très haute énergie sont rares, on ne peut les observer avec des télescopes spatiaux qui devraient alors avoir d’énormes surfaces. Il faut donc les observer à partir du sol où l’on peut naturellement implanter d’immenses détecteurs. Mais le revers de la médaille est qu’ils sont absorbés par l’atmosphère terrestre et convertis en gerbes de particules et l’on ne peut pas recevoir directement les photons gamma. Dans ce processus, de la lumière Cherenkov5 est générée et illumine pendant un milliardième de seconde une surface de quelques centaines de mètres carrés. Cette lumière est produite par les particules de la gerbe se déplaçant plus vite que les photons 4

HESS est l’acronyme de High Energy Stereoscopic System, mais c’est également le nom d’un physicien autrichien, lauréat du prix Nobel de physique en 1936 pour la découverte du rayonnement cosmique réalisée vers 1911.

5 Ou Cerenkov : comme tous les mots d’origine russe écrits originellement en cyrillique, on n’est pas d’accord sur leur écriture en caractères romains.

Le cœur bouillant des quasars

dans l’atmosphère. En effet, leur vitesse est proche de celle de la lumière dans le vide mais elle est plus élevée que la vitesse de la lumière dans un milieu matériel comme l’atmosphère terrestre à cause de l’indice de réfraction de celle-ci, supérieur à l’unité (c’est le phénomène de réfraction que nous connaissons bien lorsque l’on regarde un reflet dans l’eau par exemple). Les particules sont donc « superluminiques », ce qui crée une « onde de choc lumineuse » conique exactement comme un avion supersonique crée une onde de choc acoustique conique dans son sillage. Cette lumière est collectée par les télescopes et ils peuvent même fournir – par un effet stéréoscopique semblable à celui qui est dû à nos deux yeux – la direction d’où provient la gerbe, donc celle de la source ayant émis le photon gamma initial.

Les premiers objets découverts émettant des photons d’énergie plus grande que le TeV furent deux galaxies de Markarian, Mrk 501 et Mrk 421. Ce sont deux blazars, c’està-dire des quasars radio rapidement variables et polarisés, dont on pense que le jet relativiste pointe presque dans notre direction. Rappelons qu’au départ les galaxies de Markarian étaient repérées seulement grâce à leur particularité d’avoir un excès d’ultraviolet et d’être en même temps très compactes. Le modeste Markarian n’avait certainement pas prévu que certaines de ses galaxies feraient la une des journaux quarante ans après leur découverte. Depuis, d’autres quasars ou NAGs semblables ont été détectés : ce sont presque toujours des blazars, à quelques exceptions près. Ainsi HESS a observé récemment le jet de la galaxie Virgo A dont il a été plusieurs fois question dans ce livre. Comme ce jet est allongé, il est clair qu’il ne pointe pas exactement dans notre direction. Avant d’en venir au problème de l’émission X, résumons ce que l’on sait de l’émission gamma. Examinons la figure 11.4 montrant le spectre d’un blazar radio qui nous révèle dans quel domaine l’énergie est principalement produite. On distingue clairement deux bosses, l’une à gauche entre le domaine radio et l’ultraviolet, l’autre à droite dans le domaine gamma. La première est attribuée au rayonnement synchrotron du jet, la seconde à l’effet Compton Inverse, c’est-à-dire que l’ensemble du spectre est produit par l’effet synchrotron self-Compton (SSC) que nous avons rencontré plusieurs fois

321

322

Des quasars aux trous noirs

Figure 11.4. Spectre électromagnétique de BL Lac observé depuis le domaine radio jusqu’aux gamma (dans un état haut et dans un état bas), avec la modélisation qui en a été faite.

dans ce livre. Comme je l’ai déjà, dit ce processus est la version « tranquille » de la catastrophe Compton ayant tellement agité les esprits vingt ans plus tôt. Depuis la publication de cette figure, on a obtenu les spectres de nombreux autres blazars et ils semblent tous rentrer dans ce schéma. De plus, ces blazars sont extrêmement variables, comme il est naturel pour du rayonnement amplifié. Sur la figure 11.5, nous retrouvons notre vieille connaissance BL Lac, la première lacertide découverte. Elle montre que les variations dans le visible et dans les domaines X et gamma sont bien corrélées, ce qui signifie que très probablement tout le spectre électromagnétique obéit bien au mécanisme SSC. Il reste cependant bien des mystères à percer. Certains attribuent le rayonnement gamma non pas aux rayonnements synchrotron et Compton de particules légères comme les électrons, mais plutôt à la désintégration de protons. C’est ce qu’on appelle des « modèles hadroniques », du nom de ces particules élémentaires beaucoup plus lourdes que les électrons (qu’on appelle des leptons). Pour le moment ces modèles donnent moins satisfaction que les modèles leptoniques (cf. figure 11.5). Il faut espérer que l’avenir nous en apprendra plus sur ce sujet avec le lancement par la NASA en 2007 du satellite GLAST (Gamma-ray Large Area Space Telescope) qui va combler les vides de ces observations dans une gamme d’énergie inférieure à HESS et qui va permettre d’observer des milliers d’objets. Et il est probable qu’outre quelques découvertes

Le cœur bouillant des quasars

323

Figure 11.5. Distribution spectrale du blazar PKS 2155-304, avec le modèle hadronique (en ligne continue) qui lui est associé. On voit qu’il est moins satisfaisant que le modèle SSC, en pointillés et en tirets.

inattendues, nous allons bien mieux comprendre les mécanismes des jets6 . . . Le rayonnement gamma, aussi passionnant soit-il, nous apporte donc peu de renseignements sur le moteur central des quasars et, de surcroît, il est limité aux quasars et aux NAGs « à jet », c’est-à-dire aux objets radio. Quant au rayonnement de très haute énergie (UHE, pour Ultra High Energy), il semble être spécifique à des objets dont le rayonnement du jet est amplifié même s’il ne pointe pas exactement dans notre direction. Il correspond donc à une très petite fraction de la population des quasars et des NAGs. Il suscite pourtant un énorme engouement. C’est que l’on éprouve une sorte de vertige devant les mécanismes encore largement incompris qui sont nécessaires pour atteindre des énergies aussi élevées. Et il n’y a pas que les photons, il y a également les rayons cosmiques7 , pouvant excéder 1020 eV (soit 10 joules pour une seule particule). C’est pourquoi l’on a développé pour les détecter des expériences 6 Une particularité des rayonnements gamma d’énergie extrême est d’interagir avec le rayonnement fossile dans lequel baigne l’Univers. Les photons fossiles ont une faible énergie (ce sont des photons radio), néanmoins ils sont capables de « fabriquer de la matière » en se combinant avec des photons gamma très énergétiques. Naturellement, les photons gamma disparaissent au cours du processus. Celui-ci est d’autant plus efficace que les photons gamma traversent une plus grande quantité de matière, donc que les sources de rayonnement sont plus éloignées. Il s’ensuit que l’on ne pourra jamais recevoir les photons de plusieurs TeV provenant de quasars très distants, ils auront été entièrement absorbés avant de nous parvenir. . . 7 Notons qu’on a pris l’habitude d’appeler « rayons » cosmiques ces particules de grande énergie qui voguent dans l’Univers, bien qu’il ne s’agisse pas d’un rayonnement. Cependant, certains incluent également les photons de grande énergie dans le terme de « rayons cosmiques ».

324

Des quasars aux trous noirs

gigantesques comme HESS pour les photons, AUGER (dont j’ai parlé dans le chapitre précédent) pour les cosmiques ou encore ANTARES pour les neutrinos de haute énergie (ceux-ci n’ont encore jamais été détectés, mais on pense qu’ils pourraient être un constituant majeur de l’Univers au même titre que le rayonnement fossile). Et l’on soupçonne que les jets des quasars radio sont des fournisseurs importants de tous ces petits monstres « UHE », photons gamma, rayons cosmiques, ou neutrinos (Encadré 11.4).

Encadré 11.4. Les neutrinos sont des particules émises lors de la désintégration ou de la fusion de noyaux lourds. Comme ils interagissent très peu avec la matière, on a eu l’idée d’observer les produits de leur interaction avec la matière après leur traversée de la Terre. Des détecteurs placés dans l’hémisphère Nord vont ainsi permettre d’étudier les neutrinos provenant de l’hémisphère Sud et réciproquement. Comme dans l’expérience HESS, l’expérience Antares destinée à la détection des neutrinos détectera le rayonnement Cherenkov émis par des particules, elles-mêmes produites par les neutrinos. On réalise ces observations au fond de l’océan : il joue alors le rôle de blindage contre le rayonnement cosmique que l’on pourrait confondre avec ces particules secondaires. Dans Antares, un millier de photodétecteurs sont immergés en Méditerranée à 2 400 mètres de profondeur au sud de l’île de Porquerolles dans le Var (les « yeux de la mer », les surnomme-t-on. . . ). Une autre expérience est implantée dans les glaces du pôle Sud et commence à étudier le ciel de l’hémisphère nord.

Le disque d’accrétion : miroir, mon beau miroir. . . Après cette plongée dans des rayonnements d’énergie gigantesque, revenons à des domaines plus communs avec le rayonnement X et tentons de percer le mystère du fonctionnement du trou noir. Nous pourrions le faire aussi bien avec les objets radio qu’avec les objets non radio, si ce n’est que le rayonnement X des premiers est souvent dominé par l’effet synchrotron provenant du jet et que nous aurions plus de mal à isoler le mécanisme d’approvisionnement du trou noir. Il est donc préférable de considérer uniquement les objets non radio.

Le cœur bouillant des quasars

J’ai déjà parlé du disque d’accrétion qui permet au gaz de s’approcher du trou noir jusqu’à être capturé par lui et j’ai montré que l’essentiel de son rayonnement était émis dans l’ultraviolet. Or les NAGs et les quasars émettent une quantité importante de rayonnement X. Y aurait-il incompatibilité avec le modèle ? Eh bien non, car il existe évidemment une explication à cette contradiction. Elle fut fournie par le motif spectral vers 6,4 keV mentionné au début de ce chapitre. Pounds et ses collaborateurs avaient additionné les spectres de douze noyaux de galaxies de Seyfert observés par le satellite japonais Ginga [76]. L’avantage d’une telle combinaison est d’obtenir ainsi un spectre dans lequel les motifs se reproduisant d’un objet à l’autre apparaissent clairement. Cependant, la méthode ne doit être utilisée qu’avec circonspection, pour des objets dont on est absolument sûr qu’ils appartiennent à la même classe. Sinon les propriétés de chaque classe sont au contraire amorties et l’on n’obtient qu’un affreux mélange sans aucune signification. En divisant le spectre « moyen » de ces douze objets par une loi de puissance8 , il apparaissait des motifs intenses. L’un d’eux correspondait à une raie large – ou à un ensemble de raies – au voisinage de 6,4 keV, l’autre à une bosse vers 20–30 keV (Figure 11.6). La raie à 6,4 keV était bien connue des expérimentateurs effectuant de la spectrométrie X en laboratoire. En effet, lorsque l’on bombarde de la matière avec des rayons X, elle réémet l’énergie sous forme de raies de fluorescence, exactement comme le fait dans le domaine visible la matière irradiée par un rayonnement ultraviolet. Dans le cas présent, il s’agissait d’un ensemble de raies d’atomes de fer auxquels des électrons des couches internes ont été arrachés par des photons X9 . Les trous laissés par les électrons enlevés sont alors comblés par des transitions spontanées se produisant à partir de couches supérieures et s’accompagnant de l’émission de photons. On appelle l’une de ces transitions la raie Kα pour indiquer qu’elle se produit entre la couche L (deuxième couche) et la couche la plus profonde de l’atome de fer (la couche K). C’est la raie à 6,4 keV. En ce qui concerne la « bosse », c’était plus subtil à expliquer. La présence de la raie de fluorescence prouvait non 8 C’est-à-dire un spectre où l’intensité est proportionnelle à l’énergie – ou la fréquence – élevée à une certaine puissance (en général voisine de −1). 9 Le fer est en effet un élément assez abondant dans l’Univers, et il possède des raies dans le domaine X – ce qui n’est pas le cas d’éléments bien plus abondants, comme l’hydrogène ou l’hélium.

325

326

Des quasars aux trous noirs

Figure 11.6. Les données additionnées de 12 galaxies de Seyfert obtenues par Ginga, divisées par une loi de puissance. Deux motifs se détachent nettement : une raie large à 6,4 keV et une « bosse » vers 20 keV. D’après Pounds et al., 1990.

seulement que de la matière était irradiée par du rayonnement X, mais également que l’on voyait le rayonnement X « réfléchi » par cette matière. Si je mets des guillemets à « réfléchi » c’est parce qu’il ne s’agit pas d’une réflexion comme le ferait un simple miroir. En effet, la matière irradiée opère un véritable travail de reconstruction du rayonnement : non seulement elle le transforme partiellement par fluorescence mais elle interagit aussi avec lui en diffusant les photons. On appelle ce processus « la diffusion Compton »**. Il a pour conséquence de faire perdre de l’énergie aux photons X de 100 keV ou plus qui s’accumulent aux alentours de 20 ou 30 keV, là où l’effet est moins efficace (Encadré 11.5).

Encadré 11.5. La diffusion simple consiste en un changement de direction du rayonnement : les photons heurtent une particule et sont renvoyés dans une autre direction. C’est ce qui se passe par exemple si nous regardons à travers une vitre en verre dépoli : nous ne distinguons plus les objets ou les sources de lumière situés derrière mais seulement une lumière diffuse provenant de toutes les directions. Dans le cas présent il s’agit de la diffusion par les électrons d’un milieu chaud. Nous l’avons déjà rencontrée dans le schéma unifié des galaxies de Seyfert : c’est elle qui explique que nous pouvons observer en lumière polarisée le centre des noyaux de Seyfert 2 qui est caché à notre vue directe, mais

Le cœur bouillant des quasars

dont la lumière est « réfléchie » par un milieu chaud entourant les régions centrales. En ce qui concerne la « bosse », il s’agit d’un phénomène un peu plus compliqué car la diffusion du rayonnement X par des électrons s’accompagne aussi d’un changement d’énergie, ce qui n’est pas le cas pour la lumière visible. C’est-à-dire qu’à chaque diffusion d’un photon, celui-ci perd un peu d’énergie. Nous connaissons déjà ce processus : c’est tout simplement la diffusion Compton. Mais ce que nous avions rencontré jusqu’à maintenant, c’était la diffusion « Compton Inverse » dans laquelle des photons de faible énergie acquièrent de l’énergie en heurtant des électrons relativistes. Ici il s’agit au contraire de photons énergétiques qui cèdent un peu de leur énergie aux électrons du milieu au cours de chaque diffusion. Comme ils en subissent beaucoup, ils finissent par perdre une fraction appréciable de leur énergie, surtout si elle était élevée à l’origine, et ils s’accumulent au voisinage de 20 keV, créant la « bosse » observée. Il s’imposa alors l’idée que le miroir devait être le disque d’accrétion lui-même. En somme, la configuration était la suivante : une source X centrale illumine le disque d’accrétion qui « réfléchit » le rayonnement X et l’observateur voit en même temps directement cette source et le rayonnement X réfléchi par le disque d’accrétion (Figure 11.7). Pounds et ses collaborateurs se livrèrent au petit exercice suivant. Ils supposèrent que la source centrale émettait un rayonnement en loi de puissance et ils calculèrent la forme du spectre « réfléchi » par un milieu froid10 . En additionnant ce spectre réfléchi avec celui de la source vu directement ils obtenaient un spectre montrant la raie Kα du fer et la bosse vers 20 keV, ressemblant fortement à celui qui était observé dans les douze galaxies de Seyfert (Figure 11.8). Seule différence : la raie n’était pas large comme dans le spectre réel, mais c’était parce qu’ils n’avaient pas tenu compte des mouvements et de la proximité du trou noir comme on va le voir tout de suite. Cette raie du fer n’était pas une inconnue pour les astrophysiciens. Elle avait en effet été observée en 1985, dans le spectre du fameux « trou noir stellaire » dont j’ai parlé, Cygnus X1. Fabian, Rees, Stella et White avaient déjà suggéré 10 Dans ce premier travail, ils supposaient que le disque était froid. Par la suite, des calculs plus précis tenant compte de l’état réel du disque furent effectués, sans changer fondamentalement les conclusions.

327

328

Des quasars aux trous noirs

Figure 11.7. Coupe des régions entourant le trou noir : le disque d’accrétion réfléchit le rayonnement X en provenance d’une source centrale que l’on voit aussi directement. La source X est transparente mais le disque est opaque, on ne voit donc qu’un côté de la source X. La figure est à peu près à l’échelle. Pour un trou noir de cent millions de masses solaire, la source X a quelques heures-lumière de rayon. Les régions intérieures du disque sont ultraviolettes, les régions extérieures sont rouges (très schématiquement). Ce sont surtout les régions intérieures qui sont illuminées par le rayonnement X.

Figure 11.8. Construction théorique d’un spectre égal à la somme d’une loi de puissance et du spectre « réfléchi » par un milieu froid, par Pounds et ses collaborateurs.

qu’elle était formée par réflexion sur le disque d’accrétion [33]. Une fois de plus, on voit l’apport des trous noirs stellaires à la physique des trous noirs supermassifs. En additionnant les profils de la raie du fer de douze NAGs observés avec le satellite ASCA, Nandra et ses collaborateurs de la NASA obtinrent en 1997 un profil moyen très large, avec

Le cœur bouillant des quasars

329

Figure 11.9. Profil de la raie Kα du fer de douze noyaux de galaxies de Seyfert observés par le satellite ASCA et combinés pour obtenir un meilleur signal. D’après Nandra et al. 1997 [68].

un pic vers 6,4 keV, une grande aile « rouge » se prolongeant du côté des faibles énergies et une aile « bleue » beaucoup moins étendue (Figure 11.9). Un profil semblable mais beaucoup plus extrême avait été observé pour la première fois en 1995 dans la galaxie de Seyfert MCG -6-30-1511 : il montre une aile « rouge » très étendue, avec une absence totale d’aile bleue et un intense pic situé à 6,4 keV (Tanaka et al.) [69] (Figure 11.10). Comment expliquer de tels profils ? Il faut prendre en compte deux faits : d’abord que la raie est formée par réflexion sur un disque en rotation, ensuite qu’elle est formée tout près de la source X et par conséquent tout près du trou noir lui-même. Le premier contribue par effet Doppler à un élargissement symétrique de part et d’autre de la longueur d’onde de la raie, tandis que le deuxième entraîne un élargissement du côté des grandes longueurs d’onde (le côté « rouge » : c’est ce que l’on nomme le « rougissement gravitationnel ») et une amplification du côté des petites longueurs d’onde (le côté « bleu »)12 . Les lecteurs désirant une explication un peu plus complète la trouveront dans l’annexe B. 11 Ce nom bizarre signifie simplement qu’il s’agit du trentième champ de la zone -06 de l’Atlas du ciel de Palomar, et que c’est la quinzième galaxie du Morphological Catalog of Galaxies (MCG) qui en a été tiré. 12 En fait on pouvait envisager une autre explication à l’aile rouge, liée aux diffusions Compton qui causent une perte d’énergie des photons. Mon équipe et moi-même avons essayé pendant plusieurs années de montrer que cet effet pouvait rendre compte des profils des raies Kα du fer. Mais s’il est vrai qu’il contribue à l’élargissement de l’aile rouge, il est insuffisant pour expliquer des profils comme celui de MCG -6-30-15.

330

Des quasars aux trous noirs

Figure 11.10. Profil de la raie Kα du fer dans la galaxie de Seyfert MCG -6-30-15, observée par le satellite ASCA en 1994. La courbe en tirets est le profil calculé pour un disque s’étendant de 3 à 20 rayons de Schwarzschild d’un trou noir sans rotation vu sous une inclinaison de 30◦ .

Non seulement la raie Kα apportait ainsi la preuve de la réalité de la réflexion sur un disque en rotation mais, de surcroît, elle prouvait de façon irréfutable que le phénomène se produisait dans l’environnement immédiat d’un trou noir. Malheureusement, elle ne permettait pas d’en déduire la masse. Car si le profil dépend de la distance à laquelle se forme la raie, c’est de la distance exprimée en rayons de l’horizon du trou noir qu’il s’agit et non de la distance réelle qui, elle, donnerait la masse du trou noir. Cependant il y eut mieux encore. En 1996, Iwasawa et ses collaborateurs annoncèrent que le profil de la raie Kα du fer dans MCG -6-30-15 avait changé depuis 1994 et que l’aile du côté rouge débordait maintenant au-dessous de 4 keV (Figure 11.11). Par la suite, Fabian et ses collaborateurs réobservèrent longuement cette raie et montrèrent que l’aile rouge dans MCG -6-30-15 s’étend la plupart du temps jusqu’à 2 ou 3 keV (des centaines d’heures des missions spatiales XMMNewton et Chandra avaient été nécessaires pour confirmer ce résultat). L’existence de cette aile rouge a de profondes implications. En effet, des valeurs si grandes du décalage gravitationnel ne peuvent être produites qu’à une distance très faible du trou noir, moins de deux rayons gravitationnels. Or, ceci n’est possible que si le trou noir a une rotation très importante car sinon le gaz disparaît sans rayonner lorsqu’il atteint six rayons gravitationnels. L’une des conséquences en est que l’efficacité

Le cœur bouillant des quasars

331

Figure 11.11. Profil de la raie Kα du fer dans MCG -6-30-15 observé par les satellites Chandra (en noir) et XMM-Newton (en gris), d’après Young et ses collaborateurs en 2005 [106].

de conversion de la masse en énergie atteint alors 30 %, un rendement si élevé que si tous les quasars en étaient affligés l’Univers aurait été submergé par leur rayonnement dans le passé. Ce résultat ne fait cependant pas encore l’unanimité, et il reste des opiniâtres à penser que le profil de la raie est mal déterminé, en particulier à cause des absorptions pouvant le modifier vers 3 ou 4 keV. C’est une discussion de spécialistes dont il nous faut attendre tranquillement les conclusions définitives. . . On avait donc montré que la raie Kα du fer provenait de la réflexion par le disque d’accrétion d’une source X située tout près du trou noir. Une pierre supplémentaire vint s’ajouter rapidement à cet édifice. J’ai mentionné à plusieurs reprises les variations d’éclat des NAGs et des quasars. Quelques objets brillants étaient régulièrement observés depuis de nombreuses années et l’on pouvait en déduire les variations de l’intensité dans différentes couleurs, le rouge, le jaune, le bleu et même l’ultraviolet avec le satellite IUE puis le télescope Hubble (il ne faut pas confondre ces variations avec celles des raies spectrales dont je reparlerai longuement dans le chapitre suivant). On avait même, vers 1990, des observations suffisamment fréquentes pour obtenir ce que l’on nomme des « courbes de lumière », montrant une variation continue au cours du temps dans les différentes couleurs. Elles étaient identiques et semblaient ne présenter aucun décalage apparent entre elles (Figure 11.12).

332

Figure 11.12. Exemple de « courbes de lumière » du noyau de la galaxie de Seyfert NGC 5548, observée avec le télescope de Hubble dans différentes couleurs ultraviolettes (à 1350, 1840 et 2570 angströms) d’après Clavel et al. 1991. L’intensité est portée en fonction de la date exprimée en jour Julien*. Les observations ont été effectuées pendant une dizaine de mois. On voit que les trois courbes de lumière sont pratiquement identiques et l’on ne distingue pas de décalage apparent entre elles.

Des quasars aux trous noirs

Nous avons vu que le rayonnement depuis le rouge jusqu’à l’ultraviolet provient du disque d’accrétion : l’ultraviolet, des régions les plus centrales, le bleu, de régions un peu plus éloignées, le rouge, des régions les plus lointaines du disque. J’ai dit que c’était parce que la température du disque décroissait régulièrement avec la distance. Connaissant la masse du trou noir, on peut facilement déterminer cette température en fonction de la distance au centre et par conséquent localiser les différentes couleurs sur le disque. On ne connaissait pas exactement les masses des trous noirs à cette époque, mais on en avait déjà une idée approchée. Sur le schéma type du disque d’accrétion (Figure 9.10), nous avons pu voir qu’à environ 0,2 jours-lumière du trou noir le disque est violet et qu’il est rouge à 3 jours-lumière. La lumière violette et la lumière rouge sont donc émises dans deux régions bien séparées du disque. Puisque la lumière violette et la lumière rouge varient de la même façon, c’est qu’une information s’est propagée entre ces régions (conformément au fameux « principe de causalité » invoqué pour expliquer comment l’on détermine la dimension maximum d’un quasar d’après ses variations d’éclat). S’il s’agissait, comme cela semblait normal, d’une perturbation de la pression du gaz dans le disque d’accrétion, cette information devait se propager avec la vitesse du son qui est d’environ dix kilomètres par seconde13 : elle aurait donc dû prendre plus de cent ans pour parcourir la distance séparant la région rouge de la région violette. C’était impossible. En 1991, l’américain Krolik et ses collaborateurs avaient noté que le rayonnement optique du noyau de la Seyfert NGC 5548 semblait varier simultanément avec le rayonnement ultraviolet [56]. En même temps, Thierry Courvoisier de l’Observatoire de Genève et Jean Clavel qui s’occupait alors de la station de suivi du satellite ultraviolet IUE près de Madrid14 montrèrent, en se fondant sur les variations observées dans NGC 4151 et NGC 5548, que le délai entre les variations dans le rouge (à 5 000 angströms) et celles dans l’ultraviolet (à 1 250 angströms) était de moins de deux jours [24]. Ils en 13 La vitesse du son est proportionnelle à la racine carrée de la température. Dans l’air, qui a une température de 300 degrés absolus, elle est de 300 mètres par seconde. Ainsi dans le disque d’accrétion dont la température est de quelques centaines de milliers de degrés, elle est trente fois plus grande. 14 Thierry Courvoisier, qui est actuellement directeur du centre de données du satellite X-gamma INTEGRAL, a consacré une partie de sa vie à l’observation du quasar 3C 273. Jean Clavel avait effectué sa thèse à l’Observatoire de Meudon, et il se trouve sur la figure 4 du chapitre 6 montrant notre petite équipe des NAGs en 1983.

Le cœur bouillant des quasars

concluaient que quelque chose était faux dans le modèle du disque d’accrétion, mais quoi ? Or dès l’année précédente, j’avais moi-même été frappée par cette contradiction ainsi que par l’annonce de la « réflexion » du rayonnement X sur le disque d’accrétion. Les deux propriétés me paraissaient liées, car si le disque était irradié par du rayonnement X, il devait aussi être chauffé et, en conséquence, sa température devait s’élever et s’abaisser au gré des variations du rayonnement X. Mais si c’était bien le cas, cela signifiait que l’information était transmise au disque par la lumière et non par le son puisqu’il n’y avait pas mouvement de matière. Elle devait donc être trente mille fois plus rapide. Et cette fois c’était compatible avec un délai très court entre les variations dans le rouge et dans l’ultraviolet. L’hypothèse avait également l’avantage d’expliquer les variations de forme du spectre dans tout le domaine visible et ultraviolet. Je publiai en 1991 dans la revue Astronomy and Astrophysics un article où je proposais ce modèle. Le résumé de l’article se terminait par la phrase : « Les variations de tout le domaine optique-ultraviolet doivent être corrélées avec le flux X » [23]. En 1992, Clavel avec de nombreux collaborateurs publièrent les résultats d’une campagne d’observation simultanée concernant ce noyau de galaxie dans l’ultraviolet (avec le satellite IUE) et dans l’X (avec Ginga) [20]. Ils annonçaient que le flux X était parfaitement corrélé avec le flux ultraviolet et ils en déduisaient que le disque répondait aux variations du flux X comme je l’avais proposé. Ce modèle est maintenant tout à fait accepté et, lorsque les instruments l’ont permis, on a mesuré avec précision les délais entre les courbes de lumière dans différentes couleurs, vérifiant qu’ils correspondaient bien à une information transmise avec la vitesse de la lumière. En revanche, on a également découvert que ce n’est pas toujours le rayonnement X qui semble mener la danse mais plutôt le rayonnement ultraviolet. C’est lui qui pourrait en fait chauffer les régions lointaines du disque où sont produits les rayonnements visibles. Cela n’est pas étonnant lorsque l’on sait que le disque d’accrétion n’est probablement pas plat, mais qu’il doit avoir une forme évasée15 et que les régions extérieures du disque peuvent « voir » les régions intérieures comme le montre la figure 11.13. Au-delà d’environ mille rayons de Schwarzschild (qui correspondent à quelques jours-lumière pour un NAG typique), 15

Cette forme dépend de façon complexe des processus physiques à l’intérieur du disque.

333

334

Figure 11.13. Coupe du disque d’accrétion montrant que les régions extérieures peuvent être illuminées par les régions intérieures. Au delà d’environ mille rayons de Schwarzschild la structure du disque est inconnue.

Des quasars aux trous noirs

10 Rayons de Schwarzschild

? rouge ?

UV

UV

rouge

? ?

1000 Rayons de Schwarzschild

la structure du disque est inconnue car il devient instable sous l’effet de sa propre gravité et il se disloque certainement. La région émettant les raies larges (la « BLR ») correspond justement à cette distance et il est fort possible qu’elle soit constituée de morceaux arrachés au disque. Pour en revenir à mon article, c’est une illustration de ce que j’ai décrit dans l’un des chapitres précédents concernant les hauts et les bas de la créativité d’un chercheur. Cet article, je l’ai écrit en quelques jours, à la suite d’une illumination que j’avais probablement eue pendant une insomnie et je considère que c’est l’un des meilleurs de ma carrière. Cet exemple montre aussi que les mêmes idées viennent à peu près en même temps à des personnes différentes. Probablement sont-elles « dans l’air » et le contexte s’y prête. Mais il est alors bien difficile de savoir qui les a eues le premier et qui aurait pu les entendre dans un couloir et se les approprier sans même s’en rendre compte. Mon article eut des malheurs : je l’avais déposé fin 1990, mais à l’époque l’impression des articles d’Astronomy and Astrophysics était effectuée en Indonésie et il fut perdu au cours du voyage en bateau. Il s’ensuivit un délai supplémentaire de publication de plusieurs mois et finalement il ne sortit que dans le numéro de septembre 1991 alors que mes collègues avaient déposé le leur en août 1991 à l’Astrophysical Journal. L’article de mes collègues a donc été publié après le mien et propose le même modèle (il est vrai étayé d’observations) sans me citer. Il est vrai que je ne l’avais pas annoncé dans une conférence, mais j’avais dû en envoyer quelques « tirés à part » (je n’avais surement pas fait un envoi important car à ce moment j’étais retournée à l’Observatoire de Meudon, moins riche que l’IAP, et cela dépassait nos possibilités budgétaires). Mon article est assez souvent cité mais moins cependant que celui de mes collègues et c’est eux qui sont en général crédités de cette découverte. C’est là que l’on voit l’importance des relations directes... Revenons une dernière fois sur le décalage gravitationnel. On se souvient que Greenstein et Schmidt l’avaient éliminé

Le cœur bouillant des quasars

comme cause possible du décalage des quasars 3C 273 et 3C 48 à cause de la faible largeur – toute relative en fait – des raies dans le domaine visible. Il est amusant d’imaginer ce qui serait arrivé s’ils avaient étudié ces quasars non pas dans le domaine visible mais dans le domaine X. Ils auraient alors trouvé une raie très large dont le décalage aurait été du même ordre que l’élargissement gravitationnel. Et ils auraient sans doute conclu que la cause du décalage n’était pas cosmologique. Il y aurait eu ainsi une fausse piste de plus dans la saga des quasars. Cette hypothèse est cependant gratuite car on n’a jusqu’à maintenant jamais détecté la raie Kα du fer dans des quasars très lumineux. La raison n’en est pas encore claire mais on soupçonne que la raie est faible parce que le disque est trop chaud et trop ionisé dans ce cas. Il restait à comprendre pourquoi le spectre de la source centrale X était une loi de puissance. En moyenne, dans tous les quasars non radio et les galaxies de Seyfert, l’intensité du rayonnement X entre 2 et 10 keV est en effet inversement proportionnelle à la fréquence16 . Une fois de plus l’effet Compton allait permettre de résoudre le problème. Jean Heyvaerts (il venait de l’IAP, puis il avait émigré à Meudon où il avait pris après quelques années la direction du « labo Schatzman ») avait suggéré avec d’autres qu’un champ magnétique pouvait être ancré dans le disque. Il avait ajouté qu’il pouvait se dissiper lors de la « reconnection » de boucles magnétiques dans une couronne située au-dessus du disque (ce mécanisme se produit lors des éruptions solaires, sujet principal de ses recherches). Par ailleurs, on avait développé dans les années quatre-vingts des modèles pour expliquer le rayonnement X dans les étoiles binaires et certains invoquaient la diffusion Compton** dans un flot d’accrétion. Les deux processus allaient se rencontrer dans les années quatre-vingt-dix. En 1991, l’italienne Laura Maraschi et son étudiant Francesco Haardt proposèrent un modèle prenant en compte ces deux éléments. Il a été largement perfectionné depuis. L’idée de base est que le disque d’accrétion est surmonté d’une couronne très chaude. Le mécanisme de chauffage de cette couronne n’est pas clair mais on invoque en général la reconnexion d’arches magnétiques ancrées dans le disque, permettant de dissiper brutalement une fraction de l’énergie d’accrétion sous forme d’éruptions localisées semblables aux éruptions solaires mais effroyablement plus violentes. La puissance émise lors des plus fortes éruptions solaires n’atteint en 16

Par unité d’intervalle de fréquence, il est important de le préciser.

335

336

Des quasars aux trous noirs

effet qu’une toute petite fraction de la puissance totale du Soleil et elles ne durent qu’une fraction d’heure ; tandis que la puissance émise lors d’une éruption sur le disque d’accrétion peut être mille milliards de fois plus grande et elle peut durer des heures. Et pourtant, la dimension de la zone éruptive est seulement une centaine de fois plus grande que celle du Soleil. On peut en somme représenter le disque et la couronne sous la forme représentée sur la figure 11.13, que j’emprunte à la britannique Chris Done, spécialiste des trous noirs stellaires (notez qu’il s’agit de la même région que celle qui était représentée plus tôt sous forme d’une coupe du disque et de la source X schématisée comme une sphère ; les deux modèles sont envisageables).

Figure 11.14. Le modèle de couronne avec des arches magnétiques créant des « éruptions » au-dessus du disque d’accrétion. D’après Chris Done.

Les arches magnétiques émettent du rayonnement X dont une fraction s’échappe directement dans l’espace et l’autre part vers le disque. Au-dessous de chaque arche magnétique, le disque est chauffé et émet du rayonnement ultraviolet en direction des arches. Il est transformé par effet Compton Inverse en rayonnement X en retraversant l’arche composée de gaz très chaud. Il s’agit donc d’un mécanisme complexe d’allersretours des photons entre le disque et sa couronne, dans lesquels ils tentent de trouver un certain état d’équilibre durant le temps de l’éruption. Plusieurs éruptions se produisent en même temps de sorte que la température de la couronne dans son ensemble atteint une valeur voisine de quelques milliards de degrés. Notons que ce mécanisme n’existe pas dans la couronne solaire car il faut qu’une très grande quantité de rayonnement soit produite dans un tout petit volume. On montre (mais je ne peux en faire la démonstration ici car elle est un peu compliquée) que le spectre rayonné par la couronne a la propriété d’être à peu près inversement proportionnel à la fréquence. Un observateur verra à la fois le rayonnement du disque et celui des éruptions et le spectre émis sera celui donné par la figure 11.15.

Le cœur bouillant des quasars

Il est possible que ce modèle soit remis en cause dans l’avenir, mais il a l’avantage de répondre à toutes les contraintes observationnelles actuelles. Malheureusement, il n’est pas très prédictif, étant purement phénoménologique. Il ne permet pas de savoir par exemple si c’est une perturbation du disque – comme un changement du taux d’accrétion – qui va entraîner un changement de la couronne et créer des éruptions, ou bien si, au contraire, ce sont les boucles magnétiques de la couronne produisant les éruptions qui perturbent le disque. En d’autres termes, les variations du rayonnement X précèdentelles celles du rayonnement ultraviolet ou est-ce l’inverse ? Il semble en fait que ce soient tantôt les unes, tantôt les autres qui commandent et il est impossible de dire quel mécanisme déclenche l’autre. L’explication, toute populaire qu’elle soit, est encore loin d’être suffisamment élaborée. Martine Mouchet17 , une enseignante de notre laboratoire, étudie ce modèle d’éruption avec l’un de ses étudiants et des collaborateurs polonais et tchèques et ils en déduisent quelques conséquences intéressantes qui pourront être testées par des observations X ultérieures. Comme nous sommes dans un domaine de recherche en cours, on ne doit pas en considérer les conclusions comme définitives.

La très grande Unification : de la difficulté de briller lorsqu’on n’a pas assez à manger Ce modèle a eu une conséquence inattendue, celle de rendre compte des propriétés d’un ensemble d’objets extrêmement 17 Martine fait partie de ces gens exceptionnels estimant qu’ils ne sont pas « à la hauteur » (alors que tout le monde s’accorde pour dire l’inverse), et qui par conséquent refusent volontairement d’accéder à un grade supérieur.

337

Figure 11.15. Luminosité d’un disque d’accrétion surmonté de régions éruptives, en fonction de la fréquence. Le modèle est celui de la figure 11.14. Lorsque l’émission de la couronne augmente (courbes en pointillés) l’irradiation du disque devient plus importante et il répond en émettant plus intensément dans l’UV. C’est dans les régions intérieures que le disque est le plus chauffé, un accroissement de luminosité s’accompagne donc d’une couleur plus bleue.

338

Des quasars aux trous noirs

communs. Ce sont les LINERS (pour Low Ionization Narrow Emission Regions) mentionnés à plusieurs reprises. Ceux qui les étudient le plus intensément, comme les américains Sargent et Ho, pensent qu’ils constituent trente à quarante pour cent de la population de tous les noyaux de galaxies – ce que l’on peut traduire en disant qu’on les trouve dans vingt à trente pour cent de l’ensemble des galaxies. Ces noyaux de galaxies sont très peu lumineux comparés à ceux des galaxies de Seyfert. C’est d’ailleurs une classe insaisissable sur laquelle même les spécialistes restent assez évasifs. Tous présentent cependant quelque similitude avec les NAGs : beaucoup contiennent des radiosources très compactes, d’autres ont des raies en émission faibles mais larges, certains révèlent des raies larges en lumière polarisée, d’autres montrent une source ultraviolette non résolue, d’autres enfin ont de rapides variations d’éclat. Leur spectre présente souvent des raies en émission comme les galaxies de Seyfert mais, contrairement à celles-ci, elles proviennent d’ions faiblement ionisés (d’où le nom de la classe). Ce phénomène est encore largement incompris. C’est par leur rayonnement X que les LINERS se rattachent le plus clairement aux NAGs. On a découvert en effet depuis une quinzaine d’années que pratiquement tous ces noyaux émettent un rayonnement X ayant les mêmes caractéristiques que celui des quasars et des galaxies de Seyfert : même loi de puissance, même variabilité. Ce qui signifie qu’ils possèdent un trou noir massif. Mais comment expliquer alors qu’ils soient si peu lumineux puisqu’ils ne manquent pas de gaz à avaler dans leur environnement ? L’explication tient à l’existence d’un type particulier de flot d’accrétion proposé en 1994 par les Américains Narayan et Yi [70]. Ils ont montré que, au-dessous d’un certain taux d’accrétion, le disque devient instable et change brutalement de structure : le flot d’accrétion cesse d’être en disque, il devient presque sphérique, très chaud et transparent, et il émet seulement du rayonnement X. De plus, il perd toute rotation et tombe directement sur le trou noir avec une vitesse proche de celle de la lumière. Les photons n’ont donc pas le temps de s’échapper : ils sont entraînés avec la matière et s’engouffrent eux-mêmes dans le trou noir. Ainsi, un trou noir dont le taux d’accrétion passe au-dessous d’un dixième du taux d’accrétion typique d’un noyau de galaxie de Seyfert, devient brusquement dix mille ou cent mille fois moins lumineux. On appelle ces objets du nom barbare de « Advection Dominated Accretion Flow » ou ADAF. Le flot est dominé par le transport radial de matière (ou « advection ») et non plus par la rotation, et par

Le cœur bouillant des quasars

339

Figure 11.16. Le modèle d’ADAF : les régions intérieures du disque d’accrétion sont maintenant remplacées par une source X très chaude presque sphérique dont le rayonnement ne nous parvient pratiquement plus car il est avalé par le trou noir avant de s’échapper. Le rayonnement du disque lui-même est également presque inexistant.

conséquent la lumière est capturée par le trou noir avant d’être rayonnée. Ce modèle est directement inspiré lui aussi des trous noirs stellaires dans lesquels on observe parfois en quelques heures le passage d’un état à l’autre tandis qu’il prendrait des milliers d’années dans un NAG. C’est presque l’histoire de la grenouille qui voulait devenir aussi grosse qu’un bœuf. Comme elle, la source X enfle, enfle. . . mais plus elle enfle, plus elle s’éteint, victime de la voracité du trou noir. À la fin, la source X prend complètement la place du disque et il ne reste plus comme manifestation de la présence du trou noir qu’un peu de rayonnement X (Figures 11.16 et 11.17). Il est d’ailleurs accompagné de rayonnement radio car les électrons du gaz excessivement chaud ont des vitesses voisines de celle de la lumière et peuvent par conséquent émettre du rayonnement synchrotron dans le champ magnétique du flot (ou du jet, s’il y en a un) On a beaucoup discuté ces dernières années sur la réalité de ces ADAF et de nombreuses variantes en ont été proposées. On les appelle maintenant plutôt des « flots d’accrétion radiativement inefficaces » ou « Radiatively inefficient Accretion Flows » (RIAFs). À travers ses divers avatars, le modèle reste fondamentalement le même, c’est-à-dire qu’il inclut toujours un flot d’accrétion très chaud mais peu lumineux. Les anglosaxons ont pris l’habitude de parler de « Starving Black Holes », ou « trous noirs affamés », à propos de ces objets. Mais n’exagérons pas, bon an mal an, ils avalent tout de même un centième ou un dixième de Soleil sous forme de gaz, ce qui n’est pas si mal. Simplement, ils ont la mauvaise habitude d’avaler aussi la lumière au lieu de la laisser s’échapper.

340

Des quasars aux trous noirs

Figure 11.17. Luminosité d’un ADAF semblable au modèle de la figure précédente, en fonction de la fréquence. Le spectre noir en pointillés est la somme des deux émissions. L’ensemble est dix mille à cent mille fois moins lumineux qu’un noyau de galaxie de Seyfert.

En réalité, Fabian et Rees avaient noté dès 1995 un paradoxe concernant les noyaux des grandes galaxies elliptiques [32]. Comme nous allons le voir dans le chapitre suivant, l’idée commençait en effet à s’imposer à cette époque qu’ils devaient contenir des trous noirs très massifs, résultat de leur lointain passé de quasars. Or on avait découvert, grâce aux satellites X, que ces galaxies, par ailleurs pauvres en gaz froid, contenaient à profusion du gaz chaud. Environ une masse solaire de ce gaz devait tomber sur le trou noir tous les dix ans et cela aurait dû normalement lui donner la puissance d’un NAG. Pourquoi n’était-ce pas le cas ? Fabian et Rees suggérèrent que le modèle d’ADAF pouvait peut-être expliquer le phénomène18 . Le premier noyau de galaxie à avoir été reconnu comme contenant un ADAF (par Fabian et deux de ses étudiants, Chris Reynolds et Tiziana di Matteo [80]) est celui de la galaxie Virgo A ou M 87, que nous avons rencontré à de nombreuses reprises dans ce livre. Depuis on en a répertorié un grand nombre. Mais le plus inattendu est sans contexte l’objet qui se trouve au centre de notre Voie lactée, Sagittarius A*, que nous allons retrouver dans le chapitre suivant.

Trous noirs anorexiques ou trous noirs boulimiques ? Nous venons de parler de trous noirs lumineux (qu’on me pardonne cette expression19 !) accrétant du gaz à un rythme 18 Rees et son étudiant Begelman avaient proposé dès le début des années quatre-vingts l’existence de disques d’accrétion sans rayonnement, en suggérant qu’ils pourraient rendre compte des radiogalaxies, dont le noyau est très peu lumineux. 19

Mais après tout un grand poète n’a-t-il pas parlé de « soleil noir » ?

Le cœur bouillant des quasars

important : ce sont les quasars et les noyaux des galaxies de Seyfert ; et de trous noirs accrétant à un rythme à peine moins élevé mais presque invisibles : ce sont les LINERS ou de façon plus générale les NAGs de faible luminosité (LLAGN en anglais). Dans les premiers, le rendement de la conversion de la masse en lumière est voisin de dix pour cent tandis qu’il n’est que d’un dix-millième ou un cent-millième dans les seconds. Ceux-ci sont donc absolument « inintéressants » d’un point de vue énergétique puisque presque toute l’énergie gravitationnelle du gaz accrété disparaît à jamais dans le trou noir. Mais ils sont très intéressants dans un contexte cosmologique, puisqu’ils sont présents dans de nombreuses de galaxies, et qu’ils permettent au trou noir de se nourrir sans qu’on le voit. En fait, ce qui détermine le comportement du flot d’accrétion, ce n’est pas le taux d’accrétion lui-même mais son rapport à ce que j’ai appelé le « taux d’accrétion d’Eddington », celui qui correspond à la luminosité d’Eddington**. Rappelons que la luminosité d’Eddington est la puissance maximum d’un astre, atteinte lorsque la pression de radiation repoussant les particules est égale à la force d’attraction qui les maintient assemblées. Comme on l’a déjà vu, elle est égale à 1040 watts pour un quasar d’un milliard de masses solaires et elle est proportionnelle à la masse. Elle correspond à un taux d’accrétion de 2,6 masses solaires par an pour ce quasar, et pour un NAG dont le trou noir a une masse de cent millions de masses solaires mais la même efficacité, à un taux d’accrétion de 0,26 masses solaires par an. Un NAG accrète typiquement entre 0,01 et 0,1 masse solaire par an, ce qui signifie qu’il a un taux d’accrétion d’environ un dixième du taux d’Eddington. Lorsque, pour une raison ou une autre, il n’y a plus de gaz à avaler autour du trou noir et que le taux d’accrétion tombe à environ un centième du taux d’Eddington, on passe brutalement dans le régime des ADAF et la puissance rayonnée devient très faible. Imaginons à l’autre extrême un quasar ou un NAG se trouvant dans un environnement extrêmement riche en gaz qui se précipite sur lui. Il a par conséquent à sa disposition beaucoup plus de gaz à accréter que le taux d’Eddington. Est-il possible de tout avaler ? En principe non, puisque la pression de radiation va s’y opposer. Il se trouve tout de même des spécialistes pour affirmer que dans ce cas, bien que le quasar ou le NAG ne rayonne pas au delà de la limite qui lui est octroyée, c’est-àdire la puissance d’Eddington, mais il va accréter avec un taux aussi grand qu’on le veut. C’est l’efficacité de conversion de la matière en rayonnement qui va devenir minuscule, comme

341

342

Des quasars aux trous noirs

dans l’autre cas extrême. La raison en est de nouveau que la lumière émise par le processus d’accrétion s’engouffre dans le trou noir avant d’être rayonnée. Mais dans ce cas, ce n’est pas parce qu’elle est entraînée trop rapidement vers le trou noir, mais au contraire parce qu’elle ne parvient pas à s’extirper du disque à cause des très nombreuses diffusions qu’elle subit sur les particules se bousculant pour se rapprocher du trou noir20 . Le disque enfle considérablement mais, contrairement au cas de l’ADAF, il reste opaque et dense. On appelle cela un « disque épais » pour indiquer qu’il s’agit bien encore d’un disque en rotation, par opposition à l’ADAF qui est un flot sphérique sans rotation, et pour le distinguer du disque standard que l’on appelle un « disque mince ». Contrairement à l’ADAF, ce « disque épais » reste relativement froid et rayonne surtout dans le visible et l’ultraviolet. On peut donc dire que dans ce cas le trou noir est boulimique : il avale tout ce qui se présente, mais son efficacité diminue. Notons que le trop plein de nourriture ou à l’inverse le manque de nourriture conduit dans les deux cas à une efficacité très faible ! Il faudrait en tirer des conclusions par analogie avec le comportement humain. . . L’existence de tels « disques épais », proposée dans les années quatre-vingts par Abramowicz et ses collaborateurs [1], est cependant controversée. Les simulations par ordinateurs semblent en effet montrer qu’ils ne peuvent survivre car ils donnent naissance à des vents violents entraînant le gaz et réduisant fortement le taux d’accrétion. L’enjeu est important car si ces disques existent et qu’ils permettent au trou noir d’accréter très rapidement, ils pourraient expliquer sans difficulté la présence de trous noirs déjà massifs dans un passé lointain. Pour continuer avec mon analogie alimentaire, cette fois les trous noirs seraient anorexiques, refusant la nourriture qu’on leur propose. . . Mais une fois de plus, nous devons attendre le verdict des spécialistes pour savoir ce qu’il en est et il risque de ne pas arriver avant plusieurs années. La présence de « vents » dans les quasars et les NAGs n’est pas une nouveauté, puisqu’elle est connue depuis la découverte des quasars à raies d’absorption larges que l’on avait appelées les « BALs » (pour Broad Absorption Lines). L’astronomie X leur a donné un statut particulier en montrant que de tels vents étaient présents dans presque tous les NAGs. On observe en effet de nombreuses raies en absorption dans le domaine X. 20

Comme un photon émis au centre du Soleil qui met plus d’un million d’années à en sortir.

Le cœur bouillant des quasars

Comme elles sont dues à une matière située entre nous et la source X et qu’elles sont systématiquement décalées vers le bleu, cela signifie que cette matière s’éloigne du quasar comme les BALs. De plus en plus de travaux sont consacrés à l’étude de ces vents que l’on nomme les « Warm Absorbers », ou « absorbants chauds », car ils sont constitués d’un gaz chauffé et ionisé par le rayonnement de la source X centrale. Les conditions dans lesquelles il est chassé du disque peuvent nous en apprendre beaucoup sur l’accrétion elle-même et sur l’environnement du trou noir. On remarque en particulier que la puissance du vent semble augmenter lorsque la luminosité se rapproche de celle d’Eddington, ce qui serait normal si le vent était dû à la pression de radiation. Mais, justement, il semble que ce ne soit pas le cas et que celle-ci est insuffisante pour souffler de telles quantités de gaz. Aussi, malgré des centaines d’articles déjà publiés sur la question depuis quelques années, on peut dire que le problème est encore loin d’être résolu. Ce qui est clair, c’est que les vents semblent très communs dans les NAGs non radio et qu’ils remplacent très probablement les jets des quasars et des NAGs radio. Mais pourquoi, on ne le sait pas encore. J’ai très peu parlé de la variabilité du rayonnement X dans ce chapitre. Elle a pourtant joué un rôle crucial dans l’élaboration de modèles comme celui des éruptions à la surface du disque d’accrétion. J’ai voulu éviter de rentrer dans les arcanes d’un sujet très complexe encore loin d’être résolu et qui ne me paraissait pas indispensable pour faire comprendre les phénomènes essentiels se produisant au voisinage du trou noir. À titre d’exemple cependant, la figure 11.18 donne l’enregistrement de l’intensité dans le domaine de 2 à 10 keV de MCG -6-30-15 obtenue pendant une centaine d’heures d’observation avec le satellite XMM-Newton. On voit que l’intensité varie d’un facteur de deux ou trois en deux ou trois heures et qu’elle fluctue également de façon importante dans un temps dix fois plus court. La raie du fer suit les variations d’intensité, ainsi que le spectre qui change de forme durant cette période. D’après les auteurs de l’article, ces changements sont bien expliqués dans le cadre des modèles de réflexion sur le disque. Mais d’autres objets ont des comportements différents et la question est loin d’être tranchée. Nous avons vu à plusieurs reprises que l’interprétation des observations X dans les NAGs a été trouvée par analogie avec les trous noirs stellaires. Ces derniers ont pourtant des masses au moins un million de fois moins grandes. C’est que les processus physiques autour des trous noirs dépendent assez

343

344

Des quasars aux trous noirs

Figure 11.18. Courbe de lumière de MCG -6-30-15 observée avec XMM-Newton par Vaughan et Fabian(2004) [100]. Les données ont été séparées en 10 intervalles de flux pour étudier la forme du spectre dans chacune d’entre eux.

peu de leur masse, la différence semblant résider seulement dans un facteur d’échelle proportionnel à la masse : une région ayant une dimension d’une année-lumière dans un NAG a une dimension d’une seconde-lumière dans un trou noir stellaire. Il existe un point sur lequel les NAGs semblent différer des trous noirs stellaires, c’est la périodicité des variations. On en observe souvent dans les trous noirs stellaires. On les appelle des QPO, pour « Quasi Periodic Oscillations ». Quelle horloge règle ces oscillations ? On ne le sait pas trop. Certains pensent qu’elles sont dues à des instabilités du bord intérieur du disque d’accrétion, car elles correspondent à sa période de rotation (de l’ordre d’une fraction de seconde). Les NAGs et les quasars devraient exhiber des oscillations identiques, mais avec des périodes de l’ordre d’une année. Or, bien qu’elles aient été souvent annoncées, elles se sont toujours avérées fausses et aucune n’a jamais été confirmée dans un NAG. Aussi continue-t-on patiemment à les chercher. . . Un seul NAG montra de belles variations quasi périodiques : des observations effectuées avec plusieurs satellites X avaient révélé sans ambiguïté que le noyau de la galaxie de Seyfert NGC 6814 variait périodiquement et surtout que ces variations se produisaient en quelques centaines de secondes. Jamais on n’en avait observé de si rapides ! NGC 6814 fut donc abondamment observée – ce qui était normal puisque l’on voulait s’assurer de la réalité des variations – et les théoriciens imaginèrent des mécanismes plus ingénieux les uns que les autres pour expliquer le phénomène. . . Ce n’est qu’en 1993 [59] que l’on s’aperçut grâce à la bonne résolution angulaire du satellite ROSAT qu’une autre source X – une étoile « cataclysmique » de notre Galaxie – se trouvait à environ un demi degré du noyau de la galaxie de Seyfert et que c’était elle

Le cœur bouillant des quasars

qui variait rapidement et périodiquement21 . Pendant presque dix ans, les théoriciens s’étaient donc évertués à inventer des modèles plus astucieux les uns que les autres pour expliquer un phénomène qui n’existait pas ! Quelques articles sur le phénomène parurent même après la découverte de l’étoile car ils avaient été soumis avant et le processus d’impression était déjà enclenché. Cette histoire prouve une fois de plus qu’il faut se méfier de toute découverte insolite et ne pas oublier toutes les incertitudes qui grèvent les observations. Pour en finir avec ce chapitre sur les disques d’accrétion et le rayonnement X, je dois dire que j’avais moi-même réorienté en partie mes recherches dans les années quatre-vingt-dix vers ce domaine prometteur. Notre équipe s’était un peu modifiée dans ce but. Evlabia Rokaki et Jean-Marc Huré22 avaient effectué des thèses sur les disques d’accrétion. Avec AnneMarie Dumont et Martine Mouchet, transfuge des étoiles binaires, et aidées de plusieurs « thésards » et « post-docs », nous avions entamé une collaboration avec des chercheurs polonais, en particulier Bozena Czerny, grande spécialiste des phénomènes d’accrétion, et nous nous étions attaquées à l’étude des différents processus de rayonnement dans le domaine X. Récemment enfin, Hélène Sol, déjà spécialisée dans l’étude des jets, et Catherine Boisson, se sont lancées avec succès dans les observations des NAGs dans le domaine très énergétique du TeV avec l’instrument HESS.

21 Rappelons que les positions des sources X étaient très mal définies avant les missions ROSAT, XMM-Newton et Chandra. 22 Malheureusement, Evlabia est repartie dans son pays, la Grèce, où elle mène une vie de mère de famille en regrettant toutefois la recherche dont elle était une passionnée. Jean-Marc a par la suite bifurqué sur les disques protostellaires, domaine très prometteur à l’ère des planètes extra-solaires.

345

This page intentionally left blank

Chapitre 12

Des volcans éteints au cœur des galaxies Nous voici presque arrivés au terme de notre voyage dans l’histoire des quasars. Nous savons maintenant qu’ils contiennent un trou noir, nous savons à peu près comment ce trou noir fonctionne et nous avons appris par quels détours souvent imprévus ces connaissances ont été acquises. Nous savons également que les quasars sont des objets du passé dans le cœur de galaxies lointaines et que les Noyaux Actifs de Galaxies sont leurs petits frères proches et actuels. Mais, pour une raison que nous n’avons pas encore abordée, la population des quasars a souffert de malthusianisme et de dégénérescence et elle est actuellement soit bien moins nombreuse soit bien moins vigoureuse qu’auparavant. Par ailleurs, nous avons vu que la durée de vie des quasars est bien plus petite que l’âge de l’Univers, et ceci nous a déjà amené à nous demander ce que sont devenus les quasars du passé. Ce sont les points que nous allons discuter dans ce chapitre. Comment les quasars évoluent-ils ? Que sont devenus les « quasars morts » ? Pourquoi l’Univers n’est-il plus capable maintenant d’engendrer les mêmes quasars que dans sa jeunesse, en d’autres termes, pourquoi les NAGs sont-ils moins puissants ou moins nombreux1 que les quasars ? Nous avons vu que les NAGs les plus lumineux, les noyaux des galaxies de Seyfert, sont typiquement cent fois plus faibles que les quasars. Quant à la majorité des noyaux de galaxies de notre univers local, ils sont bien plus faibles encore. Ce pourrait être simplement dû au fait que le nombre de quasars lumineux par unité de volume est très petit et qu’il ne s’en trouve par conséquent aucun dans notre environnement immédiat parce qu’il correspond à un très petit volume. Et qu’inversement, il est difficile 1 Quand on dit « moins nombreux », il s’agit du nombre d’objets dans un volume donné, volume qui lui-même a subi l’expansion de l’Univers, c’està-dire qui était plus petit avant que maintenant, et que l’on nomme à ce titre « co-volume ».

348

Des quasars aux trous noirs

de détecter des quasars très faibles à grande distance. Mais ces raisons ne suffisent pas : ainsi que l’avait montré Maarten Schmidt dès 1967 les quasars ont été plus nombreux ou plus lumineux (ou les deux) dans le passé.

Où l’on vérifie que l’Univers fabriquait des quasars plus puissants dans le passé On ne pouvait distinguer entre les deux hypothèses car on ne connaissait que les quasars très lumineux à grande distance et les noyaux de galaxies actifs, beaucoup plus faibles, à petite distance. Lorsqu’on disposa d’un nombre suffisant de quasars, on détermina ce que l’on nomme la « fonction de luminosité », c’est-à-dire le nombre de quasars en fonction de la luminosité, et ceci pour différentes valeurs du décalage donc de la distance ou du temps cosmologique. On obtenait des courbes comme celles de la figure 12.1.

Figure 12.1. Fonction de luminosité des quasars et des NAGs telles qu’on les obtenait dans les années soixante-dix et quatre-vingts. On ne pouvait distinguer entre une évolution en luminosité (la flèche horizontale) et une évolution en nombre (la flèche verticale) car notre connaissance de la fonction de luminosité était trop parcellaire.

Depuis cette époque, on a fait énormément de progrès et l’on est aujourd’hui capable de déterminer avec une grande précision la fonction de luminosité des quasars depuis les plus faibles jusqu’aux plus lumineux en tenant compte du rayonnement dans tous les domaines de longueurs d’onde, à grand

Des volcans éteints au cœur des galaxies

349

Figure 12.2. Fonction de luminosité des quasars dans le domaine X pour différents décalages. La courbe en pointillés correspond à une évolution en luminosité pure, et celle en tirets à une évolution en nombre et en luminosité. On voit qu’il est maintenant possible de distinguer entre les deux types d’évolution à grand décalage : l’évolution en luminosité pure doit être rejetée. De Miyaji et Schmidt 2005.

et à petit décalage, et même en prenant en compte ceux que l’on ne voit pas car il ne sont pas dirigés dans la bonne direction. À titre d’exemple, la figure 12.2 montre la fonction de luminosité dans le domaine X (entre 0,5 et 2 keV) obtenue à l’heure actuelle pour différentes valeurs du décalage. Inversement, on peut aussi déterminer le nombre de quasars par unité de volume (en fait de « co-volume »), ou bien l’intensité de leur rayonnement, en fonction du décalage (ou de l’époque), pour différentes luminosités. La figure 12.3 nous montre que l’évolution des quasars dépend fortement de la luminosité. Sur la figure de gauche, on voit que le nombre de quasars lumineux a culminé à un décalage de 2-3, correspondant à un âge de l’Univers de 2 à 3 milliards d’années, tandis que le nombre de quasars faibles a été maximum vers z = 1, soit un âge de l’Univers de 6 milliards d’années. On a d’ailleurs l’impression que le nombre de quasars les plus lumineux continue à augmenter au moins jusqu’au décalage de 5, correspondant à un âge de l’Univers d’un milliard d’années. D’autre part, comme les quasars sont dominés par les petites luminosités, le nombre total de quasars a été maximum vers z = 1. Par contre leur activité énergétique

350

Figure 12.3. Nombre de quasars à gauche, et intensité de leur rayonnement à droite, par unité de co-volume, pour différentes luminosités totales (incluant tous les domaines de longueur d’onde), d’après Hasinger, Miyaji et Schmidt 2005. Comme pour la figure précédente, les courbes en pointillés correspondent à une évolution en luminosité pure et celles en tirets à une évolution en luminosité et nombre.

Des quasars aux trous noirs

a culminé entre z = 2 et 3 ainsi que le montre la figure de droite. Curieusement, nous verrons un peu plus loin que c’est également le moment où le taux de formation d’étoiles a été le plus élevé. L’évolution des quasars en luminosité est encore plus évidente sur la figure de droite. Il est donc clair que les phénomènes produisant aujourd’hui l’activité des noyaux de galaxies sont beaucoup moins violents que dans le passé. Par ailleurs, les travaux de Soltan avaient montré dès le début des années quatre-vingts que les galaxies de Seyfert étaient bien trop clairsemées pour contenir tous les quasars en fin de vie. Pour connaître la démographie des trous noirs massifs il fallait donc rechercher des quasars complètement « morts » dans les galaxies « normales » sans noyau actif : elles devaient nécessairement recéler dans leur cœur des trous noirs massifs, résidus de la période active des quasars.

Où l’on découvre enfin que les « quasars morts » sont tapis dans les cœurs des galaxies « normales » Déterminer la masse d’un astre n’est pas aisé. J’ai dit qu’on peut le faire dans le cas des étoiles binaires, et encore la mesure est-elle alors entachée d’incertitude sauf si l’on connaît

Des volcans éteints au cœur des galaxies

l’inclinaison de l’orbite des deux étoiles par le moyen des éclipses mutuelles. On peut donc imaginer les difficultés rencontrées pour déterminer la masse d’un trou noir ne faisant pas partie d’un système binaire et a fortiori d’un trou noir tapi au cœur d’une galaxie normale dont nous ne recevons aucune information directe. Un trou noir – mais ceci s’applique à tout corps massif – exerce une influence gravitationnelle importante sur son entourage tant que sa masse reste dominante. On appelle cela sa « sphère d’influence ». À l’intérieur de cette sphère les étoiles savent en quelque sorte qu’il y a un trou noir. À l’extérieur elles l’ignorent. Le rayon de la sphère d’influence est typiquement de quelques années-lumière dans un quasar. Dans la sphère d’influence les vitesses des étoiles ne dépendent que de leur distance au trou noir et de sa masse. Elles sont exprimées par une formule simple dont l’explication est donnée dans l’annexe B. Je l’ai utilisée implicitement à plusieurs reprises, par exemple à propos de la vitesse de libération. Comme elle joue un grand rôle dans la suite du chapitre, je préfère la donner ici bien que j’essaie d’éviter les équations dans le corps du texte : si la masse du trou noir est exprimée en masse solaire (appelons-la Msolaire ) et si Ra-l est en année-lumière la distance au trou noir d’une étoile ou d’un nuage de gaz, leur vitesse sera égale 0,12 kilomètre par seconde multiplié par la racine carrée de Msolaire /Ra-l . Ce qui signifie qu’à une distance d’une annéelumière d’un trou noir de cent millions de masses solaires, une étoile aura une vitesse voisine de 1 200 kilomètres par seconde. Sa vitesse sera de 12 000 kilomètres par seconde si elle est cent fois plus proche du trou noir2 . On a inventé plusieurs méthodes pour traquer la masse des trous noirs dans les quasars et dans les noyaux de galaxies mais les plus utilisées et les plus fiables sont sans conteste basées sur les mesures de vitesse. Malheureusement, ces vitesses sont difficiles à déterminer puisque l’on ne peut mesurer par effet Doppler qu’une composante de la vitesse, celle qui est projetée sur la ligne de visée. Cependant, cette seule mesure permet de remonter à la vitesse réelle lorsque l’on a affaire à de la rotation dans un plan bien défini dont on connaît l’inclinaison. C’est le cas des galaxies spirales car elles ont la 2 J’ai écrit que la vitesse était « voisine » de cette valeur et non « égale » à elle car l’expression est connue à un facteur numérique près qui dépend du type de mouvement de l’étoile. Elle n’est valable que si l’étoile est en rotation circulaire autour du trou noir ; par contre si elle « tombe » en chute libre il faut multiplier cette valeur par 1,4 (la racine carrée de 2). On reconnaît ici la vitesse de satellisation et celle de libération.

351

352

Des quasars aux trous noirs

forme de disques aplatis dont on peut déterminer la « courbe de rotation »** et même de certaines galaxies elliptiques dont les régions centrales contiennent également un disque. Nous avons vu avec NGC 1068 comment cette courbe de rotation a permis de déterminer la masse des régions circum-nucléaires de la galaxie. Pour obtenir la masse du trou noir il faut être capable de déterminer la courbe de rotation dans les régions les plus centrales, là où le trou noir domine, c’est-à-dire dans un rayon de l’ordre d’une année-lumière3 . Ce n’est évidemment possible que pour les galaxies les plus proches. Par exemple pour une galaxie distante de vingt millions d’années-lumière dans l’amas de la Vierge, il faut déjà une résolution meilleure qu’un centième de seconde d’arc. On l’atteint à peine avec le télescope de Hubble ou bien avec les grands télescopes au sol bénéficiant d’une technologie née dans les années quatre-vingt-dix, « l’optique adaptative » qui permet de corriger les images en éliminant les perturbations dues à la turbulence atmosphérique4 . C’est ici que la radio-astronomie supplante une fois de plus l’astronomie optique. De ce point de vue, elle est bien plus performante que les grands télescopes optiques puisque l’on est capable d’atteindre des résolutions de quelques dixmillièmes de seconde d’arc avec l’interférométrie à très grande base. La galaxie NGC 4258 est une galaxie spirale sans histoire située à environ 25 millions d’années-lumière, possédant un faible noyau actif que l’on hésite à qualifier de « LINER » ou bien de Seyfert de type 2. Le noyau de cette galaxie est entouré d’un cocon de poussière absorbant une grande partie du rayonnement optique mais laissant passer le rayonnement radio. On y observe dans le domaine radio ce que l’on nomme des « masers », dus à des molécules présentes dans le gaz interstellaire. En l’occurrence il s’agit de molécules de vapeur d’eau excitées par l’énorme rayonnement infrarouge du noyau actif (Encadré 12.1).

3 Il serait plus juste de dire qu’il domine jusqu’à une distance de dix à cent mille rayons de Schwarzschild, ce qui correspond à environ une annéelumière pour un trou noir de cent millions de masses solaires. 4 Cette technique a été développée particulièrement dans le département d’astronomie spatiale de l’Observatoire de Paris-Meudon, au sein de l’équipe de Pierre Léna.

Des volcans éteints au cœur des galaxies

Encadré 12.1. Les « masers » sont l’équivalent radio des lasers en optique** : la lettre « m » (pour « micro-onde ») remplace la lettre « l » de « Light Amplification by Stimulated Emission of Radiation ». Les premiers masers furent découverts en 1963 dans des nuages moléculaires de la Voie lactée proches de puissantes sources infrarouges – des étoiles en formation. Puis on en découvrit dans certains NAGs ayant une très grande luminosité infrarouge et contenant beaucoup de gaz moléculaire – donc associées à une intense formation d’étoiles. On les appela des « mega-masers », car ils sont environ un million de fois plus puissants que ceux de notre galaxie. Dans ce cas, le pompage nécessaire au déclenchement de l’émission stimulée est causé par le rayonnement infrarouge du noyau, tandis qu’il est dû au rayonnement ultraviolet pour les lasers.

En 1995, une équipe de radio-astronomes américains et japonais observèrent avec la technique de l’interférométrie à très longue base plusieurs masers pratiquement alignés occupant une région d’environ une année-lumière dans le noyau de NGC 4258 [67]. Ils constatèrent à leur grande surprise que les vitesses projetées sur la ligne de visée étaient élevées, de 500 à 1 000 kilomètres par seconde. Si les masers étaient soumis à l’attraction d’une masse centrale, cela signifiait en appliquant la formule précédente, qu’elle devait être de quelques dizaines de millions de masses solaires. Mais mieux encore, les vitesses variaient régulièrement d’un bout à l’autre de la ligne, diminuant exactement comme l’inverse de la racine carrée de la distance au centre des masers. Les masers étaient donc animés d’un mouvement de rotation rigoureusement képlérien autour d’un corps massif de 36 millions de masses solaires. C’était à cette époque la plus grande condensation de matière jamais détectée. Cette galaxie n’avait d’ailleurs pas fini de nous livrer ses secrets. On pouvait mesurer également les mouvements propres des masers (c’est-à-dire leurs mouvements sur la sphère céleste). En combinant ces mesures avec celles des vitesses projetées sur la ligne de visée on obtenait les vitesses réelles des masers, permettant d’affiner encore le modèle. Enfin, on observait également dans le noyau un jet radio, faible certes, mais indubitablement présent, situé à la base d’un bien plus grand jet s’étendant sur une dizaine de milliers d’années-lumière de

353

354

Figure 12.4. Le disque d’accrétion et le jet dans le noyau de NGC 4258. L’image du haut montre le disque (lègèrement gauchi, comme on le voit) sur lequel se placent les masers observés (à gauche ceux qui s’éloignent, à droite ceux qui se rapprochent de nous). Ils se situent tous sur une ligne passant par le centre dans le plan du ciel car c’est là que l’effet d’amplification dans notre direction est le plus efficace. Leur vitesse est rigoureusement képlérienne compte tenu de la projection. On distingue une sorte de petite flamme au centre : c’est un jet vu en lumière radio continue tandis que les masers sont observés dans les raies spectrales des molécules. La figure du bas est une carte radio à beaucoup plus grande échelle, montrant en particulier que la direction du jet à très petite échelle la même que celle du jet à grande échelle (c’est l’axe de rotation du disque d’accrétion).

Des quasars aux trous noirs

part et d’autre du noyau. Les astrophysiciens avaient donc trouvé avec cette galaxie l’archétype parfait d’un NAG radio, tel qu’ils n’avaient osé en rêver, avec son trou noir géant, son disque d’accrétion et son jet s’étendant depuis les bords du trou noir jusqu’aux régions lointaines de l’espace intergalactique (Figures 12.4 et 12.5). Cette observation remarquable concernait cependant encore une fois un NAG et non une galaxie « normale » – bien que l’on sache maintenant que la moitié des galaxies au moins contient un noyau actif à des degrés divers. Or, dès les années quatre-vingts, des astronomes comme les américains Kormendy et Richstone avaient entrepris de mesurer les courbes de rotation des régions les plus centrales des galaxies proches par le truchement de spectres afin d’en déduire la masse du noyau5 . Ils trouvaient en général une masse de l’ordre de cent millions de masses solaires dans un rayon de quelques centaines d’années-lumière. On se serait donc attendu à ce que cette région rayonne autant que le feraient cent millions d’étoiles. C’était loin d’être le cas : ces noyaux étaient presque invisibles ! On avait affaire 5

Il ne s’agit évidemment pas ici des vitesses individuelles des étoiles, mais de celles d’un ensemble d’étoiles non discernables séparément.

Des volcans éteints au cœur des galaxies

355

Figure 12.5. Cette figure est un composite d’une image visible et d’une image X de la galaxie NGC 4258. L’image visible montre les bras spiraux habituels dans une galaxie, composés d’étoiles jeunes. L’image X montre des bras spiraux composés de gaz très chaud. On pense que ceux-ci se sont détachés du jet relativiste provenant du noyau. Cette image a permis de résoudre le mystère de la « spirale fantôme » datant de presque un demi-siècle.

à une énorme « masse noire ». De là à franchir le pas et penser qu’il s’agissait de trous noirs... Mais cette masse aurait tout aussi bien pu être celle d’un amas d’étoiles compactes peu lumineuses telles que des étoiles à neutrons. La présence de cent millions d’étoiles à neutrons dans les noyaux des galaxies était étrange mais elle ne l’était pas plus que celle d’un trou noir géant. On discuta alors beaucoup au début de la décennie quatre-vingt dix, d’autant que la plupart du temps on ne disposait pas toujours de belles courbes de rotation et que l’interprétation en termes de masse n’allait pas de soi. La première « masse noire » centrale détectée de plus d’un milliard de masses solaires avait été celle de M 87, la fameuse radiogalaxie Virgo A mentionnée plusieurs fois dans ce livre. Nous savons qu’on la considère comme une galaxie active avec son jet se développant sur des milliers d’années-lumière ; mais son noyau est très peu brillant et ressemble à celui d’une quelconque galaxie elliptique géante. Un long débat s’ensuivit à propos de cette galaxie car les mesures concernaient une région de plusieurs centaines d’années-lumière et les vitesses étaient très perturbées par rapport à une simple rotation. Ce n’est qu’avec l’avènement des très grands télescopes au sol, comme les Keck6 à Hawaï et le VLT, et lorsqu’on utilisa le télescope de Hubble avec des instruments très sensibles, que les mesures atteignirent un degré de précision suffisant pour 6 Du nom du mécène qui a financé ces deux télescopes jumeaux de dix mètres de diamètre appartenant maintenant à l’université de Californie et à Caltech.

356

Des quasars aux trous noirs

s’assurer que la masse était localisée à l’intérieur d’une dizaine d’années-lumière. Il devint alors évident qu’un amas d’étoiles aussi massif dans un volume aussi petit ne pourrait résister à l’effroyable poussée de la gravitation et que, tôt ou tard, les étoiles devaient fusionner pour laisser la place à un unique trou noir, comme l’avait déjà suggéré Rees dans les années soixante-dix (Encadré 12.2).

Encadré 12.2. Même notre proche voisine, la galaxie d’Andromède (M 31), recèle en son cœur une masse noire de plus de cent millions de masses solaires. Mais ce n’était pas évident dans les années quatre-vingt-dix. La complexité de cette galaxie, avec en particulier une sorte de « deuxième noyau », interdisait toute conclusion ferme ainsi que le montrèrent Roland Bacon, Éric Emsellem, Guy Monnet et Jean-Luc Nieto7 qui déterminèrent avec le plus grand soin la courbe de rotation autour du noyau [6]. Depuis peu, on a découvert que le cœur de cette galaxie contient d’autres curiosités, comme un anneau de gaz très probablement dû à une collision frontale avec la petite galaxie proche M 32 [11]. Ce phénomène peut sans doute expliquer la cinématique perturbée des régions centrales de M 31.

Vers le milieu des années quatre-vingt-dix, on disposait de la valeur des « masses noires » au centre d’une quarantaine de galaxies proches et beaucoup d’astronomes commençaient à penser qu’il s’agissait de trous noirs massifs. En 1998, le jeune John Magorrian et ses collaborateurs (dont plusieurs spécialistes de la traque des trous noirs massifs) réanalysèrent soigneusement les données cinématiques concernant toutes ces galaxies et ils annoncèrent qu’ils avaient trouvé une relation entre la masse d’un « objet massif noir » au centre de chaque galaxie (ils restaient très prudents. . . ) et la luminosité du bulbe de la galaxie [60]. Le bulbe est la partie sphéroïdale d’une galaxie, petite dans les galaxies spirales, très développée dans les elliptiques dont certaines sont entièrement réduites à cette région. Comme je l’ai déjà dit, on a longtemps pensé que ce bulbe était la relique d’un lointain passé de la galaxie, formée au moment de l’effondrement du nuage intergalactique, 7

Jean-Luc fit les observations pour ce travail, mais disparut prématurément avant la publication de l’article.

Des volcans éteints au cœur des galaxies

357

Figure 12.6. Relation entre la masse du trou noir central et celle du bulbe de la galaxie.

mais nous allons voir dans un instant que ce n’est pas toujours le cas. Magorrian et ses collaborateurs déduisaient que la masse des objets noirs devait être égale à six millièmes de la masse du bulbe. Les spirales contenaient donc de « petits » trous noirs de l’ordre de dix millions de masses solaires et les elliptiques de « gros » trous noirs, de l’ordre d’un milliard de masses solaires. On peut schématiser ce résultat par la figure 12.6, inspirée d’un dessin de Guinevere Kauffmann. Deux ans plus tard, la relation entre le trou noir et le bulbe fut affinée par Laura Ferrarese et David Merritt d’un côté [34], Karl Gebhard et ses collaborateurs de l’autre [37]. Leurs deux articles furent d’ailleurs publiés dans le même volume de l’Astrophysical Journal et je suppose que ce fut délibéré8 . Dans les deux cas, ils trouvaient que la relation était bien mieux définie entre la masse du trou noir et « la dispersion de vitesse » du bulbe (la distribution des vitesses aléatoires) qu’entre la masse du trou noir et la luminosité du bulbe. Les étoiles au sein du bulbe qui a une structure sphéroïdale ne tournent en effet pas tranquillement dans un plan, elles se déplacent sur des orbites dans des plans distribués au hasard. Ce que l’on peut alors mesurer c’est la distribution moyenne de toutes ces vitesses que l’on nomme la « dispersion de vitesse ». La petite formule du début du chapitre s’applique aussi à la dispersion de vitesse, mais avec une incertitude un peu plus grande. La dispersion de vitesse est donc une mesure directe de la masse du bulbe tandis que la luminosité en est une mesure indirecte. 8

C’est une preuve de plus que les mêmes idées viennent en même temps à différentes personnes. . .

358

Figure 12.7. À gauche, image optique de la « Roue de Char » obtenue avec le télescope Hubble, sur laquelle on a superposé les contours obtenus en rayons X obtenus avec le satellite Chandra. À droite, image de la même région mais uniquement en rayons X, montrant les sources X super-lumineuses. La structure particulière de cette galaxie est due vraisemblablement à la collision frontale avec une petite galaxie qui l’a traversée de part en part il y a environ cent millions d’années y laissant la trace des ondes qu’elle a crées, comme une pierre qu’on lance à la surface de l’eau crée des ondes circulaires.

Des quasars aux trous noirs

Les deux groupes n’étaient cependant pas d’accord sur la forme exacte de la relation, d’où découlèrent d’acerbes discussions au cours de certains congrès. Une étude de Scott Tremaine et de ses collaborateurs proposant une relation intermédiaire les réconcilia (du moins je l’espère) et cette dernière fut adoptée dans les travaux ultérieurs [99]. La masse du trou noir fut ramenée approximativement à deux millièmes de la masse du bulbe. Comme on peut le voir sur la figure 12.6, un problème demeure : que se passe-t-il avec les galaxies sans bulbe (et parfois sans noyau, d’ailleurs) ? Ont-elles ou n’ont-elles pas de trou noir central ? On a découvert dans plusieurs d’entre elles comme dans M 33 ou dans la fameuse galaxie « la Roue du Char » (Cartwheel) des sources X appellées « ultralumineuses » qui ne sont pas situées au centre des galaxies (Figure 12.7). Elles sont trop puissantes pour être de simples trous noirs stellaires et pas assez pour être des NAGs standards. Certains pensent que ce sont des trous noirs de quelques dizaines de masses solaires ayant une puissance supérieure à la luminosité d’Eddington**9 , ou bien possédant un jet amplifié car dirigé vers nous**. D’autres au contraire, étendant à ces galaxies le graphique précédent, croient que ce sont des trous noirs « intermédiaires » d’environ dix mille masses solaires. Cette question est très importante. En effet, il manque visiblement un chaînon entre les trous noirs massifs et les trous noirs stellaires ; et l’existence de trous noirs de masse 9

Grâce à l’éjection de « boules » de photons de lumière.

Des volcans éteints au cœur des galaxies

intermédiaire serait bien séduisante dans ce contexte. Pour le moment la question n’est pas tranchée et la bataille fait rage, comme d’habitude. Il nous faut donc attendre patiemment le verdict des spécialistes qui viendra sûrement un jour ou l’autre lorsque suffisamment d’observations permettront de trancher entre les deux hypothèses. Ce qui est le plus surprenant dans cette relation entre la masse du bulbe et celle du trou noir c’est qu’elle n’est pas restreinte aux étoiles sous influence directe du trou noir. Tout se passe comme si le trou noir savait ce que sont les mouvements d’étoiles bien trop éloignées pour sentir son champ gravitationnel, ou du moins qu’il était relié au bulbe par un mécanisme de formation commun. L’existence cette relation était donc une grande découverte (une fois de plus inattendue) car elle impliquait une évolution parallèle des galaxies et des trous noirs. Non seulement on avait montré en l’espace de quelques années que les galaxies dites « normales » contenaient un trou noir massif mais, de surcroît, qu’il avait probablement évolué en même temps que la galaxie elle-même. Ce n’était pas si évident. Je me rappelle en effet avoir assisté vers 1990 à un séminaire sur la formation et l’évolution des galaxies donné par un scientifique de grand renom et lui avoir posé la question : « Mais tu fais abstraction de l’existence de trous noirs massifs dans les noyaux des galaxies, ne crois-tu pas qu’ils ont une influence sur la formation et l’évolution des galaxies elles-mêmes ? » Et m’être attiré cette réponse un peu méprisante : « Non, leur évolution n’a rien à voir avec celle des galaxies, on n’a pas à en tenir compte. »

Comment on pèse les trous noirs dans les NAGs et les quasars Avant de chercher la raison de cette relation demandons-nous ce que deviennent les NAGs et les quasars dans tout cela. Leur masse est-elle également proportionnelle à celle du bulbe de leur galaxie hôte ? Malheureusement, les NAGs et les quasars sont bien trop lumineux pour que l’on puisse utiliser la même méthode que dans les galaxies normales pour déterminer la masse du trou noir. Il est d’ailleurs amusant que les trous noirs dans les NAGs – qui ont été découverts bien avant ceux des galaxies normales – ont été beaucoup plus difficiles à « peser ». Le rayonnement

359

360

Des quasars aux trous noirs

du noyau domine en effet complètement sur celui des régions centrales de la galaxie et noie les raies spectrales en absorption servant à construire les courbes de rotation. Quant aux raies en émission, elles proviennent d’une région minuscule qui n’est pas encore résolue spatialement même par les instruments les plus performants. Heureusement, une parade fut trouvée à ce problème. J’ai expliqué dans le chapitre 4 que les gaz émettant les raies brillantes dans les NAGs sont chauffés et ionisés par le rayonnement ultraviolet et X qui provient des régions toutes proches du centre, et que c’est à la suite de ces processus qu’ils émettent des raies spectrales. Donc, si le rayonnement ultraviolet varie, les raies spectrales doivent répondre à ces variations. Cependant, elles ne doivent pas le faire instantanément, mais au bout du temps que met la lumière à parcourir la distance qui sépare la région émettant l’ultraviolet de celle émettant les raies spectrales. Et puisque le rayonnement continu visible provient comme le rayonnement ultraviolet et X d’une région toute petite au centre du noyau (le disque d’accrétion), les raies spectrales doivent répondre tout simplement aux variations d’éclat visible. Blandford et McKee suggérèrent en 1982 une méthode pour « cartographier » les régions émettant les raies dans les NAGs [17]. Elle consistait à observer régulièrement et fréquemment les raies spectrales et le continu et à tracer leurs « courbes de lumière »10 . Les différentes parcelles de la région émettant les raies devaient répondre aux variations du continu après des laps de temps différents et l’on devait observer à chaque instant une partie différente de cette région. Tout devait se passer comme dans une tomographie où l’on reconstitue une image à trois dimensions à partir de coupes à deux dimensions. De plus, on pouvait aussi disposer d’informations sur les vitesses grâce aux profils des raies, on devait donc être capable de restituer à tout moment non seulement la structure de la BLR mais également son champ de vitesse. Cette méthode est appelée « reverberation mapping » c’est-àdire « cartographie par réverbération » parce qu’elle exploite le fait que la région émissive réverbère la lumière centrale (Figure 12.8 et Encadré 12.3).

10

Je rappelle que la « courbe de lumière » est la variation de l’intensité en fonction du temps.

Des volcans éteints au cœur des galaxies

361

Figure 12.8. Coupe de la région émissive des raies, supposée en forme d’enveloppe sphérique de rayon r, répondant aux variations d’une source située au centre (en noir). Les lignes en pointillés représentent les coupes des surfaces « de même délai », c étant la vitesse de la lumière. On voit que si la source centrale subit un flash de lumière, la variation la plus importante des raies (correspondant à la plus grande surface atteinte) sera perçue après un temps égal à r/c mais qu’il y aura une variation faible également après un temps très court et que la réponse se prolongera jusqu’à 2r/c après le flash. D’après Peterson, 2000.

Encadré 12.3. Il est probable que la cartographie par réverbération sera supplantée dans quelques années par une méthode plus directe, au moins pour les NAGs les plus proches, lorsque l’interférométrie optique à grande distance (de l’ordre du kilomètre) verra le jour sur les grands télescopes de Hawaï et de l’ESO, et probablement plus tard lorsque des projets encore plus ambitieux coupleront des télescopes optiques plus distants. Le projet international OHANA (pour « Optical Hawaiian Array for Nano-radian Astronomy » mais le mot Ohana signifie aussi « famille » en langue hawaïenne) conduit par Guy Perrin du département spatial de l’Observatoire de Paris-Meudon se propose de coupler à l’aide de fibres optiques les sept plus grands télescopes présents sur le mont Mauna Kea à Hawaï. Ils formeront alors un interféromètre géant dont la résolution sera équivalente à celle d’un télescope de 800 mètres de diamètre (Figure 12.9) ! Un projet semblable se met en place pour les télescopes de l’ESO. On devrait alors parvenir à résoudre l’environnement des trous noirs dans les NAGs proches.

362

Des quasars aux trous noirs

Figure 12.9. L’Observatoire du Mauna Kea à Hawaï et les sept télescopes du projet OHANA.

À l’initiative d’un astronome anglais, Mike Penston, on décida donc en 1984 que plusieurs nations joindraient leurs efforts pour entreprendre une grande campagne d’observation des variations des raies spectrales dans les NAGs. Baptisée « AGN Watch » (ou « surveillance des NAGs »), elle a été intensive pendant une vingtaine d’années mais elle continue encore actuellement et je parierais qu’elle n’est pas près de s’arrêter. Elle a mobilisé périodiquement plusieurs grands télescopes et certains petits télescopes lui ont été entièrement dédiés. Malheureusement, Mike Penston disparut prématurément avant d’en connaître les résultats dont il aurait été le premier étonné. Car on peut dire que si les espoirs suscités par cette campagne furent immenses et largement déçus, les surprises qu’elle réserva furent au moins aussi intéressantes que les prévisions, sinon plus, et finalement le bilan en fut très positif. Ce que l’on espérait tirer de ces campagnes d’observations acharnées, c’était quelques informations sur la structure de la région émettant les raies spectrales dont on n’avait pas la moindre idée. On aurait par exemple aimé savoir si la région émissive était conique, sphérique ou plate, quelle part de « vent » elle contenait, bref, on aurait voulu comprendre un peu mieux sa nature. On pensait y parvenir car on mesurait non seulement les variations des intensités des raies, mais également les variations de leurs profils riches d’une énorme information potentielle. Cela aurait été effectivement possible si l’on avait disposé d’observations parfaites mais c’était loin d’être le cas : il aurait fallu des spectres d’une meilleure précision et des observations répétées plus fréquemment durant des périodes plus longues. On ne désespère pas d’y parvenir un jour et c’est pourquoi les observations continuent encore activement.

Des volcans éteints au cœur des galaxies

363

Figure 12.10. Courbes de lumière dans le continu visible et dans les trois raies de Balmer d’un quasar observé pendant six ans par Kaspi et ses collaborateurs [52]. L’abscisse en bas est en jour julien*.

En fait tout ce que l’on réussit à déterminer est une sorte de moyenne du temps de réponse des raies spectrales. Ce temps n’a en effet pas une valeur bien précise puisqu’il est différent pour chaque partie de la région émissive, comme le montre la figure 12.8. On s’attendait en tout cas à observer des courbes de lumière du continu précédant celles des raies et c’est bien ce qui arriva. À titre d’exemple, la figure 12.10 montre les courbes de lumière d’un quasar, pour différentes raies de Balmer et dans le continu visible (à 5 100 angströms), obtenues à l’Observatoire Wise en Israël dont le télescope est quasiment consacré à cette étude. Ces courbes sont très semblables et il n’est pas facile d’en extraire un temps de réponse des raies par rapport au continu mais on y parvient en utilisant des méthodes assez sophistiquées. On obtient alors une dimension caractéristique de la région émettant les raies « larges », celle qu’on appelle la Broad Line Region ou BLR. En ce qui concerne les raies « étroites », on n’en a jusqu’à maintenant jamais observé les variations, ce qui est normal puisqu’elles sont émises par une région de plusieurs centaines d’année-lumière. Un petit commentaire ici. De nombreux articles concernant les résultats de « l’AGN Watch » ont été publiés au cours de ces vingt dernières années : parfois plusieurs articles portent

364

Des quasars aux trous noirs

sur le même objet, ils sont tous très longs et signés par une soixantaine de personnes. Ce n’est pas un usage courant en astrophysique, contrairement à la physique nucléaire et à la physique des particules où il n’est pas rare de trouver une liste de plusieurs centaines de signataires pour un article. Elles correspondent à la communauté ayant développé les énormes instruments permettant d’obtenir les données recherchées. Excepté pour les expériences spatiales qui nécessitent elles aussi l’intervention de plusieurs équipes et de dizaines d’ingénieurs et de chercheurs, l’habitude en astrophysique est plutôt aux articles signés par trois ou quatre auteurs. Les articles émanant de « l’AGN Watch » étaient signés de l’ensemble des partenaires engagés dans la campagne et ils étaient gros car je suppose que chacun voulait y mettre son grain de sel. Ils avaient pour but d’expliquer en détail les techniques de réduction des données et les hypothèses utilisées, ce qui est légitime, sauf que l’on a en les lisant l’impression qu’ils se répètent beaucoup de l’un à l’autre, car ils font appel aux mêmes techniques et aux mêmes hypothèses. En général, les résultats n’étaient pas à la hauteur de la discussion et il fallut attendre de pouvoir en faire la synthèse – ce qui ne fut pas réalisé par l’ensemble de la collaboration mais par quelques individualités comme Wandel, Peterson et Kaspi – pour que la campagne prenne enfin son sens. La publication en soi, pour que les auteurs d’un travail, énorme certes mais pas immédiatement rentable, bénéficient d’un nombre d’articles suffisant, est donc une perversion de notre système de recherche. Et je ne parle pas ici pour la France seulement, mais pour l’ensemble de la communauté scientifique internationale. Il faudrait trouver une autre façon de valoriser ce type de travail sans qu’il soit nécessaire d’inonder les journaux scientifiques et de couper des forêts pour le faire connaître au monde (aujourd’hui on pourrait proposer que ce type d’article soit publié seulement électroniquement). Ce que n’avaient prévu ni Blandford et McKee, inventeurs de la méthode, ni ceux qui l’avaient mise en musique dans les années qui suivirent, c’était qu’elle permettrait de déterminer la masse des trous noirs centraux des NAGs ainsi observés. On peut en effet mesurer les largeurs des raies qui nous donnent une idée des vitesses dans la BLR. Si la région émettant les raies, ou au moins une partie d’entre elles, est gravitationnellement liée au trou noir, on peut déduire de leur largeur la masse du trou noir, toujours grâce à l’équation rappelée au début du chapitre. Or au moins une fraction de la

Des volcans éteints au cœur des galaxies

BLR – celle émettant principalement les raies de Balmer – est effectivement soumise à la gravité du trou noir11 . Munis de la taille approximative de la BLR et d’une vitesse moyenne due à l’attraction du trou noir, on pouvait donc calculer la masse de celui-ci, ce qui fut fait pour la quarantaine de quasars et de NAGs observés régulièrement. Les valeurs de la vitesse sont assez incertaines car ce que l’on mesure est une vague vitesse globale dépendant du type de mouvements et de la structure de la région émissive. Pourtant, en dépit de toutes les incertitudes accumulées dans les différentes étapes de la méthode, la fourchette d’erreur sur les masses est seulement de l’ordre d’un facteur trois environ. Elle est en fait comparable à celle que l’on obtient pour les trous noirs dans les galaxies normales. On peut affirmer par exemple que la masse d’un trou noir dans un NAG est de cent millions de masses solaires, et la probabilité pour qu’elle soit plus petite que cinquante millions ou plus grande que deux cents millions est faible. Mais ce n’était pas tout, loin s’en faut. Au cours de cette étude, on eut une première surprise. On découvrit que la masse des trous noirs est liée à leur luminosité par une relation assez lâche, certes, mais réelle (Figure 12.11). On discuta beaucoup sur cette relation mais elle traduisait tout simplement le fait que les objets étudiés étaient tous des galaxies de Seyfert ou des quasars moyennement puissants dont la luminosité est voisine de dix pour cent de la luminosité d’Eddington (une similitude de plus entre les quasars et les galaxies de Seyfert !). On se souvient en effet du chapitre précédent que lorsque le taux d’accrétion tombe au-dessous de quelques pour cent de la luminosité d’Eddington, le disque devient un « flot d’accrétion radiativement inefficace » dont la luminosité est très faible. Les raies « larges » deviennent alors très faibles (pour une raison encore non comprise) et l’on n’avait par conséquent inclus aucun de ces objets dans la campagne d’observation. On eut une autre surprise, tout aussi intéressante. Lorsque l’on considéra dans leur ensemble les dimensions déduites pour la BLR, on découvrit qu’elles étaient fortement corrélées avec la puissance des objets, comme le montre la figure 12.12. Étrangement, la cause de cette magnifique corrélation n’est pas encore comprise bien que diverses explications en aient été données (mais aucune tout à fait convaincante). Rien 11 Une autre partie est plutôt en éjection et dominée par d’autres forces que la gravité, ainsi que je l’avais personnellement défendu dans les années quatrevingts.

365

366

Figure 12.11. Relation entre la masse et la luminosité (en erg par seconde) des NAGs et quasars observés régulièrement. Les croix représentent les barres d’erreurs. Les cercles ouverts correspondent à une classe particulière d’objets, appelés les « Narrow Line Seyfert 1 ». La luminosité totale est calculée en supposant simplement qu’elle est égale à 9 fois la luminosité à 5 000 angströms (cette valeur est donnée par les observations). Les droites tracées donnent la valeur du rapport de la luminosité à celle d’Eddington ; ainsi que le prédit la théorie on n’observe pas de cas où ce rapport est plus grand que l’unité (aux incertitudes près) et l’on voit que tous les noyaux actifs se distribuent au voisinage d’un dixième de la luminosité d’Eddington. D’après Peterson et ses collaborateurs, 2004 [74].

Des quasars aux trous noirs

n’empêche cependant de l’utiliser, même si elle est purement empirique. Car que nous dit-elle ? Que lorsque nous connaissons la luminosité optique d’un quasar ou d’un NAG – ce qui est très facile – nous pouvons déduire la taille de sa BLR. Prenant alors un spectre et un seul de cet objet et mesurant les largeurs des raies de Balmer – ce qui n’est pas trop difficile – nous pouvons déterminer la masse du trou noir sans qu’il soit nécessaire de l’observer régulièrement pendant plusieurs années. Et de fait, depuis que cette relation a été trouvée, elle a été appliquée à des milliers de NAGs et de quasars. Et l’on a pu constater que lorsque la masse du bulbe est connue, la masse du trou noir est toujours à peu près égale à deux millièmes de celle du bulbe, comme celle des galaxies « normales ».

Trous noirs massifs et galaxies, même combat Donc on avait établi l’existence d’une relation remarquable entre la masse des trous noirs au cœur des galaxies, qu’ils soient actifs ou non, et la masse du bulbe de la galaxie hôte. La découverte de cette relation et sa mise en perspective avec ce que l’on savait déjà de la formation et de l’évolution des galaxies transforma notre vision de l’évolution des galaxies.

Des volcans éteints au cœur des galaxies

L’une des premières conséquences de cette découverte fut de vérifier que l’on retrouvait bien la même quantité de matière enfermée dans les trous noirs au cœur des galaxies normales que dans l’ensemble de tous les quasars. Ceci, plus le fait que la relation entre la masse des trous noirs et la masse des bulbes des galaxies est la même pour les trous actifs ou non actifs, est bien la preuve que les trous noirs géants dans les galaxies « normales » ont traversé un ou plusieurs épisodes pendant lesquels ils ont été de véritables quasars brillant de tous leurs feux, comme des volcans ayant eu leur heure de gloire et maintenant éteints. Depuis les années quatre-vingt-dix on savait12 que la formation des étoiles dans l’Univers avait culminé au même moment que celle des quasars. Elle avait été la plus intense environ 2,5 milliards d’années après le Big Bang (soit à un décalage de 2,5) comme celle des quasars. En fait l’évolution de la densité de quasars suit pratiquement la même courbe que celle du 12

Par des moyens compliqués et indirects que je ne peux développer ici.

367

Figure 12.12. Taille de la « Broad Line Region » (BLR) en fonction de la luminosité optique. Les droites tracées correspondent à différentes approximations de la relation entre la taille et la luminosité. La meilleure est la ligne solide qui correspond à une taille de la BLR proportionnelle à la luminosité élevée à la puissance 0,67. Kaspi et al. 2005.

368

Figure 12.13. Courbes donnant l’évolution du nombre relatif de quasars à gauche, et du taux de formation stellaire à droite, en fonction du décalage. Les deux courbes sont pratiquement identiques. La courbe inférieure de droite tient compte du rougissement des poussières.

Des quasars aux trous noirs

taux de formation d’étoiles (Figure 12.13). On en conclut que les jeunes galaxies traversent une période d’intense formation stellaire et qu’en même temps elles abreuvent de leur matière des trous noirs massifs qui grossissent et deviennent des puissants quasars. D’autres preuves viennent étayer cette conclusion. Par exemple, comme l’a montré Alain Omont de l’IAP en collaboration avec une équipe anglaise, les quasars très lointains sont riches en poussières. Or les poussières sont formées de silicates, de carbone et d’oxygène, éléments qui ne sont synthétisés que dans les étoiles (rappelons-nous le beau titre du livre d’Hubert Reeves Poussières d’étoiles). L’abondance de ces éléments montre qu’une formation stellaire intense a dû se produire ou est en train de se produire au sein du quasar. Quel phénomène peut déclencher ces activités jumelles ? Je l’ai déjà laissé soupçonner à plusieurs reprises dans ce livre : les interactions et les collisions entre deux galaxies provoquent des instabilités gravitationnelles qui drainent la masse vers le centre, donc approvisionnent le trou noir et génèrent en même temps une flambée de formation d’étoiles. Les premières photos prises par le télescope Hubble avaient effectivement montré que les galaxies hôtes des quasars étaient très perturbées et même parfois en interaction avec des galaxies (Figure 12.14). Mais ce n’était pas toujours le cas. À l’inverse, les galaxies infrarouges, ces « pouponnières d’étoiles », sont toujours en interaction avec d’autres galaxies. Lorsque deux galaxies entrent en collision, les nuages de gaz dont chacune est remplie se heurtent violemment et il en résulte des ondes de chocs sous l’effet desquelles le gaz se condense, entraînant la formation de nouvelles étoiles. De proche en proche, il se déclenche alors ce que l’on nomme un « starburst ». On pourrait traduire cette expression par « explosion d’étoiles », dans le sens où des étoiles vont naître en un véritable feu d’artifice. Si la rencontre entre les galaxies est frontale, on peut la comparer à ce qui se produit lorsque l’on envoie une pierre dans un lac : une onde circulaire se

Des volcans éteints au cœur des galaxies

369

Figure 12.14. Images prises en 1992 avec le télescope Hubble, montrant les galaxies hôtes de quasars. On voit qu’elles sont toutes très perturbées. Certaines semblent même constituées de deux galaxies en collision.

développe dans la plus grande des galaxies, accompagnée d’une intense formation d’étoiles. C’est précisément ce qui a dû se passer par exemple avec la galaxie de « la Roue de Char », expliquant que l’on y observe un anneau d’étoiles jeunes. Mais la rencontre de deux galaxies peut s’accompagner également d’une fusion conduisant à une mutation complète des galaxies. Suivons par exemple sur la figure 12.15 cette simulation numérique effectuée par Françoise Combes13 , dont j’extrais quelques images montrant les étapes successives de la fusion entre deux galaxies spirales. Au début (1), nous voyons deux galaxies spirales bien développées se rapprocher l’une de l’autre, chacune contenant beaucoup de gaz et d’étoiles dans les bras spiraux et de la matière noire répartie assez uniformément. À mesure qu’elles se rapprochent, on distingue les perturbations affectant les bras spiraux (2). Puis les deux galaxies fusionnent et perdent leur identité à l’exception des 13 Françoise est la première astrophysicienne à avoir intégré l’Académie des sciences en 2005. C’est heureux car la situation devenait vraiment insensée, avec une vingtaine d’astronomes-hommes à l’Académie et aucune femme, alors que la proportion moyenne de femmes en astronomie en France est de 30 % environ. Non seulement Françoise est une astronome réellement exceptionnelle et ayant certainement en France le plus de citations à son actif, mais elle s’est toujours investie dans de multiples tâches d’intérêt général pour la communauté. On peut dire à son propos qu’elle est vraiment l’illustration qu’une femme doit en faire plus qu’un homme pour parvenir à une reconnaissance équivalente, du moins dans certaines instances... Catherine Cesarsky l’a rejointe, et l’on peut espèrer que le nombre d’académiciennes va égaler celui des académiciens... un jour...

370

Des quasars aux trous noirs

Figure 12.15. Simulation de la fusion de deux galaxies spirales, par Françoise Combes.

centres dans lesquels s’accumule le gaz (3 et 4). Dans l’avantdernière figure (5), les deux centres ont également fusionné mais il reste deux noyaux distincts. Enfin, dans la dernière (6), même les deux noyaux ont fusionné et il n’y a presque plus de gaz au centre car il a servi à alimenter le trou noir. La matière noire forme un halo diffus. Partis de deux galaxies spirales riches en gaz, on arrive donc à une seule galaxie elliptique pratiquement réduite à un sphéroïde (le bulbe) et presque sans gaz. Le processus complet prend une centaine de millions d’années. Ce qu’il faut retenir aussi c’est que la « matière noire » exerce une influence importante dans les processus dynamiques affectant les galaxies et les amas de galaxies. Si elle n’est pas capable comme la matière baryonique de rayonner et de dissiper de l’énergie, par conséquent de donner lieu à des effondrements spectaculaires, elle la domine par sa masse qui est cinq fois plus élevée. Et c’est dans les profonds puits de potentiels créés par la matière noire que se formeraient les premiers trous noirs, et que se rassembleraient les premières galaxies. On peut aller plus loin dans ce scénario. Car si deux galaxies possédant chacune un trou noir massif fusionnent, que deviennent les trous noirs ? Logiquement, ils devraient se rapprocher, former « un trou noir binaire » (un peu comme les trous noirs stellaires binaires mais ceux-ci sont des dizaines de millions de fois moins massifs), puis fusionner en donnant un trou noir unique en rotation rapide (j’ai déjà parlé de ce processus à propos de la génération de la rotation des trous noirs).

Des volcans éteints au cœur des galaxies

371

Figure 12.16. Le premier trou noir massif double observé dans la galaxie NGC 6240 par Stéphanie Komossa avec le satellite X Chandra. Les deux trous noirs sont distants d’environ 3000 années-lumière.

La galaxie NGC 6240 observée en lumière X a ainsi révélé la présence de deux trous noirs massifs en son sein [54] (Figure 12.16). NGC 6240 est une galaxie « à flambée d’étoiles », fruit de la fusion de deux galaxies plus petites qui a dû se produire il y environ trente millions d’années. Chacune devait contenir un trou noir massif. Vont-ils fusionner ? Pour le moment nul ne le sait, car il reste beaucoup d’inconnues encore dans ce scénario. Il se peut par exemple qu’avant la fusion des deux trous noirs, l’un d’eux ou les deux soient envoyés dans l’espace intergalactique par un effet de recul14 . Cet effet serait naturellement plus sensible dans les galaxies de petite masse qui seraient moins capables de retenir ces trous noirs fugueurs. Ce qui pourrait éventuellement expliquer pourquoi les trous noirs massifs seraient absents de ces petites galaxies. Les trous noirs ainsi expulsés deviendraient alors « errants » et quasi indétectables puisqu’ils n’auraient plus aucune matière à avaler, ni sur laquelle exercer leur pouvoir gravitationnel. 14

Le recul pourrait être lié à l’émission « d’ondes gravitationnelles » lorsque les deux trous noirs sont très proches.

372

Des quasars aux trous noirs

Si au contraire les deux trous noirs de NGC 6240 fusionnent, ce sera seulement dans quelques dizaines de millions d’années car ils sont encore distants de 3 000 annéeslumière. De tels évènements sont très difficiles à observer pour le moment, mais ils devraient l’être dans un avenir proche par la mission spatiale LISA, grâce à la détection des ondes gravitationnelles produites au moment de leur fusion (Figures 12.17, 12.18 et 12.19).

Figure 12.17. Les ondes gravitationnelles sont prédites par la relativité générale (nous en avons déjà parlé à propos du pulsar binaire qui a valu le prix Nobel à Taylor et Hulse). Lorsque deux trous noirs orbitent l’un autour de l’autre en se rapprochant, les variations du champ gravitationnel induisent des courbures périodiques de l’espace-temps. Leur longueur d’onde dépend entre autres de la masse des trous noirs. Elle est petite pour des trous noirs stellaires et grande pour des trous noirs supermassifs. Elles peuvent être détectées par des mesures de variations de longueur d’un dispositif très sensible.

Figure 12.18. L’interféromètre franco-italien VIRGO, situé près de Pise, est composé de deux bras orthogonaux de trois kilomètres. Il est capable de mesurer d’infimes variations relatives de la longueur des bras causées par le passage d’ondes gravitationnelles (en principe il devrait mettre en évidence une différence de trajet de l’ordre de 10−18 mètre, c’est à dire un millième de la taille d’un noyau atomique), mais il ne pourra pas observer les trous noirs supermassifs, car ils émettent des ondes de trop petite fréquence.

Comment s’intègrent ces processus dans la structuration générale de l’Univers ? Les modèles de formation des grandes structures comme les amas de galaxies et les galaxies ellesmêmes font appel à ce que l’on nomme un « scénario hiérarchique ». N’allez pas croire qu’il y a les galaxies « chefs » et les autres ; simplement les plus petites galaxies se sont formées les premières, donnant naissance aux plus grandes lors de collisions ou de rencontres très proches. On pense que chaque grosse galaxie a subi plusieurs fois dans sa vie l’une de ces fusions importantes que l’on nomme « merger » en anglais. Donc l’idée actuelle est que les trous noirs grossissent à la fois par fusions successives et par accrétion de gaz. Mais dans quelles proportions se produisent les deux phénomènes ? Ce n’est pas encore clair.

Des volcans éteints au cœur des galaxies

Ce qui est plus difficile à expliquer, c’est pourquoi les quasars semblent suivre comme la formation des étoiles une séquence « anti-hiérarchique » avec dans le passé lointain des quasars très puissants, plus tard des quasars faibles, pour terminer actuellement avec les NAGs qui sont encore plus malingres. On évoque l’hypothèse que, tandis que les tout premiers trous noirs formés seraient activés par les fusions de galaxies et deviendraient de puissants quasars (avec la formation corrélative d’étoiles), les trous noirs formés plus tard évolueraient plus lentement à cause du plus petit nombre de fusions et de la densité plus faible du gaz dans l’Univers. Dans les galaxies proches, ils seraient surtout activés par des instabilités dans les barres et dans les bras spiraux, lors de légères perturbations dynamiques de la galaxie, ainsi que l’ont montré Françoise Combes et ses collaborateurs. Le résultat serait des NAGs beaucoup moins puissants que les quasars. En résumé, pour devenir des quasars, les trous noirs doivent être excités par les interactions des galaxies et doivent disposer d’une grande quantité de gaz à avaler ; or c’est de plus en plus difficile à mesure que notre Univers s’organise, se dilate et perd sa structure chaotique. D’autres pensent que lorsque les premières galaxies ont été formées les trous noirs ont acquis la majeure partie de leur masse d’une façon rapide en accrétant du gaz froid tandis que les galaxies elliptiques formées ultérieurement (par fusion de spirales) seraient surtout remplies de gaz chaud, plus difficile à accréter. On voit que le problème est encore loin d’être résolu. Reste encore à expliquer pourquoi la relation unissant les galaxies et les trous noirs massifs est si forte. Cette relation est certainement la signature d’un mécanisme subtil par lequel ces deux entités sont liées. Il s’agit probablement d’un phénomène d’autorégulation. Mais là encore, il est presque impossible à l’heure actuelle de savoir quelle est la poule et quel est l’œuf dans cette affaire : est-ce que ce sont les trous noirs qui influent sur l’évolution des galaxies, ou les galaxies qui influent sur celle des trous noirs ? La croissance du trou noir pourrait limiter celle du bulbe, le contraignant à suivre sa propre évolution. En effet, lorsqu’ils avalent de la matière pour acquérir leurs masses actuelles, les trous noirs deviennent des quasars ou des NAGs ; ils fabriquent des vents violents entraînant avec eux le gaz de leur galaxie hôte, ou des jets s’il s’agit d’objets radio, et ils envoient dans le milieu intergalactique une énorme quantité d’énergie. Celle-ci pourrait stopper la croissance de la galaxie hôte et par suite celle du trou noir lui-même.

373

Figure 12.19. L’interféromètre « Laser Interferometer Space Antenna » (LISA) est une mission conjointe de l’ESA et de la NASA, qui devrait voir le jour dans les années 2010-2015. Elle sera capable de détecter les ondes gravitationnelles émises par des trous noirs supermassifs en interaction. Elle sera constituée de trois vaisseaux spatiaux situés aux trois coins d’un triangle équilatéral de 5 millions de kilomètres de diamètre et qui doit garder parfaitement sa forme.

374

Des quasars aux trous noirs

Récemment, cette idée a été remarquablement illustrée par la découverte de Fabian et ses collaborateurs réalisée avec le satellite X Chandra, d’un ensemble d’ondes émises par une galaxie de Seyfert dans le gaz intergalactique de l’amas de Persée qui l’entoure (nous en avons déjà parlé : c’est NGC 1275, la seule galaxie radio faisant partie des six étudiées par Carl Seyfert en 1943). Ce sont des « ondes sonores » dans le sens où elles correspondent à une compression périodique du gaz ; mais leur fréquence est très différente de celles qui viennent caresser nos oreilles lorsque nous écoutons une symphonie. Elles sont produites très probablement par le jet associé au noyau actif. Elles emportent une énergie gigantesque, qui a pour effet de chauffer le gaz intergalactique jusqu’à une température élevée, limitant l’afflux de gaz vers le trou noir (Figures 12.20, 12.21 et 12.22). Figure 12.20. La galaxie de Seyfert NGC 1275, appelée aussi Perseus A ; c’est la plus lumineuse de l’amas de galaxies de Persée dont elle en occupe le centre. Parmi les six galaxies découvertes par Seyfert, elle a toujours fait figure à part, étant en particulier la seule radio-galaxie. Sur cette photo prise avec un filtre Hα qui permet de visualiser le gaz, on distingue des filaments éjectés par le noyau de la galaxie.

Figure 12.21. Image en rayons X de l’amas de galaxies de Persée obtenue par Fabian et ses collaborateurs avec le satellite X Chandra. Cet amas contient environ 1 000 galaxies et est l’un des plus massifs de l’Univers. En son centre se tient la galaxie de Seyfert NGC 1275. L’ensemble de la figure couvre à peu près 300 000 années-lumière, soit environ dix fois plus que la figure précédente. L’image montre deux cavités d’environ 50 000 années-lumière de diamètre qui correspondent aux « taches chaudes » observées dans le domaine radio, semblables à celles de Cygnus A par exemple.

J’en profite pour revenir sur l’un de mes chevaux de bataille favoris, la médiatisation des découvertes. Je ne discute pas ici la valeur de cette découverte qui est incontestable mais la façon

Des volcans éteints au cœur des galaxies

375

Figure 12.22. Même image que précédemment, mais « travaillée » grâce à des programmes permettant d’intensifier les parties les plus brillantes. Elle montre de façon spectaculaire des ondes « sonores » (car elles correspondent à une compression du gaz), émises très probablement par l’environnement de la galaxie de Seyfert NGC 1275. Ce seraient les cavités remplies de particules relativistes qui entraînent le gaz intergalactique, créant les ondes sonores qui s’étendent à des centaines de milliers d’années-lumière de la galaxie.

dont elle a été présentée au public. Le titre du communiqué de presse de la NASA était le suivant : « Chandra « Hears » A Black Hole for the First Time » c’est-à-dire « Chandra « entend » un trou noir pour la première fois ». Et dans le corps du texte, on trouvait : « The pitch of the sound generated by the black hole translates into the note of B flat. But a human would have no chance of hearing this cosmic performance, because the note is 57 octaves lower than middle-C. . . At a frequency over a million billion times deeper than the limits of human hearing, this is the deepest note ever detected from an object in the universe ». La traduction en est : « La hauteur du son produit par le trou noir correspond à un si bémol. Mais un être humain n’aurait aucune chance d’entendre cette performance cosmique parce que la note est 57 octaves plus basse que le do moyen. . . Avec une fréquence d’un million de milliards de fois plus petite que la limite de l’oreille humaine, c’est la note la plus basse jamais détectée en provenance d’un objet dans l’Univers ». Rien n’est à proprement parler faux dans cette annonce, hormis que le si bémol pourrait bien être un si bécarre car je ne vois pas comment la longueur d’onde des ondulations visibles sur l’image pourrait avoir la précision de quelques pour cent qui serait nécessaire pour distinguer les deux notes. Mais passons. Il s’agit bien d’ondes sonores et le mot « entend » est entre guillemets, car il est clair que nous « n’entendons » pas ce son mais que nous le « voyons » sous la forme d’ondes circulaires.

376

Des quasars aux trous noirs

S’il avait une fréquence audible, il en serait de même car aucun son ne peut être porté par le vide intersidéral qui règne dans l’Univers. On sait maintenant que le Soleil et les étoiles résonnent comme des cordes vibrantes et « chantent » comme certains n’hésitent pas à le dire. Mais ce qui n’est généralement pas dit, c’est que ce « chant » ne nous parviendra jamais car le gaz interplanétaire ou interstellaire ne le porte pas. De plus, en ce qui concerne le trou noir en question qui est très éloigné, même si ce son pouvait nous atteindre, il ne le ferait qu’après des centaines de milliards d’années, bien après que le Soleil, la Terre et toutes les étoiles soient mortes. Non, le problème n’est pas que l’annonce soit fausse mais qu’outre sa forme sensationnaliste – explicable probablement par le souci de convaincre le contribuable que son argent est bien utilisé – elle est écrite d’une telle façon que les nonspécialistes l’interprètent presque nécessairement de travers. Voici en effet l’un des titres que j’ai glané aux États-Unis dans une revue de grande diffusion the Christian Science Monitor de septembre 2003 : « Hors de la gorge profonde des trous noirs ( ! !), une note très basse : découverte d’ondes sonores célestes qui peuvent expliquer comment les amas de galaxies régulent leur croissance ». Les médias français ne sont pas en reste : des articles du même genre ont été publiés dans le Monde, dans le Nouvel Observateur, etc. À titre d’exemple voici un extrait de ce dernier : « Le si bémol des trous noirs. Étrange petite musique que celle qui émane des trous noirs, ces invisibles monstres gloutons. Grâce au télescope spatial Chandra, une équipe d’astrophysiciens a capté le chant d’un trou noir situé dans l’amas de galaxies de Persée, à 250 millions d’annéeslumière de la Terre. La note émise correspond à un si bémol qui serait 57 octaves plus bas que le do moyen, celui qui se situe au milieu d’un clavier de piano. Il est donc totalement inaudible pour l’oreille humaine, ont expliqué les chercheurs qui présentaient leurs travaux cette semaine au siège de la NASA. . . ». Dans ces annonces, l’essentiel de la découverte – comment les NAGs modifient leur entourage – est occulté, l’anecdotique est privilégié et le lecteur n’en retiendra qu’une idée fausse, celle que nous pouvons « entendre » les trous noirs. Mais quoiqu’il en soit, cette découverte ne signifie pas qu’un tel processus se produit pour tous les trous noirs et toutes les galaxies, car en l’occurrence il s’agit d’une radiogalaxie alimentée par le gaz intergalactique, et rien ne prouve qu’en l’absence de jet un mécanisme identique puisse se produire.

Des volcans éteints au cœur des galaxies

Une question à laquelle on est totalement incapable de répondre actuellement est celle-ci : quelles ont été les masses des premiers trous noirs ? Pour qu’une masse de gaz puisse s’effondrer sur elle-même il faut qu’elle soit capable de rayonner rapidement une grande partie de son énergie. Dans l’Univers encore jeune et froid c’était possible grâce aux molécules d’hydrogène très abondantes. On s’attend à ce que se forment très tôt des étoiles massives évoluant rapidement et donnant naissance à des trous noirs de quelques centaines de masses solaires à la fin de leur vie. On appelle « étoiles de population III » ces étoiles ne contenant que de l’hydrogène et de l’hélium, par opposition aux étoiles de populations II, très vieilles elles aussi, peuplant le halo de notre Galaxie mais contenant déjà de petites proportions d’éléments lourds15 . Ce scénario serait très attrayant si l’on avait réussi à observer une seule de ces étoiles de population III, mais ce n’est pas le cas. On peut espérer en observer dans le futur, avec le grand télescope spatial qui remplacera le télescope de Hubble. Ces étoiles, si elles ont existé, devaient être très massives et leurs cadavres, les premiers trous noirs, pouvaient par conséquent avoir quelques centaines de masses solaires. Le reste de leur masse a dû être acquis ensuite pendant la formation des galaxies et lors de leurs interactions. Mais j’ai déjà dit qu’il est alors difficile à un trou noir d’atteindre plusieurs milliards de masses solaires en quelques centaines de millions d’années à partir d’une masse relativement faible, à moins de supposer une accrétion extrêmement rapide. On ne sait pas non plus répondre à la question de la rotation des trous noirs. En ont-ils, n’en ont-ils pas ? Et s’ils en ont, la perdent-ils rapidement ? En principe, si la croissance des trous noirs est dominée par l’accrétion, ils devraient être en rotation car il suffit d’un doublement de la masse pour acquérir une rotation déjà importante. Néanmoins, si leur croissance est dominée par les fusions de deux trous noirs et non par 15

Au début de la vie de l’Univers, la matière n’était constituée que d’hydrogène et d’autres éléments « légers ». Or ce sont les éléments « lourds » comme l’oxygène, le carbone et l’azote qui donnent son opacité à la matière. Le gaz sans élément lourd tombant sur une étoile en formation absorbe difficilement le rayonnement de l’étoile et par conséquent il n’est pas chassé par la pression de radiation. Les premières étoiles devraient donc atteindre des masses plus grandes que celles se formant dans un gaz déjà enrichi en éléments lourds et leur évolution ultérieure devait être différente de celle des étoiles contenant des éléments lourds. Les français Roger Cayrel et l’équipe de Monique et François Spite de l’Observatoire de Paris-Meudon se sont faits une spécialité d’observer des étoiles vieilles, très pauvres en éléments lourds. Ils sont ainsi parvenus à détecter des étoiles ayant des métallicités par rapport à l’hydrogène cent mille fois plus faibles que celle du Soleil.

377

378

Des quasars aux trous noirs

l’accrétion, on est dans l’incertitude car elles peuvent diminuer la rotation du trou noir si les disques d’accrétion ne sont pas alignés. Or c’est un point très important pour l’évolution des trous noirs. Nous avons vu que l’efficacité de conversion de la matière en énergie est six fois plus grande pour un trou avec rotation maximale (trou noir de Kerr) que pour un trou noir de Schwarzschild sans rotation. Le taux d’accrétion correspondant à la luminosité d’Eddington est alors réduit par le même facteur six, ce qui n’est pas sans conséquence pour la croissance des trous noirs. L’Univers risque en effet de vraiment manquer de temps pour obtenir des quasars de plus d’un milliard de masses solaires, un milliard d’années après le Big Bang, à moins de faire appel à une accrétion très rapide « super-Eddington ». Par ailleurs, les phénomènes se produisant au voisinage immédiat du trou noir sont sensiblement différents dans le cas des trous noirs en rotation ou sans rotation. Par exemple, on se rappelle la formation des jets avec les trous noirs en rotation : si cette théorie est vraie et si tous les trous noirs sont en rotation rapide, il devient difficile d’expliquer la distinction entre les objets radio et les autres. Il est également possible que des trous noirs de cent mille ou un million de masses solaires se soient directement formés lors de l’effondrement de grands nuages intergalactiques. Mais il n’est pas évident non plus que ces trous noirs puissent grossir vite, car ils ne sont pas capables d’accréter rapidement du gaz. Ils pourraient bien être ces fameux trous noirs intermédiaires que l’on trouve au sein des galaxies « irrégulières » ou des petites spirales. Ces galaxies sont en effet des paresseuses à tous les points de vue : elles ont rechigné dans le passé à former des étoiles et contiennent encore une grande quantité de gaz, ce qui signifie qu’elles pourraient être des laissées pour compte, n’ayant pas eu la chance de rencontrer des compagnons pour apporter de la substance à leur trou noir et les aider à former des étoiles. Le diagramme proposé récemment par Martin Rees (Figure 12.23) résume bien l’état de nos connaissances sur le sujet, ou plutôt de notre méconnaissance. À chaque niveau, il propose deux solutions alternatives, ce qui fait dans l’ensemble huit possibilités entre lesquelles nous sommes incapables de choisir pour le moment ! En définitive, on peut considérer que de nombreux mystères relatifs à l’évolution des trous noirs massifs sont maintenant résolus mais il en reste d’importants dont le plus difficile concerne leur formation initiale. Il faut avouer d’ailleurs qu’il

Des volcans éteints au cœur des galaxies

379

Figure 12.23. Le diagramme de Rees donnant les différentes possibilités pour la formation et l’évolution des trous noirs massifs. L’instabilité due à la relativité générale a été déjà mentionnée dans l’un des premiers chapitres lors de la discussion sur les étoiles supermassives.

reste beaucoup de zones d’ombre dans le problème général de la structuration de l’Univers et de la formation des galaxies. On a vu que la matière noire non baryonique y joue un rôle prépondérant. Elle a constitué pratiquement un dogme pendant trente ans ; or son existence même est remise en cause depuis peu car les scénarios fondés sur son existence ne sont pas en accord avec les observations (par exemple avec les courbes de rotation des galaxies ou avec l’environnement des galaxies proches qui devraient être entourées d’une myriade de petits satellites). Il faut dire également qu’on n’a jamais réussi à en détecter la moindre parcelle, en dépit de nombreuses expériences de physique qui auraient dû la mettre en évidence. On en arrive donc aujourd’hui à envisager une modification de la dynamique newtonienne pour résoudre le problème ! Mais ces problèmes ne vont probablement pas conduire à remettre en cause le scénario de l’activation des quasars et de la formation stellaire liées aux fusions et aux interactions entre les galaxies.

Où notre Galaxie montre qu’elle n’est pas en reste, qu’elle a connu aussi des heures de gloire, et en connaîtra peut-être d’autres Je vais terminer ce chapitre par ce que je considère être l’une des découvertes majeures de la dernière décennie, et peut-être du siècle. Elle est également exemplaire par la façon dont elle a été conduite.

380

Des quasars aux trous noirs

Figure 12.24. Une image infrarouge du centre galactique obtenue au VLT. On y voit seulement les étoiles géantes et supergéantes car les étoiles normales sont invisibles à cette distance.

Puisqu’il semblait exister des trous noirs géants au centre de toutes les galaxies possédant un noyau, notre Galaxie devait logiquement aussi en recéler un. C’est une évidence maintenant, c’était loin d’en être une lorsqu’en 1992 un groupe de chercheurs de l’Institut Max Planck de Munich conduite par Reinhard Genzel décidèrent de profiter des possibilités offertes par le nouveau télescope de 3,60 mètres de l’ESO (NTT ou New Technology Telescope) dont la résolution spatiale était inégalée grâce à l’optique adaptative, pour observer dans l’infrarouge les étoiles du parsec central de la Voie lactée. Ils voulaient mesurer leurs mouvements propres, c’està-dire leurs vitesses apparentes de déplacement sur la sphère céleste. Naturellement, la distance de ces étoiles étant connue, le mouvement propre mesure la projection sur le ciel de la vitesse réelle. Il s’agissait d’un travail de longue haleine devant prendre plusieurs années puisque les mouvements propres sont extrêmement faibles à cette distance16 . Le centre de la Galaxie est un endroit peu hospitalier où se bousculent des étoiles et des nuages de gaz (Figure 12.24). Si notre Soleil était situé dans cet environnement, nos nuits seraient claires même pendant la nouvelle Lune. En effet, tandis que l’étoile la plus proche du Soleil est située à plus de trois années-lumière, on en observe des centaines dans une année-lumière au centre de la Galaxie et encore ne s’agit-il 16 Une étoile située à 26 000 années-lumière de nous (la distance du Soleil au centre de la Galaxie) et animée d’un mouvement de 500 kilomètres par seconde sur le plan du ciel, a un mouvement propre de seulement un centième de seconde d’arc par an.

Des volcans éteints au cœur des galaxies

que des plus lumineuses. Il en existe sans doute des dizaines de milliers d’autres plus faibles. On ne peut pas les détecter dans le domaine visible car une énorme quantité de poussières les cachent complètement à notre vue. Il faut aller les chercher dans l’infrarouge et même dans ce cas une partie de leur rayonnement nous échappe. Depuis longtemps, le centre de la Galaxie avait attiré l’attention par quelques phénomènes laissant penser qu’il s’y produisait des choses curieuses. On y avait observé des nuages de gaz se déplaçant avec de grandes vitesses. On y avait découvert une source radio appelée Sagitarius A* (Sgr A*)17 , semblable à celles qui se trouvent dans les noyaux des radiogalaxies : son spectre était très comparable et comme eux elle était variable. Mais ce pouvait être simplement un reste de supernova comme le Crabe par exemple. Enfin, on y avait détecté plusieurs sources X, grâce au satellite franco-soviétique GRANAT mentionné dans le chapitre précédent. C’étaient à l’évidence simplement des étoiles binaires, avec dans certains cas un trou noir en lieu et place de la composante compacte18 , mais elles étaient particulièrement puissantes. Néanmoins aucun de ces phénomènes ne prouvait qu’il existait au centre de notre Voie lactée un trou noir massif comme celui des quasars ou des NAGs. Il semblait même que ce fût le contraire car Sgr A* avait été détecté dans le domaine X, mais sa puissance était loin d’approcher celle d’un NAG, même très faible. On n’imaginait pas alors qu’un trou noir massif entouré d’un monceau de nuages de gaz et d’étoiles comme l’était le centre galactique puisse ne pas avoir un éclat perceptible. À cette époque on ne parlait pas encore des « ADAF » ou des « RIAF », ces trous noirs voraces mais presque invisibles ayant la propriété d’avaler la lumière au lieu de la laisser s’échapper. Au début des années quatrevingt-dix, bien peu nombreux étaient ceux qui auraient parié sur la présence d’un trou noir massif dans le centre de notre Galaxie et ceux qui y croyaient étaient considérés comme de doux rêveurs (je m’en souviens très bien, puisque j’en faisais partie). En 1996, Eckart et Genzel avaient pu mesurer suffisamment de vitesses d’étoiles au centre de la Galaxie pour montrer qu’elles étaient d’autant plus élevées que les étoiles étaient 17 Le A signifiant simplement que c’est la plus puissante en radio dans la constellation du Sagittaire. 18

C’est en particulier à Félix Mirabel travaillant au CEA que revient le mérite d’avoir détecté plusieurs de ces sources.

381

382

Des quasars aux trous noirs

plus proches de Sgr A [30]. C’était la preuve qu’elles se mouvaient dans le champ d’attraction d’une masse centrale que l’on pouvait calculer en appliquant la petite formule du début du chapitre. Se basant sur les mouvements propres de 39 étoiles, ils furent ainsi en mesure d’annoncer qu’il y avait à moins de 0,05 année-lumière de Sgr A* une masse noire d’environ deux millions de masses solaires. Exprimé en termes de densité, cela signifiait qu’elle était supérieure à six milliards de masses solaires par parsec au cube. Comme pour NGC 4258, l’hypothèse d’un trou noir massif semblait seule capable de rendre compte de cette compacité phénoménale. Mais ce n’était encore rien. Les très grands télescopes de 8 mètres de diamètre de l’ESO commençaient à être mis en service à cette époque, eux aussi munis d’une optique adaptative performante que les Français, meilleurs spécialistes au monde dans ce domaine, avaient beaucoup contribué à développer. Non seulement on pouvait alors observer des centaines d’étoiles dans un rayon de quelques dixièmes de seconde d’arc autour de Sgr A* (cf. Shödel et al. [87]), mais il devenait possible d’en prendre des spectres et de mesurer les vitesses par effet Doppler, donc projetées sur la ligne de visée**. Les vitesses projetées sur le plan du ciel furent donc complétées avec les vitesses Doppler : on déterminait maintenant la véritable vitesse des étoiles. Le 17 octobre 2002, un article parut dans Nature, signé de l’équipe du Max Planck, de François Lacombe et de Daniel Rouan ainsi que de plusieurs autres chercheurs du département d’astronomie spatiale de l’Observatoire de Paris-Meudon [38]. Il annonçait qu’une étoile parmi celles qui étaient observées depuis dix ans s’était approchée avec une vitesse de 5 000 kilomètres par seconde à 17 heures-lumière de Sgr A*, une distance à peine trois fois plus grande que celle de l’orbite de Pluton ! Les dix années d’observations montraient que cette étoile – appelée S2 – avait une orbite elliptique très excentrique, précisément autour de Sgr A* (Figure 12.25). Les éléments de l’orbite ainsi que la vitesse de l’étoile prouvaient qu’elle tournait autour d’une masse ponctuelle de 3,6 millions de masses solaires. Cette fois, sans contestation possible, il ne pouvait s’agir d’autre chose que d’un trou noir et il était localisé à la position de Sgr A*. SgrA* nous réservait une autre surprise. L’équipe ayant mesuré la masse du trou noir découvrit à la même époque qu’il émettait des « flashes » de lumière infrarouge [39]. Ces flashes se produisent sur des échelles de temps très courtes, de l’ordre de quelques minutes (Figure 12.26). Très curieusement,

Des volcans éteints au cœur des galaxies

383

Figure 12.25. Orbite de l’étoile S2 (grande ellipse en noir) autour de Sgr A(petit cercle en noir). La petite ellipse en bas à gauche montre la partie de l’orbite obtenue à partir des observations NAOS/CONICA, le système d’optique adaptative dans l’infrarouge développé à l’Observatoire de Paris-Meudon.

ces « flashes » s’accompagnent de changements de la position de Sgr A*. Or, on a découvert depuis par des observations d’interférométrie millimétrique, que la dimension de Sgr A* est plus petite que la dernière orbite circulaire stable autour du trou noir (l’Innermost Stable Circular Orbit ou ISCO dont nous avons déjà parlé). Cela signifierait que les flashes ne se produisent pas directement sur le trou noir, mais à côté. Ils pourraient par exemple correspondre à l’éjection d’électrons relativistes en direction du jet. Depuis, les données concernant les étoiles entourant Sgr A* ont été améliorées et complétées, entre autres par les relevés des orbites de plusieurs autres étoiles. Et ce que l’on a observé n’est pas moins surprenant. En effet, non seulement le trou noir est entouré d’un amas d’étoiles massives très jeunes formées il y a à peine quelques millions d’années mais il semble que ces étoiles se situent toutes dans un disque aplati19 . Sont-elles nées sur place dans le disque ou sont-elles venues de plus loin ? Jusqu’à peu, beaucoup pensaient qu’il était impossible pour des étoiles de se former tout près d’un trou noir massif car les nuages leur donnant naissance auraient dû être mis en pièces par l’énorme attraction du trou noir. On préférait donc la seconde solution. On avait même suggéré qu’il 19

En fait, on discute pour savoir s’il s’agit de deux disques, ou d’un seul.

384

Figure 12.26. Variation du flux infrarouge de SgrA et de celui de l’étoile proche S2 qui, elle, n’est pas variable.

Des quasars aux trous noirs

pourrait exister dans le voisinage de Sgr A* un deuxième trou noir, plus petit, mais suffisant pour perturber profondément les orbites des étoiles et les faire dériver vers le centre. Et de fait, Jean-Pierre Maillard à l’IAP, également expert en haute résolution spatiale, montra avec un jeune post-doc Thibaut Paumard qu’une source infrarouge dans les environs de Sgr A* était formée d’un amas d’étoiles massives chaudes dont le cœur pouvait cacher un trou noir de quelques milliers de masses solaires [61]. Pourtant l’idée que les étoiles près de Sgr A* pourraient bien s’être formées dans un disque d’accrétion ayant déjà existé commence à faire son chemin. Car les nuages peuvent être en quelque sorte stabilisés par la rotation képlérienne. Jean-Paul Zahn et moi-même avions publié en 1999 un article proposant cette idée mais pendant plusieurs années il n’avait pas été pris en considération [21]. Cela signifie que, il y a quelques millions d’années, le centre de notre Voie lactée aurait été lui aussi un « noyau actif », une galaxie de Seyfert en quelque sorte. Les hommes vivant à cette époque n’auraient cependant rien remarqué (si tant est qu’ils scrutaient les étoiles) car il aurait fallu disposer d’un récepteur infrarouge pour le voir. Dans ce domaine comme dans d’autres, il faudra attendre d’autres observations et des simulations numériques avant qu’une réponse définitive soit donnée à cette question. . . mais nous l’aurons sûrement un jour. Il est en tout cas hautement probable que Sgr A* ait été plus actif antérieurement, même sans atteindre le niveau d’une galaxie de Seyfert. Car il ne faut pas grand chose pour redéclencher l’activité d’un trou noir massif, qu’un nuage interstellaire ou qu’une étoile passe à proximité et soit capturée dans sa sphère d’influence, par exemple. Or il semble bien que ce fut le cas il y a quelques centaines d’années. On a en effet découvert récemment avec le satellite INTEGRAL qu’un nuage moléculaire situé à 300 années-lumière de Sgr A* est une source intense de rayons gamma. Ce nuage pourrait tout simplement nous renvoyer un écho des rayons gammas qu’il aurait reçus

Des volcans éteints au cœur des galaxies

il y a 300 ans de Sgr A* à une époque où celui-ci était plus lumineux dans le domaine gamma. Là encore, il ne s’agit pour le moment que d’une hypothèse mais elle pourra être testée assez rapidement par des observations spectrales détaillées avec le satellite japonais SUSAKU, par exemple. De toute façon, il est à peu près certain que notre trou noir a vécu des heures plus glorieuses que maintenant et que tôt ou tard, il se rallumera. . .

385

This page intentionally left blank

En guise de conclusion

Je pourrais parler encore longtemps des quasars et des NAGs mais il faut bien arrêter ce livre avant d’avoir complètement épuisé le lecteur, s’il ne l’est déjà. J’espère en avoir donné une vision à peu près complète, bien que j’aie laissé de côté de nombreux problèmes dont certains me tiennent pourtant à cœur. Je pense que l’on a pu constater le formidable trajet parcouru en quarante ans mais que l’on a aussi compris combien le chemin est difficile et semé d’embûches et combien les certitudes sont difficiles à acquérir. La « mode » des quasars est passée maintenant car d’autres astres sont venus les détrôner, tels les « objets à sursauts gamma » (« gamma-ray bursts ») dont certains sont aussi éloignés que les quasars et plus puissants encore ; mais ils brûlent très vite leurs cartouches et ne restent aussi puissants que pendant quelques secondes ou quelques minutes. Et surtout elle a été supplantée par des sujets plus fascinants encore, comme les planètes extra-solaires ou les tout débuts de l’Univers. Ceux-ci nous renvoient en effet à notre condition humaine, nous interpellant sur nos origines, sur la vie ailleurs ou sur la formation de la matière. Car l’existence d’une histoire de l’Univers, marquée par un début et peut-être une fin, la possibilité de vie sur d’autres planètes que la nôtre, sont autant de questions qui nous font prendre conscience de la très petite place occupée par l’Homme dans l’espace et dans le temps. Depuis quarante ans, l’astronomie a considérablement évolué et de nouveaux domaines ont émergé. On a appris par exemple que le gaz entre les étoiles est riche de centaines d’espèces moléculaires complexes, que l’intérieur du Soleil et des étoiles tourne et vibre, que nous pouvons voir ces vibrations et qu’elles nous donneront la clé de leur structure, que certaines étoiles ont des systèmes planétaires comme le

388

Des quasars aux trous noirs

nôtre. Partis de l’idée de l’immuabilité des galaxies, on s’est aperçu qu’elles sont plus changeantes que les étoiles ellesmêmes et bien plus fragiles. On a vécu l’aventure du cosmos, croyant d’abord qu’il était fermé et décéléré à cause d’une énorme proportion de matière invisible et étrange, puis apprenant qu’il est poussé par une « énergie noire » et accéléré, et remettant maintenant même en cause l’existence de cette matière étrange. L’astrophysique a donc une place fondamentale à tenir dans cette question où l’infiniment grand côtoie l’infiniment petit. Mais toutes ces découvertes ont entraîné la création de domaines nouveaux auxquels se sont consacrés les jeunes chercheurs et auxquels se sont reconvertis les anciens. C’est ainsi que la science avance. Pourtant, comme je l’ai dit au début de ce livre, l’engouement pour les quasars et les trous noirs géants n’a pas disparu puisqu’il se publie encore chaque jour de nombreux articles sur le sujet et que plus d’un millier de chercheurs dans le monde travaillent encore activement dans ce domaine20 . On peut dire cependant qu’il s’agit maintenant d’un travail d’approfondissement, probablement sans grand rebondissement à attendre. Mais qui peut le prévoir vraiment ? Si l’on a résolu de grands problèmes, il en reste encore beaucoup. J’ai d’ailleurs montré que chaque fois que l’on vient à bout de l’un, il s’en pose de nouveaux. Françoise Combes et moi-même, avec un collègue américain, Isaac Shlosman, avions organisé à l’Observatoire de Meudon en 2002 un congrès intitulé « Active Galactic Nuclei : from Central Engine to Host Galaxy », qui rassembla pendant une semaine environ deux cents participants (nous avions reçu plus de cinq cents demandes mais la taille de notre amphithéâtre ne nous permettait pas d’accepter autant de monde). À la fin du congrès Mitch Begelman et Roger Blandford mentionnés plusieurs fois dans ce livre, « modérèrent » une discussion destinée à répondre à dix questions. Elles me semblent intéressantes à rappeler car elles résument à peu près l’état de nos interrogations actuelles et l’on peut constater qu’elles rejoignent celles qui ont été soulevées dans ce livre et sont encore sans réponse. - Les ADAF (c’est-à-dire les flots d’accrétion qui rayonnent très peu) sont-ils une solution viable ? On a vu qu’ils sont invoqués pour expliquer le peu de puissance des radiogalaxies aussi bien que celle du trou noir géant au centre de la Voie lactée. 20

La proportion par rapport au nombre total d’astronomes (environ 10 000 dans le monde) est bien moins importante en France.

En guise de conclusion

- Que sont les « tores » et qu’arrive-t-il au gaz à l’intérieur ? On se rappelle peut-être que ce sont ces entités invoquées pour expliquer le « Schéma Unifié ». Les observations récentes semblent démentir leur existence. - Y a-t-il des trous noirs de masse intermédiaire ? C’est-à-dire de quelques dizaines de milliers de masses solaires : on ne le sait toujours pas. - Voyons-nous vraiment des raies X relativistes du fer ? Des raies prouvant donc que le disque s’étend jusqu’à la dernière orbite stable autour du trou noir. - De quoi les jets sont-ils faits ? De particules « lourdes » ou d’électrons et de positrons ? Contiennent-ils du gaz ou seulement des particules relativistes ? - Y a-t-il une alternative à la photo-ionisation de la région émettant les raies spectrales par le rayonnement central ? Cette question un peu spécialisée correspond à une discussion dont je n’ai pas parlé, que nous avions eue nous-mêmes à Meudon à travers plusieurs de nos articles. - Quelle fraction de l’énergie totale des divers types de noyaux actifs de galaxie est-elle rayonnée sous une forme facilement visible ? On se demande si les jets ne transporteraient pas une énergie bien supérieure à celle que l’on voit directement. Une preuve pourrait en être ces « ondes sonores » observées autour de la galaxie NGC 1275. - Quelle est la relation temporelle entre les flambées d’étoiles et les NAGs ? Ou : la flambée de formation d’étoiles précèdet-elle ou suit-elle le déclenchement de l’activité du trou noir ? - Est-ce que les barres (dans les galaxies spirales) peuvent alimenter les NAGs ? On n’est toujours pas d’accord sur le mécanisme transportant la matière depuis les régions extérieures d’une galaxie jusqu’à son noyau. - Comment les trous noirs grossissent-ils de façon à se conformer aux masses des bulbes des galaxies ? C’est peut-être le problème à propos duquel nos idées ont le plus changé depuis quatre ans. On pourrait évidemment se poser encore bien d’autres questions et nul ne peut deviner les problèmes qui seront vraiment traités dans les années à venir. Car je pense que l’étude des noyaux actifs de galaxies et des quasars va subir de nouveau une révolution sans précédent. D’abord nous bénéficierons d’énormes relevés du ciel. Par exemple l’un d’eux, le relevé SLOAN (du nom du mécène américain qui l’a financé), est en train de multiplier par dix le nombre de quasars connus il y a dix ans, qui atteint déjà une centaine de milliers. Il ouvre la voie à des découvertes

389

390

Des quasars aux trous noirs

passionnantes : tels objets, considérés avant comme des singularités, deviennent les représentants de classes nouvelles qu’il va falloir intégrer dans l’ensemble. Des corrélations entre paramètres qui n’avaient pas de signification statistique à cause du trop petit nombre d’objets vont disparaître ou au contraire s’amplifier. D’autre part d’énormes simulations numériques vont permettre de mieux comprendre comment le gaz et les étoiles « coulent » depuis les régions éloignées du trou noir jusqu’à lui, comment fonctionne le disque d’accrétion, comment les premiers trous noirs grossissent, enfin comment l’Univers tout entier se structure dans les premières centaines de millions d’années, cruciales pour la formation des galaxies et des trous noirs géants. Un renouvellement complet des méthodes « d’observation » est également en marche avec les « observatoires virtuels ». Ceux-ci sont en train de se constituer et vont rassembler et classer dans de gigantesques archives numériques toutes les données sur les astres existant dans le monde et en permettre un accès et une utilisation faciles. Pour paraphraser un théorème souvent utilisé dans le monde des entreprises, « le tout sera supérieur à la somme des parties ». Et nul doute que de cette synergie, naîtront de nouvelles découvertes probablement inattendues. Enfin, plusieurs instruments planifiés pour les années 2010 vont nous permettre de mieux comprendre les relations entre les galaxies et les quasars, comment les trous noirs se développent, s’ils sont préexistants aux galaxies et quelle est la taille des plus petits d’entre eux. Dans cet ordre d’idée, le grand télescope spatial de six mètres de diamètre qui remplacera Hubble (NGST ou Next Generation Space Telescope qu’on appelle maintenant le JWST ou John Webb Telescope), va certainement faire une moisson de découvertes sur lesquelles nous ne pouvons actuellement que spéculer. Le projet ALMA (Atacama Large Millimeter Array), un ensemble de 50 radiotélescopes installés au Chili sur le haut plateau de l’Atacama à 5 000 mètres d’altitude, doit nous apporter des informations majeures sur l’Univers « froid » et la vie des galaxies et des trous noirs lorsqu’ils étaient encore cachés dans des cocons de poussières. Pour finir, les grands télescopes de quarante mètres de diamètre auxquels on commence à songer et qui seront peut-être réalisés dans une vingtaine d’années constituent un incroyable défi technologique et ils nous permettront évidemment de plonger encore plus loin dans le passé de l’Univers et dans le cœur des galaxies.

En guise de conclusion

Malheureusement, je ne serai plus là pour participer ni même pour assister aux bouleversements des connaissances que va entraîner, en particulier dans le domaine des quasars, la mise en service de ces instruments presque fabuleux. Mais de plus jeunes les verront. . .

391

This page intentionally left blank

Bibliographie [1] Abramowicz, M. A., Calvani, M., Nobili, L., 1980, Astrophysical Journal, vol. 242, p. 772 [2] Alpher, R. A., Bethe, H., Gamow, G., 1948, Physical Review, vol. 73, p. 803 [3] Andrillat, Y., Souffrin, S., 1968, Astrophysical Letters, vol. 1, p. 11 [4] Antonucci, R. R. J., Miller, J. S., 1985, Astrophysical Journal, vol. 297, p. 621 [5] Baade, W., Minkowski, R., 1954, Astrophysical Journal, vol. 119, p. 206 Burbidge, G. R., 1958, Paris Symposium on Radio Astronomy, IAU Symposium no. 9 et URSI Symposium no. 1, édité par Ronald N. Bracewell. Stanford University Press, Stanford, CA, 1959, p. 541 [6] Bacon, R., Emsellem, E., Monnet, G., Nieto, J. L., 1994, Astronomy & Astrophysics, vol. 281, p. 691 [7] Bahcall, J. N., Salpeter, E. E., 1965, Astrophysical Journal, vol. 142, p. 1677 [8] Balbus, S. A., Hawley, J., F., 1991, Astrophysical Journal, vol. 376, p. 214 [9] Barthel, P. D., 1989, Astrophysical Journal, vol. 336, p. 606 [10] Bergeron, J., 1985, ESO Messenger, p. 7-9 [11] Block, D. L., Bournaud, F., Combes, F., Groess, R., Barmby, P., Ashby, M. L. N., Fazio G.G., Pahre M. A., Willner S. P., 2006, Nature, vol. 443, p. 832 [12] Burbidge, E. M., 1964, Comptes rendus du Symposium no. 23 de l’UAI, Liège, Belgium, 17th to 20th August 1964, édité par Jean-Louis Steinberg, Impr. Taffin-Lefort, p. 181 [13] Burbidge, G. R., 1958, Paris Symposium on Radio Astronomy, IAU Symposium no. 9 et URSI Symposium no. 1, édité par Ronald N. Bracewell. Stanford University Press, Stanford, CA, 1959, p. 541 [14] Burbidge, G. R., Burbidge, E. M., Sandage, A. R., 1963, Reviews of Modern Physics, vol. 35, p. 947 [15] Burbidge, M., Burbidge, G. R., Prendergast, K. H., 1959, Astrophysical Journal, vol. 130, p. 26

394

BIBLIOGRAPHIE

[16] Burbidge, E. M., Lynds, C. R., Burbidge, G. R., 1966, Astrophysical Journal, vol. 144, p. 447 [17] Blandford, R. D., McKee, C. F., 1982, Astrophysical Journal, vol. 255, p. 419 [18] Blandford, R. D., Znajek, R. L., 1977, Monthly Notices of the Royal Astronomical Society, vol. 179, p. 433 [19] Carter, B., Luminet, J.-P., 1982, Nature, vol. 296, p. 211 [20] Clavel, J., Nandra, K., Makino, F., Pounds, K. A., Reichert, G. A., Urry, C. M., Wamsteker, W., Peracaula-Bosch, M., Stewart, G. C., Otani, C., 1992, Astrophysical Journal, vol. 393, p. 113 [21] Collin, S., Zahn, J.-P., 1999, Astronomy & Astrophysics, vol. 344, p. 433 [22] Collin-Souffrin, S., Alloin, D., Andrillat, Y., 1973, Astronomy and Astrophysics, vol. 22, p. 343 [23] Collin-Souffrin, 1991, Astronomy & Astrophysics, vol. 249, p. 344 [24] Courvoisier, T. J.-L., Clavel, J., 1991, Astronomy & Astrophysics, vol. 248, p. 389 [25] Dent, W. A., 1965, Science, vol. 148, numéro 3676, p. 1458 [26] Dhawan, V., Chaty, S., Rodriguez, L.F., Marti, J., Robinson, C.R., Swank, J., Geballe, T., 1998, Astronomy & Astrophysics, vol. 330, p. 9 [27] Dibai, É. A., Pronik, V. I., 1965, Astrophysics, vol. 1, p. 5 [28] Dibai, É. A., Pronik, V.I., 1967, Astronomicheskii Zhurnal, vol. 44, p. 95 [29] Dicke, R. H., Peebles, P. J. E., Roll, P. G., Wilkinson, D. T., 1965, Astrophysical Journal, vol. 142, p. 414 [30] Eckart, A., Genzel, R., 1996, Nature, vol. 383, p. 415 [31] Elitzur, M., Schlosman, I., 2006, Astrophysical Journal, vol. 648, p. 101 [32] Fabian, A. C., Rees, M. J., 1995, Monthly Notices of the Royal Astronomical Society, vol. 277L, p. 55 [33] Fabian, A. C., Rees, M. J., Stella, L., White, N. E., 1989, Monthly Notices of the Royal Astronomical Society, vol. 299, p. 729 [34] Ferrarese, L., Merritt, D., 2000, Astrophysical Journal, vol. 539, p. 9 [35] Friedmann, A., 1922, Zeitschrift für Physics, vol. 10, p. 377 [36] Galianni, P., Burbidge, E. M., Arp, H., Junkkarinen, V., Burbidge, G., Zibetti, S., 2005, Astrophysical Journal, vol. 620, p. 88

BIBLIOGRAPHIE

395

[37] Gebhardt, K. et al., 2000, Astrophysical Journal, vol. 539, p. L13 [38] Genzel, R., Schödel, R., Ott, T., Eckart, A., Alexander, T., Lacombe, F., Rouan, D., Aschenbach, B., 2003, Nature, vol. 425, p. 934 [39] Genzel, R., Schödel, R., Ott, T., Eckart, A., Alexander, T., Lacombe, F., Rouan, D., Aschenbach, B., 2003, Nature, vol. 425, p. 934 [40] Greenstein, J. L., Matthews, T. A., 1965, Nature, vol. 197, p. 1041 [41] Greenstein, J. L., Schmidt, M., 1964, Astrophysical Journal, vol. 140, p. 1 [42] Gunn, J. E., Peterson, B. A., 1965, Astrophysical Journal, vol. 142, p. 1633 [43] Hazard, C., Mackey, M. B., Shimmins, A. J., 1963, Nature, vol. 197, p. 1037 [44] Hewish, A., Bell, S. J., Pilkington, J. D., Scott, P. F., Collins, R. A., 1968, Nature, vol. 217, p. 709 [45] Hoyle, F., Burbidge, G. R., Sargent, W. L. W., 1966, Nature, vol. 209, p. 751 [46] Hubble, E., 1925, Astrophysical Journal, vol. 62, p. 409 [47] Hubble, E., 1929, Proceedings of the National Academy of Sciences of the United States of America, Volume 15, p. 168 [48] Humason, M. L., Mayall, N. U., Sandage, A. R., 1958, Astronomical Journal, vol. 61, p. 97 [49] Jaffe, W., et al., 2004, Nature, vol. 429, p. 47 [50] Jourdain, E. et al., 1991, Proceedings of the 22nd International Cosmic Ray Conference, Dublin : The Institute for Advanced Studies, vol. 1, p. 177 [51] Junor, W., Biretta, J. A., Livio, Mario, 1999, Nature, vol. 401, 891 [52] Kaspi, S., Smith, P. S., Netzer, H., Maoz, D., Jannuzi, B. T., Giveon, U., 2000, Astrophysical Journal, vol. 533, p. 631 [53] Khachikian, E. Y., Weedman, D. W., 1974, Astrophysical Journal, vol. 192, p. 581 [54] Komossa, S., Burwitz, V., Hasinger, G., Predehl, P., Kaastra, J. S., Ikebe, Y., 2003, Astrophysical Journal, vol. 582, p. L15 [55] Komossa, S., Halpern, J., Schartel, N., Hasinger, G., Santos-Lleo, M., Predehl, P., 2004, Astrophysical Journal, vol. 603, p. L17 [56] Krolik, J. H., Horne, K., Kallman, T. R., Malkan, M. A., Edelson, R. A., Kriss, G. A., 1991, Astrophysical Journal, vol. 371, p. 541 [57] Lynden-Bell, D., 1969, Nature, vol. 223, p. 690 [58] Lynds, C. R., 1967, Astrophysical Journal, vol. 147, p. 396

396

BIBLIOGRAPHIE

[59] Madejski, G., Done, C., Turner, T. J., Mushotzky, R. F., Serlemitsos, P., Fiore, F., Sikora, M., Begelman, M., 1994, Comptes rendus du « ROSAT Science Symposium » American Institute of Physics Conference proceedings, vol. 313, p. 59 [60] Magorrian, J., Tremaine, S., Richstone, D., Bender, R., Bower, G., Dressler, A., Faber, S. M., Gebhardt, K., Green, R., Grillmair, C., Kormendy, J., Lauer, T., 1998, Astronomical Journal, vol. 115, p. 2285 [61] Maillard, J. P., Paumard, T., Stolovy, S. R., Rigaut, F., 2004, Astronomy & Astrophysics, vol. 423, p. 155 [62] Malkan, M. A., Sargent, W. L. W., 1982, Astrophysical Journal, vol. 254, p. 22 [63] Matthews, T. A., Sandage, A. R., 1963, Astrophysical Journal, vol. 138, p. 30 [64] Mathez, G., 1976, Astronomy and Astrophysics, vol. 53, p. 15 [65] Matsumoto, R., 1998, http://www.astro.phys.s.chiba-u.ac.jp/∼matumoto/r-matsumoto.cdrom/ [66] Miller, J. S., Antonucci, R. R. J., 1983, Astrophysical Journal Letter, vol. 271, p. 7L [67] Miyoshi, M., Moran, J., Herrnstein, J., Greenhill, L., Nakai, N., Diamond, P., Inoue, M., 1995, Nature, vol. 373, p. 127 [68] Nandra, K., George, I. M., Mushotzky, R. F., Turner, T. J., Yaqoob, T., 1997, Astrophysical Journal, vol. 477, p. 602 [69] Nandra, K., Fabian, A. C., Inoue, H., Otani, C., Dotani, T., Hayashida, K., Iwasawa, K., Kii, T., Kunieda, H., Makino, F., Matsuoka, M., 1995, Nature, vol. 375, p. 659 [70] Narayan, R., Yi, I., 1994, Astrophysical Journal, vol. 428, p. 13 [71] Oke, J. B., 1963, Nature, vol. 197, p. 1040 [72] Osterbrock, D. E., Parker, R. A. R., 1965, Astrophysical Journal, vol. 141, p. 89 [73] Penzias, A. A., Wilson, R. W., 1965, Astrophysical Journal, vol. 142, p. 419 [74] Peterson, B. M., Ferrarese, L., Gilbert, K. M., Kaspi, S., Malkan, M. A., Maoz, D., Merritt, D., Netzer, H., Onken, C. A., Pogge, R. W., Vestergaard, M., Wandel, A., 2004, Astrophysical Journal, vol. 613, p. 682 [75] Pooley, G. G., Browne, I. W. A., Daintree, E. J., Moore, P. K., Noble, R. G., Walsh, D. 1979, Nature, vol. 280, p. 461 [76] Pounds, K. A., Nandra, K., Stewart, G. C., George, I. M., Fabian, A. C., 1990, Nature, vol. 344, p. 132 [77] Readhead, A. C. S., Cohen, M. H., Blandford, R. D., 1978, Nature, vol. 272, p. 131 [78] Reber, G., 1944, Astrophysical Journal, vol. 100, p. 279

BIBLIOGRAPHIE

397

[79] Rees, M. J., 1967, Monthly Notices of the Royal Astronomical Society, vol. 135, p. 345 [80] Reynolds, C. S., di Matteo, T., Fabian, A. C., Hwang, U., Canizares, C. R., 1996, Monthly Notices of the Royal Astronomical Society, vol. 283L, p. 111 [81] Salpeter, E. E., 1964, Astrophysical Journal, vol. 140, p. 796 [82] Sandage, A., 1965, Astrophysical Journal, vol. 141, p. 1560 [83] Sandage, A., 1958, Astrophysical Journal, vol. 127, p. 513 [84] Sanders, D. B., Phinney, E. S., Neugebauer, G., Soifer, B. T., Matthews, K., 1989, Astrophysical Journal, vol. 347, p. 29 [85] Sargent, W. L. W., Young, P. J., Boksenberg, A., Tytler, D., 1980, Astrophysical Journal Supplement, vol. 42, p. 41 [86] Schmidt, M., 1963, Nature, vol. 197, p. 1040 [87] Schödel, R., et al., 2002, Nature, vol. 419, p. 694 [88] Setti, G., Woltjer, L., 1989, Astronomy & Astrophysics, vol. 224, p. 21 [89] Seyfert, C. K., 1943, Astrophysical Journal, vol. 97, p. 28 [90] Shakura, N. I., Sunyaev, R. A., 1973, Astronomy & Astrophysics, vol. 24, p. 337 [91] Shields, G. A., 1978, Nature, vol. 272, p. 706 [92] Shields, G. A., Oke, J. B., Sargent, W. L. W., 1972, Astrophysical Journal, vol. 176, p. 7 [93] Shu F., 1982, The Physical Universe, an Introduction to Astronomy [94] Smith, H. J., Hoffleit, D., 1963, Nature, vol. 198, p. 650 [95] Sol, H., Pelletier, G., Asseo, E., 1989, Monthly Notices of the Royal Astronomical Society, vol. 237, p. 411 [96] Soucail, G., Mellier, Y., Fort, B., Mathez, G., Hammer, F., 1987, Astronomy & Astrophysics, vol. 184, p. 7 [97] Souffrin, S., 1968, Annales d’Astrophysique, vol. 31, p. 569 [98] Souffrin, S., 1969, Astronomy and Astrophysics, vol. 1, p. 305 et p. 414 [99] Tremaine, S. et al., 2002, Astrophysical Journal, vol. 574, p. 740 [100] Vaughan, S., Fabian, A. C., 2004, Monthly Notices of the Royal Astronomical Society, vol. 348, p. 1415 [101] Webster, B. L., Murdin, P., 1972, Nature, vol. 235, p. 37 [102] Wilson, A. S., Colbert, E. J. M., 1995, Astrophysical Journal, vol. 438, p. 62

398

BIBLIOGRAPHIE

[103] Wlerick, G., 1974, Comptes rendus de la Conférence « Electrography and Astronomical Applications », Austin, Tex., p. 307 [104] Woltjer, L., 1959, Astrophysical Journal, vol. 130, p. 38 [105] Woltjer, L., 1966, Astrophysical Journal, vol. 146, p. 597 [106] Young, A. J., Lee, J. C., Fabian, A. C., Reynolds, C. S., Gibson, R. R., Canizares, C. R., 2005, Astrophysical Journal, vol. 631, p. 733 [107] Zeldovich, Y. B., 1964, Dokl. Akad. Nauk SSSR, 155, 67

Annexe A

Petit précis pour apprendre à « parler astrophysicien » « L’homme est la mesure de toute chose », disaient les Grecs anciens. S’il est un domaine pour lequel cette assertion est fausse, c’est bien l’astronomie. Mesurer l’Univers à l’aune de la taille de l’homme est aussi aberrant que de la comparer à celle d’un atome élémentaire. Exprimer sa durée en années est aussi arbitraire que de l’exprimer en secondes. La température de fusion ou d’évaporation de l’eau n’a pas plus de sens dans l’Univers que celle de la fusion d’un métal réfractaire. Les astronomes ont donc développé des systèmes d’unités inhabituelles ; par exemple ils expriment les distances en trajet de la lumière qui, comme on le sait, parcourt 300 000 kilomètres par seconde. Nous utilisons ces systèmes, c’est pourquoi je vous convie dans ce chapitre à quelques petits exercices d’assouplissement cérébral qui vous permettront de vous habituer à manipuler ce que l’on nomme à juste titre les nombres astronomiques. Nous vivons sur une petite boule de fer et de pierre, la Terre, perdue au milieu d’un monde fantastiquement grand. Nous y connaissons des conditions très particulières : une température moyenne de quelques degrés centigrades avec des extrêmes ne dépassant pas plus ou moins cinquante degrés, un climat assez stable, de l’eau liquide, une atmosphère suffisante pour absorber les rayons nocifs du Soleil. . . Notre situation est exceptionnelle car nous habitons l’une de ces minuscules contrées de l’Univers où les conditions ont été favorables au développement de la vie. Bien qu’elles ne nous apparaissent pas toujours comme telles, elles y sont extraordinairement douces par rapport à celles régnant dans la plus

400

Des quasars aux trous noirs

grande partie de l’Univers, froids intenses ou températures incroyablement élevées, pressions gigantesques ou vides insondables. Aussi, les lecteurs ou les lectrices pénétrant pour la première fois dans les arcanes de l’astrophysique doivent s’habituer à penser et à parler en termes nouveaux car dans le cosmos presque tout diffère de notre monde habituel.

Les distances dans l’Univers Depuis que l’homme a posé le pied sur la Lune et qu’il a exploré par sondes spatiales interposées presque tout le Système solaire, il s’imagine être en train d’apprivoiser l’Univers. Et l’on entend souvent dire que dans cent ans ou dans mille ans, nous serons capables d’atteindre les confins de la Galaxie et probablement de nous rendre dans d’autres galaxies. Or rien n’est moins sûr, car il faudrait une véritable révolution des lois de la physique pour y parvenir, en tout cas pour un temps concevable à l’échelle humaine. Le Système solaire n’est en effet qu’un infime fétu au milieu du vide sidéral qui nous sépare de l’étoile la plus proche, Proxima du Centaure, située dix mille fois plus loin que les confins du Système solaire. À l’œil nu, nous distinguons une myriade d’étoiles mais c’est moins d’un millionième de celles qui peuplent notre Galaxie – la Voie lactée. Et lorsque nous allons à la découverte de planètes où la vie pourrait s’être implantée, nous les recherchons seulement parmi les étoiles les plus proches, alors que la plupart des étoiles de la Voie lactée sont mille ou dix mille fois plus éloignées. Nos yeux nous permettent également d’apercevoir quelques galaxies dont chacune contient des milliards d’étoiles, mais ce sont nos voisines. Il y en a des milliards d’autres situées encore dix mille fois plus loin que seuls les très grands télescopes arrivent à repérer. Il a donc bien fallu inventer de nouvelles unités pour caractériser ces distances sans quoi nous aurions été obligés avec nos unités habituelles – le mètre, le kilomètre – d’utiliser des chiffres suivis d’une énorme quantité de zéros. Déjà dans le Système solaire nous abandonnons souvent les kilomètres et préférons parler « d’unité astronomique », égale au rayon de l’orbite terrestre, soit cent cinquante millions de kilomètres. Le rayon de l’orbite de Neptune, la planète géante la plus éloignée du Soleil, est trente fois plus grand. Mais c’est tout à fait insuffisant lorsque nous sortons du Système solaire. Nous utilisons alors une nouvelle unité, la distance parcourue par la lumière en une année que l’on appelle « année-lumière ». Lorsque l’on

Petit précis pour apprendre à « parler astrophysicien »

sait que la lumière met une seconde pour nous parvenir de la lune, huit minutes pour nous parvenir du Soleil, on réalise le saut que l’on fait en passant à l’année ! Comme la lumière se déplace avec une vitesse de trois cent mille kilomètres par seconde, une année-lumière est égale à 1016 mètres (1 suivi de 16 zéros), ou dix mille milliards de kilomètres. En fait, les astronomes utilisent plus souvent une autre unité, le parsec, qui vaut trois années-lumière. C’est le diamètre de l’orbite d’une étoile vue depuis la Terre sous un angle d’une seconde d’arc. Tout cela n’est rien encore comparé aux distances auxquelles nous avons affaire dans ce livre, car nous nous intéressons à l’Univers extragalactique. Pour sortir de la Voie lactée, il nous faut franchir environ cinquante mille annéeslumière. Mais l’Univers observable est bien plus grand puisqu’il a un rayon de quatorze milliards d’années-lumière et que les quasars dont il est question ici sont situés à des milliards d’années-lumière, certains même aux confins de l’Univers, à des distances de treize milliards d’années-lumière. Nous utilisons donc les dérivés du parsec : le kiloparsec (kpc, ou mille parsecs), le mégaparsec (Mpc, un million de parsecs), enfin le gigaparsec (Gpc, ou un milliard de parsecs). Nombre d’entre vous, ont certainement vu le magnifique film Les puissances de dix de Charles et Ray Eames qui fait monter puis descendre en quelques minutes tous les degrés de l’échelle cosmique depuis les microscopiques particules élémentaires jusqu’aux gigantesques super-amas de galaxies. Nous occupons nous-mêmes une situation un peu inconfortable, plus près de l’infiniment petit que de l’infiniment grand, et c’est pourquoi nous avons beaucoup de mal à appréhender les distances astronomiques (comme leur nom l’indique bien, d’ailleurs). Au lieu d’utiliser des « puissances de dix », c’est-à-dire des facteurs dix, imaginons que nous disposions d’un microscope nous permettant un grossissement de dix mille. La figure A.1 nous montre comment on passerait par cinq grossissements successifs d’un facteur dix mille (donc dans l’ensemble par un facteur 1020 ) de la dimension de l’Univers à celle de l’orbite de la Lune. Il nous faudrait encore deux zooms pour parvenir à la taille d’un homme et quatre autres pour arriver à celle d’une particule élémentaire. Il ne faut pas croire cependant que tout ce dont nous parlons dans ce livre est démesuré. Les quasars eux-mêmes ne sont pas atteints de gigantisme. Au contraire, ils sont petits puisque la plupart des phénomènes se produisent dans un rayon d’une année-lumière et même les plus importants dans

401

402

Figure A.1. Les distances dans l’Univers, par zooms successifs.

Des quasars aux trous noirs

un espace de l’ordre de quelques unités astronomiques. C’est tout juste s’il ne faudrait pas revenir à nos bons vieux kilomètres pour les décrire. De plus, nous avons souvent affaire à des processus microscopiques dont les dimensions caractéristiques sont celles des atomes ou des noyaux atomiques. Ce sont eux qui produisent la lumière qui nous parvient des quasars, et les dimensions des ondes lumineuses sont par conséquent très petites. Il nous faut donc explorer également ces dimensions d’autant plus que nous utilisons pour les caractériser des unités diverses et que le passage de l’une à l’autre n’est pas évident.

Les températures dans l’Univers Sur Terre, nous sommes habitués à parler de la température de l’air, de l’eau, de la température à l’intérieur d’un four, de celle d’un métal en fusion. . . Cette température correspond à une notion assez simple : elle traduit la vitesse d’agitation des molécules et des atomes dans un système. Car les particules ne sont jamais au repos, elles s’agitent sans cesse comme les individus d’une fourmilière, mais cette agitation est sans but, elle est conduite par le seul hasard. Ces déplacements permanents sont plus ou moins rapides et la température est en conséquence plus ou moins élevée mais ils ne cessent jamais. L’échelle des températures utilisée par les physiciens, les degrés kelvin1 , commence à un état où toutes les particules sont complètement figées. Cet état n’existe pas : c’est le zéro Du nom d’un physicien britannique xixe siècle, Lord Kelvin (de son vrai nom William Thomson), qui s’est illustré dans divers domaines dont la thermodynamique.

1

Petit précis pour apprendre à « parler astrophysicien »

absolu, qui se trouve à 273◦ en dessous de la température de fusion de la glace. Nous utiliserons bien entendu les degrés kelvin, notés K, qui ont l’avantage d’être reliés très simplement à l’énergie d’agitation des particules. Dans la vie courante, on utilise les degrés Celsius2 (sauf si l’on est américain auquel cas on utilise les Fahrenheit) dont le zéro correspond à la fusion de la glace et dont l’échelle est la même que celle des degrés kelvin (ils n’en diffèrent donc que par 273). L’usage courant de l’azote ou de l’air liquide nous a habitués à manipuler des températures très basses. Bien moins basses cependant que celles que l’on rencontre dans certains nuages interstellaires où elle peut frôler les 10 K (−263 degrés centigrades). Du côté des températures élevées, elles atteignent sur Terre tout au plus quelques milliers de degrés comme dans le four solaire d’Odeillo ou lors de la fusion d’éléments réfractaires. L’homme sait cependant créer des températures plus élevées, mais seulement pendant des quelques milliardièmes de secondes comme dans le « laser mégajoule » construit près de Bordeaux où la température atteint dix millions de degrés. Et naturellement, ce que l’on cherche avec les expériences de fusion thermonucléaire comme ITER c’est à atteindre une température de quelques centaines de millions de degrés pendant un temps suffisamment long pour permettre l’entretien de réactions nucléaires « contrôlées », mais on est probablement encore loin d’y parvenir. Dans les milieux astrophysiques, nous jonglons avec des températures extrêmes. Les étoiles se forment au sein de nuages de gaz très froids dont la température ne dépasse pas quelques dizaines de kelvins, mais une fois formées leur cœur atteint rapidement des centaines de millions, voire des milliards de degrés. Nous pouvons évaluer les vitesses d’agitation correspondantes. La vitesse moyenne d’agitation, qu’on appelle « vitesse d’agitation thermique » (car il n’y a pas une vitesse mais une distribution de vitesses autour d’une valeur moyenne) est reliée à la température par une relation simple : la vitesse en mètre par seconde est égale à 130 multiplié par la racine carrée de (T/M) où M est la masse atomique de l’élément considéré et T la température en degré kelvin. Par exemple, à 300 K (27 degrés Celsius, une température estivale dans nos contrées), la vitesse d’agitation d’une molécule d’air (dont la masse atomique est 30) est de 410 mètres par seconde. 2 Le physicien suédois Anders Celsius construisit pour la première fois un thermomètre à mercure entre zéro et cent degrés, mais pour lui le zéro était le point d’ébullition de l’eau, et cent le point de fusion de la glace.

403

404

Des quasars aux trous noirs

On constate que cette vitesse n’est pas éloignée de celle du son dans l’air et ce n’est pas un hasard car celle-ci est également reliée à la vitesse d’agitation thermique. Si nous considérons maintenant des milieux dans lesquels la température est d’un milliard de degrés, nous constatons que la vitesse d’un électron (dont la masse atomique est de 0,00055) est égale à 175 000 kilomètres par seconde. Cette valeur est proche de la vitesse de la lumière. Au-dessus d’un milliard de degrés, on dit donc que les électrons deviennent « relativistes », c’est-à-dire qu’il faut appliquer à leurs mouvements les lois de la relativité restreinte. Ce sont des gaz portés à de telles températures qui produisent une fraction importante du rayonnement des quasars. À des températures encore plus élevées, vers le trillion de degrés, même les protons et les particules plus lourdes deviennent relativistes. Par ailleurs, nous parlons à plusieurs reprises dans ce livre de « disques d’accrétion » dont la température est comprise entre cent mille et un million de degrés. Mais là, justement, il faut comprendre un point important concernant la température. C’est qu’il y en a plusieurs et dans certains cas la notion de température est même difficile à définir et prend des sens qui ne sont pas tous proches du sens commun. Celle dont nous nous servons couramment sur Terre est « la température du corps noir ». Cette expression étrange indique qu’il s’agit de la température d’un système absorbant tout le rayonnement qu’il reçoit et apparaissant donc noir. L’image qu’on en donne généralement est celle d’un four dont on regarde l’intérieur à travers un trou. En fait, il n’est pas nécessaire de regarder à travers un trou pour voir un corps noir, n’importe quel système très absorbant nous en fournit des exemples presque parfaits. C’est ainsi qu’on peut considérer les étoiles comme de relativement bons corps noirs. L’atmosphère terrestre en est également un. Un corps noir est celui qui a atteint un état d’équilibre parfait que l’on appelle « l’équilibre thermodynamique ». Ainsi un morceau de fer chauffé commence à émettre de la lumière rouge, puis il change progressivement de couleur pour finir par être blanc lorsque sa température a atteint sa valeur maximale. Sa température est alors à l’équilibre avec celle que lui fournit la flamme de la forge car c’est une des lois de la nature que les systèmes tendent vers leur état d’équilibre. Une fois qu’ils y sont parvenus, ils y restent à moins de subir une forte perturbation. La caractéristique d’un corps noir est que son spectre électromagnétique ne dépend que de sa température. Il est donné par la

Petit précis pour apprendre à « parler astrophysicien »

405

Figure A.2. Spectres de corps noirs à différentes températures en fonction de la fréquence.

« loi de Planck », du nom du physicien allemand Max Planck qui révolutionna la physique en fusionnant théories ondulatoire et corpusculaire et en introduisant les quanta. Les figures A.2 et A.3 donnent le spectre de corps noirs correspondant à différentes températures. Dans la première, l’intensité par intervalle unité de fréquence est donnée en fonction de la fréquence : c’est une façon courante de représenter le spectre électromagnétique. Pour les quasars qui ont un spectre électromagnétique très particulier, on a maintenant l’habitude de montrer leur spectre en portant l’intensité multipliée par la fréquence et non l’intensité en fonction de la fréquence. Cette représentation a l’avantage de montrer plus clairement dans quel domaine la majeure partie de l’énergie est rayonnée. Sur la deuxième, c’est l’intensité par unité de longueur d’onde en fonction de la longueur d’onde qui est donnée. Ce que l’on voit sur ces figures c’est que plus un milieu est chaud, plus il rayonne à de grandes fréquences (donc à de petites longueurs d’onde) et plus il produit d’énergie. Ainsi, une étoile comme le Soleil dont la température de surface est de 5 600 K rayonne essentiellement vers 1015 Hz, c’est-à-dire dans

406

Des quasars aux trous noirs

Figure A.3. Spectres de corps noirs à différentes températures en fonction de la longueur d’onde.

le domaine visible3 , tandis que les étoiles les plus chaudes (les étoiles O) qui ont des températures de plusieurs dizaines de milliers de degrés rayonnent dans l’ultraviolet : elles ne sont donc pas visibles à l’œil nu ou bien elles apparaissent comme des étoiles bleutées. Un disque d’accrétion d’un million de degrés rayonne dans l’ultraviolet lointain et dans les X mous. Il existe d’ailleurs une loi simple entre la fréquence du maximum de l’intensité (par unité de fréquence) et la température : ν (maximum) = 6 × 1010 T(K) Hz. Faut-il en déduire que les régions à un milliard de degrés dont je parlais précédemment rayonnent comme des corps noirs ? Non, car elles produiraient des quantités d’énergie effroyables à moins d’avoir des dimensions minuscules. Il ne s’agit donc plus de rayonnement de corps noir, le système 3 Le Soleil nous semble jaune alors qu’il devrait être blanc car son spectre couvre toutes les couleurs de l’arc-en-ciel. C’est parce que son rayonnement est absorbé par l’atmosphère terrestre préférentiellement dans le bleu et qu’il ne nous en reste que les radiations jaunes et rouges. Mais ce qui a été absorbé est diffusé par les molécules de l’atmosphère et le ciel nous apparaît par conséquent lui-même bleu. En ajoutant l’intensité du ciel à celle du Soleil, on retrouve bien le blanc que nous devrions voir et que voient effectivement les cosmonautes en regardant le Soleil.

Petit précis pour apprendre à « parler astrophysicien »

étant très peu absorbant et ne satisfaisant par conséquent pas aux conditions requises pour être un corps noir. Il s’agit du rayonnement d’un gaz dilué, beaucoup moins intense que celui d’un corps noir, qui n’a pas non plus un spectre semblable même s’il se produit dans le même domaine. Il est très difficile de donner de ce phénomène des exemples pris dans la vie courante car il n’y en a pas sur Terre, sauf dans des conditions extrêmes atteintes en laboratoire ou alors, comme je l’ai dit à propos du morceau de fer chauffé, lorsqu’un système n’a pas encore atteint son état d’équilibre. Mais on en trouve de très nombreux dans le cosmos. Les étoiles elles-mêmes sont des corps noirs « approximatifs » car elles ont une atmosphère diluée que le rayonnement traverse avant de nous parvenir. Mais il existe des exemples de systèmes qui, bien qu’ayant atteint leur équilibre, sont loin de rayonner comme des corps noirs car ils sont très dilués et transparents. Peut-être l’exemple le plus frappant est-il celui de la couronne solaire. Nous pouvons admirer lors d’éclipses totales de Soleil cette magnifique auréole de flammes qui nous apparaît exactement de la même couleur jaune que le Soleil lui-même. Nous pourrions donc croire qu’il s’agit d’un gaz à la même température que la surface du Soleil. Il n’en est rien car la couronne est un gaz porté à des millions de degrés, comme nous le prouvent de nombreux indices, par exemple son émission dans le domaine X. Si nous la voyons jaune c’est que les poussières qu’elle contient diffusent la lumière solaire en la renvoyant dans notre direction. Dans la couronne coexistent donc plusieurs températures : la température d’agitation des particules de plusieurs millions de degrés ; la température du rayonnement dans lequel elle baigne à 5 600 K ; et diverses températures intermédiaires correspondant aux processus qui émettent les raies spectrales. Un autre exemple est celui des nébuleuses brillantes comme la nébuleuse d’Orion. La matière y est très diluée puisqu’elle atteint des pressions des milliards de milliards de fois plus faibles que celle de l’atmosphère terrestre et, de plus, elles ne sont pas très opaques. Ces nébuleuses baignent dans le rayonnement ultraviolet d’étoiles très chaudes mais il est terriblement affaibli car la dimension typique de telles nébuleuses est de l’ordre de dizaines d’annéeslumière (imaginons que le Soleil soit dix mille fois plus loin de la Terre et donc que son rayonnement nous parvienne affaibli par un facteur cent millions). La température d’agitation thermique y est de l’ordre de dix mille degrés mais la « température du rayonnement » n’y est que de quelques degrés kelvin. Un homme qui serait plongé dans une nébuleuse serait donc

407

408

Des quasars aux trous noirs

enveloppé d’une lumière bleutée, celle qui est émise par la nébuleuse, il ressentirait un froid glacial tandis que ses appareils de mesure lui indiqueraient des vitesses des particules de dix kilomètres par seconde et une température du gaz de l’ordre de 10 000 degrés. . . Nous retrouvons dans les quasars des conditions très semblables à celles-ci.

Les vitesses dans l’Univers Sur Terre, les vitesses les plus grandes que nous connaissions sont celles des avions supersoniques qui peuvent dépasser un kilomètre par seconde. Pour s’échapper de l’attraction terrestre, les fusées doivent atteindre une vitesse de onze kilomètres par seconde. Les sondes interplanétaires atteignent plusieurs dizaines de kilomètres par seconde. Ces vitesses nous paraissent très grandes mais elles sont excessivement faibles en comparaison de celles que nous rencontrons tout au long de ce livre. Nous y découvrons des nuages de gaz ou des vents se mouvant à des vitesses de plusieurs milliers de kilomètres par seconde. Nous y voyons des bouffées de particules éjectées des quasars avec des vitesses ne différant de celle de la lumière que par des quantités infimes d’un dix-millième ou un cent-millième. Nous constatons que des maelströms de gaz et d’étoiles tournent à des vitesses de cent mille kilomètres par seconde. Nous avons déjà dit que nous y trouvons des gaz à des milliards de degrés, dont les particules s’agitent avec une vitesse proche de celle de la lumière. De telles vitesses font partie du quotidien des astrophysiciens (ainsi d’ailleurs que des physiciens étudiant les particules dans les grands accélérateurs), mais pour les autres elles sont presque inimaginables. Il faut donc s’habituer à elles et réaliser leur signification car elles reviennent en permanence dans ce livre.

Les densités dans l’Univers La densité est la masse par unité de volume. La densité de l’eau est d’un kilogramme par litre avec les unités des physiciens et des ingénieurs, ou pour parler avec les unités des astrophysiciens d’un gramme par centimètre cube. La densité de l’air atmosphérique est environ mille fois plus faible. Les astrophysiciens remplacent souvent la densité par le nombre de particules. Comme l’Univers est essentiellement constitué d’atomes d’hydrogène dont la masse est de 1,66 × 10−24 grammes, un gramme par centimètre cube

Petit précis pour apprendre à « parler astrophysicien »

correspond à 6,02 × 1023 atomes d’hydrogène par centimètre cube (c’est ce que l’on appelle le « nombre d’Avogadro »). Ce nombre paraît absolument gigantesque, pourtant dans l’atmosphère terrestre il est à peine mille fois plus faible. Dans certains laboratoires, on atteint des densités dix mille fois plus grandes que la densité de l’eau : on parle alors de « haute pression », la pression étant proportionnelle à la densité multipliée par la température. On atteint également des basses pressions d’un millionième de la pression atmosphérique, correspondant à environ 1014 atomes par centimètre cube. Dans l’Univers, les densités peuvent prendre des valeurs bien plus extrêmes. Elles ne sont que de quelques centaines ou quelques milliers d’atomes par centimètre cube dans les nuages interstellaires, et le milieu interstellaire dans son ensemble contient en moyenne moins d’un atome par centimètre cube. Entre les galaxies, dans le « milieu intergalactique » qui remplit la majeure partie de l’Univers, il y a seulement 10−5 atomes par centimètre cube, soit dix atomes – 10−23 gramme – par mètre cube, ou même moins. À l’autre extrême, nous avons les étoiles à neutrons dont une cuillère à café pèse cent millions de tonnes ! Les étoiles se situent dans un juste milieu, avec des densités moyennes voisines de celle de la Terre. Et si leur cœur atteint des pressions bien plus grandes que la Terre, c’est surtout à cause de leur température très élevée. On croit souvent à tort que les quasars sont très denses et qu’il y règne des pressions gigantesques. C’est probablement vrai au centre du trou noir (bien qu’à vrai dire on n’en sache rien) mais paradoxalement ils ont des densités moyennes relativement faibles, surtout si l’on considère l’extraordinaire quantité d’énergie qu’ils génèrent. Même dans les régions les plus proches du trou noir, la densité moyenne n’est pas plus élevée que celle de la Terre ; et là où est rayonnée la majeure partie de leur énergie, la densité et la pression sont inférieures à celles de l’atmosphère terrestre. C’est qu’il n’est pas nécessaire d’atteindre de grandes pressions pour être capable de produire une énorme puissance, il suffit de trouver un mécanisme efficace de transformation de la matière en rayonnement. Et c’est bien ce qu’ils font.

Le spectre électromagnétique Nous savons que la lumière a une double nature puisqu’elle prend suivant les cas la forme d’ondes ou celle de corpuscules.

409

410

Des quasars aux trous noirs

Figure A.4. Représentation de la lumière dans sa version ondulatoire.

Dans sa version ondulatoire, elle est constituée d’un champ électrique et d’un champ magnétique perpendiculaires entre eux et perpendiculaires à la direction de propagation, dont les amplitudes varient de façon sinusoïdale et en phase et qui se déplacent en ligne droite dans le vide (Figure A.4). Une onde est caractérisée par sa « longueur d’onde » qui est la distance entre deux maxima ou deux minima successifs d’amplitude. Elle peut être également caractérisée par sa fréquence, égale à la vitesse de l’onde (ici la vitesse de la lumière) divisée par la longueur d’onde. Les physiciens adorant les lettres grecques, on a l’habitude d’utiliser la lettre lambda, ou λ, pour la longueur d’onde et la lettre nu, ou ν, pour la fréquence. Les longueurs d’onde sont exprimées en mètres, centimètres, microns (mu, ou μ, un millionième de mètre), nanomètres (nm, un milliardième de mètre), angströms (Å, un dix-milliardième de mètre). Les fréquences sont exprimées en hertz (Hz, un cycle par seconde), mégahertz (MHz) ou gigahertz (GHz) (un million ou un milliard de cycles par seconde). Dans sa version corpusculaire, la lumière est constituée de particules sans masse, les photons. Ils sont caractérisés par leur énergie, égale à la fréquence multipliée par une constante (la constante de Planck, du nom de ce grand physicien mentionné plus tôt). Les énergies des photons sont exprimées la plupart du temps en électron-volt, soit l’énergie d’un électron accéléré par un potentiel de un volt (eV, égal à 1,6 × 10−19 joules), en kilo-électron-volt (keV), en méga-électron-volt (MeV), en giga-électron-volt (GeV) et en tera-électron-volt (TeV), etc.4 Bien que lumière et rayonnement électromagnétique recouvrent les mêmes notions, le mot « lumière » est plutôt Alessandro Volta est bien connu pour ses travaux sur l’électricité au xviiie siècle, Anders Angström et Heinrich Hertz se sont illustrés au xixe siècle dans la spectroscopie et l’électromagnétisme. 4

Petit précis pour apprendre à « parler astrophysicien »

411

Figure A.5. Le domaine visible montrant les longueurs d’ondes correspondant aux différentes couleurs de l’arc-en-ciel.

réservé au domaine visible, le seul que nous puissions voir avec nos yeux. Le rayonnement électromagnétique est partagé en effet en divers domaines, correspondant essentiellement aux techniques utilisées pour le capter : depuis les grandes longueurs d’onde jusqu’aux petites, on trouve le domaine radio, celui des micro-ondes, de l’infrarouge, du visible, de l’ultraviolet, des rayons X, enfin des rayons gamma. Nous avons l’habitude de tous ces rayonnements dans notre vie courante. Nous « entendons » les ondes de notre poste de radio parce que les ondes électromagnétiques radio-électriques émises par une station ont été transformées en ondes sonores. Nous utilisons des ondes micro-ondes dans les fours du même nom. Nous sentons le rayonnement infrarouge de notre four traditionnel car il chauffe. Nous percevons le rayonnement ultraviolet sans le voir car il nous brûle la peau. Le rayonnement X, déjà beaucoup plus énergétique, est capable de traverser les parties molles de notre corps lorsque nous faisons des « radiographies »5 . Enfin, le rayonnement gamma est émis lors des explosions des bombes atomiques ou nucléaires et nous savons les effroyables effets qu’il provoque (mais il peut aussi guérir, lorsqu’il est utilisé correctement. . . ). La figure A.5 montre comment se divise en couleurs le rayonnement « visible », tandis que la figure A.6 montre les relations entre longueurs d’onde, fréquences et énergies, ainsi que les différents domaines dont est constitué le rayonnement 5 Ici le mot « radiographie » prête évidemment à confusion, car les rayons X n’ont rien à voir avec le rayonnement radio. Les rayons X furent découverts en 1995 par Wilhem Röntgen qui les baptisa « X » car il ignorait leur nature. Lorsque Henri Becquerel découvrit ensuite les propriétés d’émission de l’uranium, puis Pierre et Marie Curie celles du polonium et du radium, ils appelèrent ce rayonnement « radioactivité », croyant qu’il était identique aux rayons X de Röntgen. Il était en fait constitué de particules et de rayonnement gamma.

412

Figure A.6. Les domaines du rayonnement électromagnétique.

Des quasars aux trous noirs

électromagnétique. Je suggère à ceux qui ne sont pas habitués à ces unités de le photocopier et d’en faire un marque-page qu’ils pourront avoir sous les yeux car j’y fais référence en permanence. Le spectre électromagnétique caractérise la façon dont l’intensité de la lumière varie en fonction de la longueur d’onde. Nous sommes habitués à celui du Soleil, notre étoile, qui s’étend seulement du visible au proche ultraviolet. Ce domaine a la propriété de couvrir ce que l’on nomme « les couleurs de l’arc-en-ciel » dont la superposition nous apparaît blanche. Celui des quasars couvre un domaine considérable, plus grand qu’aucun autre astre dans l’Univers. Il s’étend depuis l’infrarouge lointain jusqu’aux rayons X dans la plupart des cas et dans certains depuis le domaine radio jusqu’au domaine gamma le plus extrême. Seuls les rayonnements radio6 et visibles ne sont pas absorbés par l’atmosphère terrestre. Pour capter les autres, il faut mettre les télescopes sur des ballons, des fusées ou des satellites. Pendant des millénaires, les hommes n’ont donc connu du ciel que son aspect visible. C’est d’ailleurs une chance que nos yeux soient justement capables de détecter le rayonnement visible car c’est dans ce domaine qu’est émis l’essentiel 6 Et encore ne recevons-nous de l’espace que les longueurs d’onde inférieures à 30 mètres. Les autres sont absorbées par l’ionosphère, et il faut également des satellites pour les observer.

Petit précis pour apprendre à « parler astrophysicien »

de l’énergie solaire7 . Or, comme on le voit sur le schéma précédent, cette fenêtre est minuscule comparée au rayonnement électromagnétique dans son ensemble. C’est seulement vers 1950, que l’on commença pour la première fois à observer le ciel dans un autre domaine que le visible grâce à une technique apportée par la guerre, celle des radars. Quelle ne fut pas la stupéfaction alors de découvrir l’existence de puissantes sources radio comme les quasars qui étaient presque invisibles sur les photographies. Puis on s’aperçut avec les débuts de l’ère spatiale et au cours des années suivantes que les satellites infrarouge, ultraviolet, X et gamma nous révélaient tous un ciel différent. On constata ainsi que des astres que l’on croyait bien connaître avaient des propriétés surprenantes ou, mieux encore, qu’il existait des objets totalement nouveaux – parfois prévus par quelques cerveaux remarquables, mais considérés jusqu’alors comme des utopies. Nous en voyons plusieurs exemples dans ce livre. J’arrête ici ces considérations qui, je l’espère, permettent aux lecteurs de se repérer un peu dans les nombres, minuscules ou gigantesques, qui leur sont imposés dans ce livre et de se construire ainsi une image réaliste de ces objets surprenants que sont les quasars.

7

Mais comme les chauves-souris, nous nous serions sans doute orientés au sonar si nos yeux n’avaient pas été sensibles à la lumière visible.

413

This page intentionally left blank

Annexe B

Quelques théories physiques dont il est souvent question dans ce livre Ce chapitre donne quelques notions simples sur les théories physiques sous-tendant divers phénomènes évoqués dans ce livre. Contrairement au précédent, il est réservé aux personnes ayant déjà une certaine expérience du discours scientifique et que ne rebutent pas les équations. Il n’est pas indispensable à la lecture du reste du livre.

La relativité restreinte : contraction des angles et amplification Elle intervient à de nombreuses reprises puisqu’elle a une influence lorsque la vitesse d’un objet par rapport à l’observateur représente une fraction importante de la vitesse de la lumière, ce qui est souvent le cas dans ce livre. Proposée par Einstein en 1905, on l’appelle « restreinte » par opposition à la relativité générale car elle ne s’occupe ni des accélérations ni des interactions gravitationnelles. Je fais l’impasse sur la Relativité Générale dans cette annexe, essayant de rendre compte des phénomènes qui lui sont liés et qui sont utilisés par des approximations et des analogies qui feraient peut-être se dresser sur leur tête les cheveux d’un spécialiste de relativité générale, ce que je ne suis pas. C’est la relativité restreinte qui produit la dilatation du temps, la contraction des longueurs et des angles, etc. Tout le monde a entendu parler des « paradoxes » résultant de son usage dans notre monde habituel, comme le paradoxe du train, celui des jumeaux. . . Son fondement tient dans le

416

Des quasars aux trous noirs

fait que l’on considère non plus un espace à trois dimensions mais un « espace-temps » à quatre dimensions. La « distance généralisée » s dans un espace euclidien à quatre dimensions s’écrit donc, par analogie avec un espace à trois dimensions, s2 = d2 − c2 t2 où c est la vitesse de la lumière et d et t sont respectivement la distance et le temps dans le système de l’observateur. Un principe de la relativité dit que la distance généralisée s est invariante dans un changement de repère tandis que d et t varient. Si nous nous plaçons dans le repère d’une fusée ayant une vitesse ν par rapport à l’observateur, on trouve en appliquant cette invariance que le temps dans la que sur terre par un facteur   fusée s’écoule plus lentement 2 1 − (ν/c) . On appelle 1/ 1 − (ν/c)2 le « facteur de Lorentz », noté γ, qui est toujours plus grand que l’unité. C’est en effet Lorentz qui a montré en 1904 (un an avant que Einstein publie son article sur la relativité restreinte) que les équations de l’électromagnétisme de Maxwell étaient invariantes pour cette transformation de coordonnées. On a aussi l’habitude d’utiliser le paramètre β = ν/c. Une façon un peu différente de démontrer la dilatation du temps est d’invoquer un autre principe de la relativité restreinte, la constance de la vitesse de la lumière dans tout repère en mouvement uniforme. Une démonstration simple du facteur de Lorentz est alors souvent donnée. On suppose que deux miroirs se faisant face sont placés sur la Terre à une distance d l’un de l’autre ainsi que dans une fusée se déplaçant par rapport à la Terre avec la vitesse ν parallèlement aux miroirs. On compte le nombre d’allers-retours d’un photon entre les deux miroirs. Ces miroirs servent donc d’horloge dans leurs repères respectifs. Comme le photon se déplace toujours à la même vitesse, il parcourt sur Terre la distance ct0 où t0 mesure le temps sur Terre. Et comme son trajet dans la fusée est augmenté par le déplacement des miroirs, il devient  2 (νt) + (ct0 )2 où mesure le temps dans la fusée. On a donc (ct)2 = (νt)2 + (ct0 )2 et l’on retrouve bien que le temps sur la fusée est égal à celui de la terre multiplié par le facteur de Lorentz. De là découle l’effet Doppler relativiste dont il est question en permanence dans ce livre puisque c’est lui qui nous permet de déterminer la vitesse d’éloignement d’une galaxie (bien qu’il ne s’agisse pas d’un réel effet Doppler comme je l’explique par ailleurs ; mais les équations utilisées sont les mêmes). Il existe bien d’autres effets dus à la relativité restreinte comme l’amplification et la concentration apparente

Quelques théories physiques dont il est souvent question dans ce livre

(« focalisation ») du rayonnement. Si l’on considère un référentiel R au repos et un référentiel R’ en mouvement, d’axes parallèles, le second se déplaçant par rapport au premier avec une vitesse ν suivant un axe Ox faisant un angle θ avec la direction des rayons lumineux, on montre facilement que l’angle θ’ que fait la direction de la lumière avec l’axe Ox’ obéit à la relation tan θ =

 sin θ 1 1 − ν2 /c2 = tan θ cos θ − ν/c γ(1 − β cos θ)

où apparaît le facteur de Lorentz. On voit que lorsque ν/c est très petit on a sin θ tan θ = cos θ − ν/c et θ’ est de l’ordre θ, tandis que lorsque ν/c est de l’ordre de l’unité (cas relativiste), l’angle θ’ est très petit. Ce qui explique pourquoi le rayonnement de particules relativistes est concentré sur un faisceau très étroit dans la direction du mouvement. On en déduit aussi que le rayonnement subit aussi une amplification en fonction de la vitesse. On appelle facteur Doppler D l’expression 1 · D= γ(1 − β cos θ) Pour calculer le facteur d’amplification de l’intensité il faut tenir compte de deux faits. D’abord les angles solides se transforment comme D2 ainsi que le montre l’expression précédente. Les photons reçus par l’observateur arriveront donc à un rythme D2 fois plus grand que celui de leur émission à cause de la variation d’angle solide. Ensuite, ils subissent l’effet Doppler, dont nous allons parler dans la section suivante, qui augmente leur énergie également dans le rapport D. Si l’intensité à l’émission ne dépend pas de la fréquence, l’intensité observée sera donc D3 fois plus grande que celle qui est émise. Comme D3 peut être plus grand ou plus petit que l’unité, le rayonnement va être amplifié si cosθ est suffisamment grand, donc dans une direction proche du mouvement, ou au contraire atténué dans la direction opposée au mouvement puisque cos θ est alors négatif. Pour le rayonnement synchrotron l’effet est encore plus spectaculaire, car l’intensité à l’émission varie en loi de puissance, en ν−α avec α de l’ordre de l’unité. Le facteur d’amplification devient alors égal à D3+α . Les jets relativistes dont il est souvent question dans le livre obéissent à cet effet. L’angle solide d’ouverture du jet apparaît

417

418

Des quasars aux trous noirs

D2 fois plus petit qu’il n’est en réalité et le jet se propageant dans notre direction apparaît D3+α fois plus puissant et D3+α fois plus faible dans la direction opposée. Par exemple si la direction du jet fait un angle de 20 degrés avec la ligne de visée, que la vitesse d’ensemble est égale à 94 % de celle de la lumière (ce qui correspond à un facteur de Lorentz de 3), on trouve que le jet dirigé vers nous est amplifié par un facteur 20 et l’autre partie affaiblie dans le même rapport. On voit donc qu’il n’est pas nécessaire que l’angle du jet avec la ligne de visée soit très petit pour que l’amplification soit importante. Ceci explique qu’une grande proportion de jets ne sont vus que d’un seul côté tout près de la source d’où ils sont éjectés car ils sont encore très rapides, tandis que beaucoup plus loin on voit deux grands lobes radios symétriques par rapport au centre d’éjection car les particules ont perdu une grande partie de leur vitesse.

Effet Doppler, profil des raies spectrales L’effet Doppler non relativiste est très facile à comprendre en constatant que les photons émis par une source s’éloignant de nous avec une vitesse ν (beaucoup plus petite que la vitesse de la lumière) nous parviendront à un rythme plus lent qu’à leur émission dans le rapport (1 − ν/c). En d’autre termes leur fréquence sera diminuée dans ce rapport, c’est-à-dire : νobservé = νémis (1 − ν/c) et leur longueur d’onde sera augmentée : λobservé = λémis (1 + ν/c). Notons que la vitesse est comptée négativement lorsque la source se rapproche et positivement lorsqu’elle s’éloigne. Mais attention, c’est la vitesse projetée sur la ligne de visée. Cette expression est valable seulement lorsque la vitesse de l’objet est faible ; lorsqu’elle devient voisine de la vitesse de la lumière une correction prenant en compte la dilatation du temps doit être introduite. Avec le même raisonnement que dans la section précédente et en tenant compte de l’inclinaison de la direction d’observation par rapport au mouvement, on obtient : νobservé = νémis γ(1−β cos θ) = νémis /D, ce qui explique pourquoi l’on appelle D « facteur Doppler ». Nous savons que l’expansion de l’Univers se traduit par une « vitesse de fuite » des galaxies par rapport à nous. Il ne s’agit pas d’un effet Doppler à proprement parler, puisque c’est l’Univers dans son ensemble qui « s’étire », mais la relation entre la fréquence observée et la fréquence émise reste la même que pour l’effet Doppler. La fuite des galaxies se

Quelques théories physiques dont il est souvent question dans ce livre

419

Figure B.1. Variation de ν/c en fonction du décalage z.

traduit donc par un décalage (ou décalage spectral) de la longueur d’onde vers les grandes longueurs d’onde ou « vers le rouge ». On a pris l’habitude d’appeler « z » ou « décalage vers le rouge » (que j’appelle simplement « décalage » dans ce livre) la quantité (λobservé − λémis )/λémis qui se réduit à ν/c lorsque ν/c est petit. Lorsque ν/c n’est pas négligeable devant l’unité, il faut tenir compte de l’expression exacte z = γ  (1 − ν/c)/(1 + ν/c) − 1 (car cosθ est égal à (1 − β) − 1 = l’unité dans ce cas). Cette formule explique pourquoi l’on observe des quasars et des galaxies ayant des décalages bien supérieurs à l’unité. En l’appliquant on trouve par exemple qu’une une vitesse de fuite égale à 90 % de celle de la lumière correspond à un décalage z = 4,3. Cela signifie qu’une raie qui se trouverait normalement à une longueur d’onde de 1 000 angströms, dans l’ultraviolet, va se trouver reportée à 1 000*(1 + z) = 5 350 angströms, dans le domaine visible (Figure B.1). J’ai longuement décrit dans le chapitre 4 la détermination des « courbes de rotation » des galaxies par effet Doppler, qui permet d’en mesurer la masse. Voici autre une application de l’effet Doppler lorsqu’il est combiné avec les effets causés par la proximité d’un trou noir : il s’agit du profil très particulier des raies spectrales émises par un disque d’accrétion (comme la raie X de fluorescence du fer à 6,4 keV). Plusieurs profils de ce type ont été montrés dans le chapitre 11. Il y d’abord l’élargissement Doppler dû à la rotation. Alors que nous pouvons observer séparément les deux côtés d’une

420

Des quasars aux trous noirs

Figure B.2. Vitesse d’un disque d’accrétion en rotation, regardé par un observateur.

Figure B.3. Profil de la raie Kα du fer calculé en tenant compte successivement des différents effets qui le modifient, d’après Fabian.

galaxie avec leurs raies décalées vers le rouge ou vers le bleu dans le cas des courbes de rotation, nous voyons ensemble tous les points du disque d’accrétion à cause de sa très petite taille, inférieure à la résolution spatiale. Donc lorsque nous observons un disque d’accrétion, nous observons au même endroit du spectre des régions qui se rapprochent de nous (A sur la figure) et d’autres qui s’en éloignent (B). Deux régions du disque – la plus proche (C) et la plus éloignée (D) – ont des vitesses projetées sur notre ligne de visée très faibles et même nulles aux points C et D (Figure B.2). Imaginons qu’un seul anneau de ce disque émette une raie spectrale (Figure B.3). Nous observerons alors une raie dont le profil présentera deux pointes, l’une vers le rouge et l’autre vers le bleu, comme le montre la figure 1 parmi les quatre suivantes que j’emprunte à Fabian : elles représentent l’intensité de la raie en fonction de la fréquence νobservé divisée par la fréquence νémis de la raie en l’absence de mouvement – ou dans le système du disque en rotation. La partie du disque qui s’éloigne de nous (B) donne la contribution de gauche où ν est plus petit que νémis (le côté du « décalage vers le rouge ») et la partie qui s’en rapproche (A) donne celle de droite où ν est plus grand que νémis (le côté du « décalage vers le bleu »). Le centre du profil est émis par les points C et D où la vitesse projetée est nulle ou quasi nulle. Les deux profils montrés sur la figure correspondent à des anneaux situés à des distances différentes du centre. Ils sont distincts car la vitesse de rotation du disque suit une loi keplérienne et diminue comme la racine carrée de la distance. Si la raie est produite très près du trou noir, la vitesse de rotation de l’anneau est élevée et les points de la raie correspondant à A et B sont éloignés. Le profil dont les pointes sont les plus proches est donc émis par l’anneau le plus éloigné.

Quelques théories physiques dont il est souvent question dans ce livre

Mais il faut tenir compte encore de trois autres effets causés par la proximité du trou noir. Le premier est montré sur la figure 2 et tient à la relativité restreinte : c’est l’amplification du rayonnement dans la direction du mouvement décrite plus haut. Le pic du côté des grandes fréquences est accentué tandis que celui de l’autre côté est atténué. Cela s’accompagne d’un léger décalage dû à un effet du deuxième ordre (le « décalage transverse »). Sur la figure 3 se manifeste l’effet de la relativité générale que nous allons voir plus loin. C’est le « décalage gravitationnel » correspondant à la perte d’énergie des photons lorsqu’ils s’extraient d’un champ de gravité intense : tout le profil est décalé vers les petites fréquences au point qu’il dépasse à peine la fréquence centrale νémis . Enfin, il faut additionner les contributions de tous les anneaux du disque, ce qui rend le profil plus lisse (c’est la figure 4). Pour calculer le profil de la figure précédente, l’émission était supposée être concentrée principalement dans les régions du disque situées vers 3 rayons de Schwarzschild (le rayon de Schwarzschild est celui de « l’horizon » du trou noir, comme nous le voyons dans la prochaine section).

Énergie potentielle et cinétique, vitesse de libération, vitesse képlérienne, rayon gravitationnel et décalage gravitationnel, étoiles brisées par effet de marée L’énergie totale E d’une particule de masse m, de vitesse ν, située à la distance R d’une masse M, est égale à la somme de son énergie cinétique (ou de mouvement) mν2 /2 et de son énergie potentielle (ou gravitationnelle) – GM/R. Donc : E = mν2 /2 − GM/R, où G est la constante de la gravitation. Cette équation fondamentale a de nombreuses applications. Lorsqu’on envoie une fusée dans l’espace, tout le monde sait qu’elle ne reviendra jamais sur Terre si la vitesse de lancement dépasse 11 kilomètres par seconde : c’est la « vitesse de libération » à la surface de la Terre. C’est d’ailleurs également la vitesse de chute libre qu’aurait un objet tombant sur Terre s’il n’était pas freiné par l’atmosphère. Si on lance de la Terre une fusée avec une vitesse supérieure à 11km/s, elle échappera

421

422

Des quasars aux trous noirs

au champ gravitationnel terrestre et s’évadera dans l’espace. Pourquoi ? Pour que la fusée s’échappe, il faut que son énergie de mouvement soit supérieure à l’énergie gravitationnelle qui l’attire vers la Terre ou en d’autres termes que son énergie totale soit positive. On définit donc la « vitesse de libération » νlibération telle que E = 0, soit :  2GM · νlibération = R Pour la masse de la Terre de 6 1024 kilos et son rayon approximatif de 6 400 kilomètres on trouve νlibération = 11 kilomètres par seconde. On dit qu’un objet est « confiné gravitationnellement » s’il a une vitesse inférieure à la vitesse de libération. C’est par exemple l’argument utilisé en 1959 par les Burbidge et Prendergast pour affirmer que les raies en émission dans le spectre de NGC 1068 étaient trop larges (donc les vitesses aléatoires du gaz trop élevées) pour que le gaz pût être confiné gravitationnellement et qu’il devait nécessairement s’échapper du noyau de la galaxie. Mais il existe une autre vitesse également importante. En effet, nous savons que si l’on veut simplement imprimer un mouvement de rotation circulaire à un satellite autour de la Terre, il suffit de lui donner une vitesse horizontale de l’ordre de 8 kilomètres par seconde. C’est la « vitesse de satellisation ». Entre 8 et 11 kilomètres par seconde l’objet est satellisé, c’est-à-dire qu’il ne retombe pas sur Terre mais ne s’échappe pas non plus du champ gravitationnel de la Terre : il parcourt des orbites « elliptiques » et revient périodiquement. C’est par cet effet que le Soleil attire les planètes et les comètes et les empêche d’échapper à son champ d’attraction mais les comètes ont des orbites très elliptiques qui peuvent les emmener très loin du Soleil. Pour calculer cette vitesse, il suffit d’appliquer à un objet en mouvement uniforme sur une orbite circulaire le principe fondamental de la dynamique, Force = m × accélération où m est la masse de l’objet (ici la fusée) et l’accélération (ici centripète) est égale à ν2 /R. Comme la force est égale à GMm/R2 , on en déduit :  GM . νsatellisation = R √ Ce qui nous montre que la vitesse de satellisation est 2 fois plus petite que la vitesse de libération. Les astronomes (et moi-même tout au long de ce livre) l’appellent un peu à tort

Quelques théories physiques dont il est souvent question dans ce livre

« vitesse keplérienne », parce qu’elle découle de la troisième loi de Kepler. Si l’on suppose que la vitesse de libération est égale à la vitesse de la lumière c, on obtient le rayon de « l’horizon du trou noir » ou « rayon de Schwarzschild » RSchw = 2GM/c2 (on a l’habitude d’appeler « rayon gravitationnel » la moitié du « rayon de Schwarzschild » Rgrav = GM/c2 pour des raisons qui apparaîtront clairement un peu plus loin). On voit qu’il est proportionnel à la masse. Cette façon de calculer RSchw n’est pas exacte car elle suppose que les photons ont une masse, ce qui est faux. Il faudrait utiliser le formalisme de la Relativité Générale pour calculer la métrique de l’espace-temps autour du trou noir. Notons en particulier qu’elle serait différente autour d’un trou noir en rotation (trou noir de Kerr). En continuant avec cette analogie fausse, on peut calculer le « décalage gravitationnel » dont il est plusieurs fois question dans le livre. Un photon de fréquence ν a une énergie hν. Donc si le photon avait une masse on pourrait écrire hν = mc2 et on en déduirait qu’il a une masse m = hν/c2 . Or lorsqu’une particule échappe à l’attraction d’un corps massif, elle perd l’énergie potentielle GMm/R. En remplaçant dans cette expression m par hν/c2 on voit que le photon perd une énergie relative ΔE/E = Δν/ν = GM/Rc2 lorsqu’il quitte la surface d’un corps massif. C’est le « décalage gravitationnel ». On peut l’écrire zgrav = 1,47 105 (M/Msolaire )/R où R est exprimé en centimètres, ce qui donne par exemple zgrav = 2 millionièmes pour le Soleil. C’est minuscule, mais ce ne l’est pas pour un photon émis près de l’horizon d’un trou noir. Par exemple si le photon est émis à 5 rayons de Schwarzschild, son décalage est déjà de l’ordre de 0,3. Naturellement, dans ce cas comme dans celui de l’effet Doppler, il faut alors utiliser l’expression plus exacte donnée par la relativité : zgrav = 

1 1−

−1 2GM Rc2

qui se ramène à l’expression précédente pour zgrav petit. Considérons maintenant une étoile entière au voisinage d’un trou noir massif. La force d’attraction gravitationnelle subie par l’étoile est égale à GMmétoile/D2 où métoile est la masse de l’étoile et D la distance de l’étoile au trou noir. La différence des forces des deux côtés de l’étoile s’écrit : GMmétoile (1/D21 −1/D22 ) où D1 et D2 sont les distances des deux faces au trou noir. Si l’étoile est proche du trou noir, la force exercée sur la face la plus proche du trou noir sera très supérieure à celle qui est

423

424

Des quasars aux trous noirs

exercée sur l’autre face et cette expression est égale approximativement à 2GMmétoile Rétoile /D3 , où Rétoile est le rayon de l’étoile. Lorsque cette quantité est supérieure à la force de liaison de l’étoile (elle-même égale à Gm2étoile /R2étoile ), c’est-à-dire lorsque (2Rétoile /D)3 est supérieur à métoile /M, l’étoile est brisée. Ces expressions sont très instructives. Premièrement, elles montrent que plus sa distance au trou noir est petite et sa masse grande, plus l’étoile se brisera facilement. Cela paraît évident. Mais elle montre aussi que plus l’étoile est compacte, plus il sera difficile de la briser. En fait les étoiles compactes ne seront jamais brisées par effet de marée et s’engouffreront toujours intactes dans le trou noir. Elles contribueront donc à le faire grossir mais n’engendreront pas de gaz ni de rayonnement. En revanche, les étoiles plus grandes comme celles de la « séquence principale » (voir l’encadré 2.1) qui constituent la majeure partie des étoiles d’une galaxie seront brisées facilement et transformées en gaz. Toutefois les phénomènes de marée disparaissent même pour les étoiles de la séquence principale lorsque la masse du trou noir est supérieure à quelques centaines de millions de masses solaires. En effet le trou noir est alors tellement grand que les étoiles s’y engouffrent en quelque sorte avant de s’en rendre compte. On peut calculer la masse d’un trou noir tel que (2Rétoile /D)3 = métoile /M, pour une étoile d’une masse solaire et d’un rayon solaire, D étant égal au rayon de l’horizon : on trouve que lorsque le trou noir a atteint 3 × 108 masses solaires, les étoiles de la série principale s’y engouffrent sans être brisées.

Rayonnement du disque d’accrétion, efficacité de conversion de la matière en énergie, luminosité d’Eddington Une particule est donc accélérée en tombant sur un trou noir, à mesure que son énergie gravitationnelle est transformée en énergie cinétique. Elle cède une partie de cette énergie cinétique lors de collisions avec d’autres particules qui se trouvent déjà là et qui suivent des trajectoires un peu différentes. Elle est donc freinée par la friction sur le gaz déjà présent et les autres particules sont accélérées. La « température » du gaz s’élève (rappelons que la température d’un gaz n’est rien d’autre que la valeur moyenne de la partie aléatoire de l’énergie cinétique des particules dont il est composé). Si toute l’énergie cinétique

Quelques théories physiques dont il est souvent question dans ce livre

était transformée en chaleur et que le gaz ne rayonnait pas, la température serait de mille milliards de degrés lorsque les particules atteignent une vitesse proche de celle de la lumière. Le gaz rayonne et sa température est fixée par la balance entre le refroidissement dû à cette émission et le chauffage dû à l’énergie gravitationnelle. Nous observons donc ce gaz dans la bande de longueur d’onde correspondant à la température d’équilibre qui se situe entre le domaine visible et le domaine gamma, suivant la masse des trous noirs et les processus de refroidissement. Puisque la quantité d’énergie que l’on peut ainsi récupérer est proportionnelle à M/R, elle est d’autant plus grande que l’astre est plus massif et que les particules peuvent se rapprocher au plus près du centre de gravité. C’est ce qui se produit si l’astre est très compact. Par exemple une particule tombant sur le Soleil aura une énergie cent mille fois plus petite que si elle tombe sur une étoile à neutrons de même masse. Les choses sont un peu plus compliquées lorsqu’il s’agit d’un trou noir et non d’une étoile. Considérons du gaz spiralant avec une vitesse circulaire ν (je rappelle que ν2 = GM/R) autour d’un corps compact de masse M, par exemple un trou noir, et supposons que ce gaz, partant de l’infini où il a une énergie totale E nulle, arrive jusqu’à une orbite de rayon Rint . Il aura donc perdu par unité de masse l’énergie :   GM GM E= 0− · = 2Rint 2Rint Par conséquent si une masse Maccr est accrétée à un taux constant par unité de temps, l’énergie qui peut être transformée en chaleur et être rayonnée (donc la luminosité) est GMMaccr /2Rint . Quelle est l’orbite la plus interne sur laquelle une particule peut rayonner ? On admet que c’est la « dernière orbite circulaire stable », (ISCO ou « Innermost Stable Circular Orbit ») où le gaz amorce une chute radiale sur le trou noir et n’a plus le temps de rayonner avant d’être englouti par lui. On peut montrer que le rayon de l’ISCO est 3RSchw dans le cas d’un trou noir sans rotation (trou noir de Schwarzschild) et 0,6 RSchw pour un trou noir ayant une rotation maximale (trou noir de Kerr). On pourrait expliquer cette différence entre les deux métriques en disant que lorsque le trou noir est en rotation, l’espace-temps est entraîné dans cette rotation et la particule amorce une chute radiale lorsqu’elle est plus proche du trou noir.

425

426

Des quasars aux trous noirs

Puisque le gaz peut rayonner jusqu’à ce qu’il atteigne l’ISCO, on s’attendrait à ce que la luminosité totale soit : L=

GMMaccr GMMaccr = 0, 08Maccr c2 . = 2(6RSchw ) 2(6GM/c2 )

Par suite de corrections dues à la relativité générale, elle n’est que de 0,06Maccrc2 . Une proportion de 6 % de l’énergie de repos de la matière accrétée est donc convertie en énergie. C’est ce que l’on appelle « l’efficacité de conversion », que l’on note en général η. Naturellement elle est supérieure pour un trou noir en rotation puisque les particules se rapprochent plus du trou noir, en particulier pour un trou noir ayant une rotation maximale. Elle est alors de 30 % (elle devrait être de 40 % sans les corrections relativistes). Comme on ignore en général quelle est la rotation du trou noir, on a l’habitude d’utiliser une efficacité moyenne de 10 %. Elle est encore beaucoup plus élevée que l’efficacité nucléaire dans les étoiles qui n’est que de 0,7 %. On peut calculer aisément la température d’équilibre du gaz qui se rapproche du trou noir. Une loi de la thermodynamique (la loi de Stefan) nous dit que si le gaz rayonne comme un « corps noir » (voir l’annexe A) la puissance rayonnée (ici GMaccr M/2R à la distance R du trou noir) est égale à σT4 multipliée par la surface en jeu, ici de l’ordre de R2 (σ est appelé la « constante de Stefan »). On trouve donc que T est proportionnel à 1/R3/4 . Un premier résultat est donc que la température augmente lorsqu’on se rapproche du trou noir. C’est ce qui est décrit dans le livre comme le « bleuissement » du disque d’accrétion vers l’intérieur. Nous allons voir un peu plus loin que dans les quasars Maccr prend sa valeur maximum (limite d’Eddington) et que celle-ci est proportionnelle à M. Donc T4 est proportionnel à M2 /R3 . Et comme R est proportionnel à M, en définitive la température est proportionnelle à (M)−(1/4) , ce qui signifie qu’elle est plus faible pour un objet plus massif. C’est la raison pour laquelle les disques d’accrétion autour des quasars rayonnent essentiellement dans le domaine ultraviolet tandis que les disques autour des trous noirs stellaires rayonnent dans le domaine X. Les photons transportent non seulement une énergie mais également une quantité de mouvement qui se traduit pas une pression exercée sur la matière, appelée pression de radiation. Dans le cas des quasars le rayonnement est tellement puissant que la pression de radiation a le pouvoir d’arrêter la chute de la matière. La même chose se produit d’ailleurs pour les étoiles chaudes géantes dont les couches supérieures sont chassées

Quelques théories physiques dont il est souvent question dans ce livre

par la pression de radiation. On appelle cette puissance limite au dessus de laquelle la matière est chassée la « luminosité d’Eddington ». On calcule la luminosité d’Eddington en égalant la force due à la gravité s’exerçant sur un proton (constituant essentiel de la matière), GMmp /R2 , où mp est la masse du proton, à la force due à la pression radiative. On suppose que la matière est constituée uniquement d’électrons et de protons (c’est pratiquement le cas pour un gaz très chaud). La force radiative est égale à la quantité de mouvement absorbée par seconde par le gaz. Mais les électrons seuls sont sensibles à cette force car les protons n’absorbent comparativement très peu la lumière. La quantité de mouvement que transporte un photon étant hν/c et les photons étant absorbés par les électrons dans un gaz très chaud, on calcule la luminosité d’Eddington, LEddington, en écrivant que : GMmp /R2 = σT LEddington /4πR2 où σT est la « section d’absorption » des électrons (le mécanisme est ici la diffusion Thomson), ce qui donne l’expression suivante : LEddington = 1,3 1031 (M/Msolaire ) watts. Le facteur 1,3 doit être remplacé par 1,5 pour tenir compte des autres éléments que l’hydrogène. On trouve donc que la luminosité d’Eddington d’un quasar d’un milliard de masses solaires est de 1,5 × 1040 watts et c’est bien effectivement ce que rayonne par exemple 3C 273 dont on connaît la masse – précisément un milliard de masses solaires – par la méthode de « pesage » des quasars et des NAGs décrite dans le chapitre 12. Les quasars rayonnent donc à peu près à la limite d’Eddington. Dans ce calcul on a fait plusieurs hypothèses assez contestables. D’abord on a supposé le gaz constitué uniquement d’électrons et de protons. C’est vrai seulement s’il est complètement ionisé, ce qui n’est pas le cas s’il s’agit d’un gaz froid ou de poussières. On a également supposé que la pression radiative s’exerce sur les électrons tandis que la gravité s’exerce sur les protons ; c’est vrai seulement si les électrons chassés par le rayonnement entraînent les protons avec eux (ce qui dépend de leurs distances mutuelles). D’autre part, le calcul est fait en supposant une accrétion sphérique et un rayonnement isotrope alors qu’on pourrait imaginer un rayonnement directif avec l’accrétion s’opérant dans une direction différente, ce qui autoriserait une accrétion et une luminosité plus grande. Enfin, on s’est placé dans un cas stationnaire, alors qu’il pourrait se produire des phases de concentration de la matière suivies de « flashes » de lumière bien supérieurs

427

428

Des quasars aux trous noirs

à la limite d’Eddington. Eh bien, paradoxalement, rien de tout cela ne se produit car on a vérifié que les quasars rayonnent pratiquement à leur limite d’Eddington et jamais au dessus ! Le taux d’accrétion Maccr correspondant (en masse par unité de temps) est égal à LEddington /ηc2 où η est l’efficacité de conversion de la matière en énergie : nous venons de voir qu’elle est de l’ordre de 10 % pour un trou noir. Pour cette valeur de η on trouve que le taux d’accrétion d’Eddington, exprimé en masse solaire par an, est de 2,6 × 10−8 (M/Msolaire ). On trouve donc qu’il dépend seulement de la masse du trou noir. Il est de 2,6 masses solaires par an pour un trou noir d’un milliard de masses solaires. Il n’est pas évident de trouver tant de gaz à absorber chaque année, ce qui explique que les trous noirs dans les galaxies de Seyfert proches ne rayonnent plus à leur luminosité d’Eddington mais dix à cent fois moins.

Comment peser les étoiles doubles Dans un couple d’étoiles doubles, A et B, chacune parcourt une ellipse dont l’un des foyers est le centre de gravité commun. On peut montrer en utilisant les lois énoncées par Kepler (qui régissent entre autres les mouvements des planètes dans le Système solaire) que la période P de rotation d’une étoile par rapport à l’autre est liée à la somme des masses des deux composantes par la relation : P2 = (2π)2 D(AB)3 /[G(M(A) + M(B)] où D(AB) est le demi grand axe de l’orbite d’une étoile par rapport à l’autre (dans le cas d’une orbite circulaire c’est simplement la distance – constante – entre les deux étoiles) et M(A) et M(B) sont leurs masses respectives. Si l’on peut suivre l’une des étoiles dans sa course autour de l’autre il est donc possible de déterminer la somme de leurs masses. On dit alors qu’on a affaire à une « double visuelle ». Bien sûr l’orbite observée est projetée sur la sphère céleste mais on peut facilement faire une dé-projection qui la restitue telle qu’elle se présenterait si son inclinaison était nulle. Pour connaître ensuite le rapport entre les masses de chaque composante qui permet de déduire leurs masses individuelles il faut déterminer les trajectoires individuelles en prenant comme repères des étoiles proches du couple. Pour que la méthode soit utilisable il faut évidemment que les deux composantes soient bien séparées. Or une loi de Kepler nous dit que plus la distance est grande, plus la période est longue. En fait, les étoiles observées par cette méthode ont des périodes de plusieurs années ou de plusieurs dizaines

Quelques théories physiques dont il est souvent question dans ce livre

d’années. Il est donc nécessaire d’observer longtemps avant de parvenir à un résultat. C’est ce travail délicat et de longue haleine qui a été effectué pendant des dizaines d’années avec la grande lunette de l’Observatoire de Meudon. Dans le cas d’étoiles qui échangent de la matière, cette méthode n’est pas utilisable car les étoiles sont nécessairement très proches. On utilise alors la « méthode spectroscopique », complémentaire de la précédente. En effet, une autre loi de Kepler nous apprend que plus les étoiles sont proches, plus leur vitesse relative est élevée. Or nous disposons d’un moyen pour mesurer ces vitesses, ou plutôt la projection des vitesses sur la ligne de visée que l’on nomme la « vitesse radiale », c’est la mesure du décalage Doppler des raies spectrales. Si nous prenons des spectres du couple, nous observerons deux systèmes de raies se déplaçant l’un par rapport à l’autre au cours du temps par suite de la variation de leur vitesse projetée sur la ligne de visée au cours d’une orbite (à moins que l’une des deux étoiles soit trop faible par rapport à l’autre) : la lumière d’une étoile est décalée vers le bleu lorsqu’elle se rapproche de nous et vers le rouge lorsqu’elle s’en éloigne. Les vitesses que l’on en déduit s’aligneront sur des courbes symétriques, ou dans le cas d’une seule composante, sur une courbe dont la vitesse médiane est celle – constante – du centre de gravité du couple. Ce que l’on peut déterminer avec ces observations, c’est la « fonction de masse » du couple f =

sin 3 i M(A)3 [M(A) + M(B)]2

(où i est l’inclinaison de l’orbite sur le plan du ciel). Si on a des moyens de connaître l’une des deux masses, on a l’autre, mais naturellement au sinus près. Comme sin3 i peut être très petit pour un couple très peu incliné, la masse sera déterminée avec une incertitude très grande, mais en tout état de cause, on en connaîtra la limite inférieure, correspondant un angle d’inclinaison de 90◦ et sin i = 1.

Rayonnement synchrotron : fréquence caractéristique, spectre synchrotron, auto-absorption, énergie stockée Toute particule chargée électriquement et se mouvant dans un champ de force (donc accélérée) émet un rayonnement.

429

430

Des quasars aux trous noirs

Dans le cas d’un champ de force magnétique c’est le rayonnement cyclotron ou synchrotron. Il s’agit du même phénomène, mais la vitesse des particules diffère : le rayonnement gyromagnétique est produit par des particules de vitesse modeste, le rayonnement gyromagnétique par des particules ayant des vitesses non négligeables par rapport à celle de la lumière ; quant au rayonnement synchrotron, le seul qui nous intéresse dans ce livre, il est produit par des particules en mouvement ultra-relativiste. Lors de l’émission, les particules perdent de l’énergie et c’est ce qui prouve par exemple que dans les jets elles doivent être réaccélérées en permanence. La quantité d’énergie émise étant proportionnelle à l’inverse de la masse de la particule, les électrons sont beaucoup plus efficaces que les protons ou les ions dont la masse est au moins mille fois plus grande. C’est pourquoi nous ne nous parlons que d’électrons relativistes à propos du rayonnement synchrotron mais il est bien évident que les particules plus lourdes sont également présentes. Le champ magnétique est une composante universelle du cosmos car il est créé par des particules chargées en mouvement et de telles particules existent partout à profusion. C’est ce qui explique l’omniprésence du rayonnement synchrotron. On connaît le champ magnétique terrestre, le champ magnétique interplanétaire à l’origine par exemple du rayonnement synchrotron autour Jupiter. On connaît également le champ magnétique solaire, de plusieurs milliers de gauss dans les taches solaires, qui crée le rayonnement synchrotron des éruptions. Le champ magnétique est présent même dans la matière interstellaire où sa valeur est très faible, environ 0,000001 gauss, mais où il a pourtant des effets importants. Le champ magnétique a une direction et des « lignes de force » qui traduisent cette direction. Ainsi les particules chargées émises par le Soleil lors des éruptions sont transportées vers la Terre en suivant les lignes de force du champ magnétique interplanétaire. Comme pour la relativité générale, le formalisme permettant de déterminer les caractéristiques du rayonnement synchrotron est compliqué et je donnerai ici seulement quelques idées simples permettant de comprendre les phénomènes dont il est question dans le livre. Un électron dont la vitesse ν fait l’angle θ avec le plan perpendiculaire au champ magnétique B est soumis à la force de Lorentz, perpendiculaire au champ magnétique et à la vitesse, que l’on peut exprimer ainsi (les lettres en gras représentent

Quelques théories physiques dont il est souvent question dans ce livre

des vecteurs)1 :

e F = V ×B c où e est la charge de l’électron. On peut montrer alors que le mouvement de l’électron est hélicoïdal autour du champ magnétique (Figure B.4). La fréquence de giration de ce mouvement νB , est appelée fréquence gyromagnétique. Si la vitesse de l’électron est très petite par rapport à celle de la lumière, elle est égale à : νB =

eB sin θ = 2,80 × 106 B sin θ hertz 2πmo c

où mo est la masse au repos de l’électron et B est en gauss. Le rayonnement est donc concentré à la fréquence gyromagnétique et il ne dépend pas de l’énergie de l’électron, mais seulement du champ magnétique. Le rayonnement gyromagnétique (ou cyclotron) est donc réduit à une raie spectrale, élargie comme les raies atomiques par les collisions avec les atomes et les ions, ou encore par les variations du champ magnétique dans le milieu émissif. Dans le cas d’un électron ultra-relativiste le spectre est relié aux changements du champ électrique vu par l’observateur qui varie énormément à cause de la dilatation du temps. Il faut tenir compte également du changement de fréquence dû à l’effet Doppler. On peut donc prévoir que le spectre sera formé d’une série d’harmoniques de la fréquence νB et sera inscrit dans le spectre d’une impulsion. Il sera étalé sur un grand domaine de fréquences, avec un maximum au voisinage d’une fréquence caractéristique νc = γ2 νB où γ est le facteur de Lorentz des électrons relativistes. On a donc : νc = 4,21106 B sin θ γ2 qui peut s’écrire aussi νc = 0,61 × 1013 B sin θE2 hertz, où E est exprimé en GeV. De plus, le rayonnement émis, isotrope dans le référentiel de l’électron en mouvement, est concentré à l’intérieur d’un cône étroit autour de la direction de la particule dans le référentiel de l’observateur. Donc plus le champ magnétique est élevé, ou plus la vitesse des électrons est proche de celle de la lumière, plus la longueur d’onde du rayonnement est petite. À titre d’exemple, pour un champ magnétique de 0,0001 gauss et lorsque la vitesse des électrons diffère de 0,01 % de celle de la lumière, le maximum d’intensité se situe au voisinage d’une longueur d’onde d’un centimètre. C’est donc un rayonnement radio. 1

Attention ! Il s’agit d’unités CGS.

Figure B.4. Mouvement des électrons dans un champ magnétique et rayonnement synchrotron.

431

432

Des quasars aux trous noirs

Dans Taurus A, Centaurus A et dans le jet de Virgo A par exemple, le rayonnement visible est aussi d’origine synchrotron et ceci implique une énorme énergie des électrons dont la vitesse ne diffère de celle de la lumière que par des facteurs de un dix-millième ou un cent-millième. Dans les accélérateurs modernes, non seulement les particules ont une grande énergie mais le champ magnétique est également très élevé ; c’est pourquoi ils émettent un rayonnement X intense capable de pénétrer la matière solide, qui sert d’ailleurs à en étudier les propriétés. Le rayonnement synchrotron a également la propriété d’être polarisé linéairement. Dans la vie courante, un rayonnement est polarisé s’il traverse un milieu polarisant, par exemple magnétisé. On obtient aussi un rayonnement polarisé en interposant sur le trajet des rayons lumineux un « polaroïd » qui laisse passer les ondes électromagnétiques oscillant seulement dans une direction donnée (alors que dans un rayonnement normal, elles ont une direction aléatoire). Si l’on interpose alors un deuxième polaroïd en lui faisant accomplir une rotation de 90◦ par rapport au précédent, la lumière disparaît complètement. Dans le cas du rayonnement synchrotron, le rayonnement est polarisé car il est produit par des électrons dont les mouvements s’effectuent dans une direction privilégiée (celle du champ magnétique) et l’émission n’est pas isotrope. Si le champ magnétique est uniforme le degré de polarisation peut atteindre 60 ou 70 %. Mais dans la pratique on a généralement affaire à une distribution aléatoire du champ magnétique qui donne une polarisation faible de quelques pour cent seulement. On constate que le spectre synchrotron obéit à une loi appelée « loi de puissance » où l’intensité est égale à la fréquence élevée à une certaine puissance qu’on note en général avec la lettre grecque α (en fait moins α, car l’intensité du rayonnement diminue quand la fréquence augmente). En d’autres termes, le logarithme de son intensité est proportionnel au logarithme de la fréquence ou de la longueur d’onde. Dans un diagramme où l’on porte en abscisse le logarithme de la fréquence et en ordonnée le logarithme de l’intensité, le spectre est une droite de pente négative, en général voisine de l’unité. C’est parce que les électrons qui l’émettent n’ont pas une énergie unique : eux-mêmes obéissent à une loi de puissance, leur nombre à une énergie donnée étant proportionnel à leur énergie élevée à la puissance p = 2α + 1. Cette loi de puissance des électrons est causée par le mécanisme qui les accélère, apparemment universel mais encore mal compris (je mentionne le

Quelques théories physiques dont il est souvent question dans ce livre

mécanisme de Fermi dans le chapitre). Le spectre n’est donc pas réduit au voisinage d’une seule longueur d’onde mais s’étend sur un certain nombre de décades correspondant à l’extension de la distribution d’énergie des électrons. C’est ce que l’on appelle un « spectre continu ». Le spectre synchrotron devrait donc être en loi de puissance entre les deux fréquences critiques νmin et νmax correspondant aux énergies minimum et maximum des électrons Emin et Emax , comme représenté sur la figure B.5. Cependant, il est soumis à divers effets qui le modifient aux grandes et aux petites fréquences. Aux grandes fréquences le spectre n’a généralement pas une forme simple. Il peut présenter un changement de pente pour une certaine fréquence, l’indice spectral étant plus élevé au-dessus de cette fréquence qu’en dessous. Ce changement est dû aux pertes d’énergie des électrons (entre autres par rayonnement synchrotron) qui augmentent avec l’énergie. Si les électrons ont été injectés à un instant donné avec une loi de puissance d’indice p, au bout d’un temps t les électrons ayant une énergie supérieure à une certaine énergie E(t) auront perdu une partie de leur énergie et leur distribution aura un indice supérieur à p. Il y aura donc une « cassure » dans le spectre dont la fréquence diminuera au cours du temps. Une telle cassure est observée dans le spectre de certaines grandes radiosources extragalactiques qui sont vieilles et dans

433

Figure B.5. Le diagramme de gauche montre la « distribution en énergie » des électrons relativistes, qui est ici une « loi de puissance » proportionnelle à E−4 entre une énergie minimum et une énergie maximum. Dans ce cas, l’intensité du rayonnement synchrotron émis par ces électrons par intervalle de fréquence est proportionnelle à ν−1,5 comme le montre le diagramme de droite. Les unités verticales dépendent de la valeur du champ magnétique.

434

Des quasars aux trous noirs

lesquelles les électrons de grande énergie ont eu le temps de ralentir. Une autre cause de « courbure » du spectre agit au contraire aux faibles fréquences. Le coefficient d’absorption décroît quand la fréquence augmente. Il existe donc une fréquence critique νs au-dessous de laquelle le milieu est « optiquement épais ». Au-dessous de cette fréquence, il est absorbé par les mêmes électrons qui l’émettent : on appelle ce phénomène une « auto-absorption » (« self-absorption » en anglais). Le spectre est alors celui d’un « corps noir » dont l’intensité augmente avec la fréquence au lieu de diminuer. Il est donc « courbé ». On peut montrer que la fréquence où le spectre se courbe est d’autant plus petite que l’angle apparent sous lequel on voit la source est plus grand. Cette propriété a naturellement été utilisée pour déterminer la taille des sources. En supposant que la source est une sphère dont le demiangle d’ouverture est θ, on trouve la fréquence νs : νs = 3,4 107



Sν θ2

2/5

B1/5 Hz

θ étant exprimé en seconde et Sν étant le flux en Jansky (1 Jansky = 10−26 watts). Cette fréquence dépend peu de la valeur du champ magnétique. Les valeurs de νs et de Sν étant mesurées, on peut donc déduire θ. Si la distance de la source est connue par ailleurs (par exemple s’il s’agit d’une source extragalactique lointaine dont on connaît le décalage cosmologique) on déduit de θ le rayon réel de la source. Ce type de mesure avait été utilisé dans les années soixante par les partisans des décalages non cosmologiques et ils en déduisaient des dimensions très petites impliquant la « catastrophe Compton » dont il est question dans le livre. De plus dans le cas des radiosources compactes situées dans les noyaux de galaxies, il arrive souvent que le spectre observé soit dû à la superposition de plusieurs sources. Sa forme est alors assez complexe. C’est ainsi que Sciama a découvert en 1965 l’existence de deux sources radio associées à 3C 273 dont l’une était auto-absorbée, donc très petite et par conséquent susceptible de varier dans des temps très courts. Il expliquait ainsi les variations du spectre synchrotron découverts par Dent. C’est en évaluant pour la première fois le contenu énergétique des radiosources extragalactiques, à la fin des années cinquante, que Burbidge réalisa l’ampleur du phénomène qui leur avait donné naissance. Son idée fut de déterminer la limite

Quelques théories physiques dont il est souvent question dans ce livre

inférieure de leur contenu énergétique en supposant l’équipartition entre l’énergie magnétique B2 /8π et l’énergie des particules relativistes. On obtient alors l’équation : B2 = (1 + X) 8π

Emax  NE−p+1 dE.

Emin

Le facteur 1 + X est là pour tenir compte de l’énergie des protons associés aux électrons relativistes. Leur énergie est inconnue mais on peut faire l’hypothèse que X est de l’ordre de 10 à 100, car un processus d’accélération conduisant à des énergies égales des électrons et des protons correspondrait à X = 50. N est le nombre total d’électrons relativistes par unité de volume qui peut être déduit de l’intensité du rayonnement synchrotron observé. En appliquant cette équation simple, Burbidge trouvait que l’énergie stockée dans ces radiosources était de l’ordre de 1062 ergs, environ 100 fois plus grande que celle rayonnée par la Galaxie pendant toute sa vie.

Diffusion compton et compton inverse Lorsqu’un photon rencontre un électron il subit une diffusion. Si le photon a une énergie hν  mo c2 et l’électron une vitesse ν  c, la diffusion est élastique, c’est-à-dire qu’elle consiste en un simple changement de direction sans changement d’énergie. C’est la diffusion Thomson (Figure B.6). Nous venons de voir ce phénomène à propos de la luminosité d’Eddington. La section d’absorption que nous avions utilisée est celle de la diffusion Thomson : σT =

8π 2 r = 6,6510−25 cm2 3

où r est le rayon classique de l’électron. Cette section est beaucoup plus petite que la section d’absorption des photons par un atome ou un ion, mais elle intervient dans un domaine où les processus atomiques sont négligeables, lorsque le gaz est complètement ionisé. Un autre processus fut découvert par le physicien américain Arthur Compton. Il montra que lorsqu’un photon X entre en collision avec un électron, la collision n’est pas « élastique », car une partie de son énergie est transférée à l’électron. En généralisant, on trouve que lorsque hν ∼ mo c2 , ou E > mo c2 ,

435

436

Des quasars aux trous noirs

Figure B.6. Diffusion Thomson : changement de direction du photon, pas de changement de fréquence.

(E étant l’énergie de mouvement de l’électron), la diffusion n’est plus élastique mais s’accompagne d’un changement d’énergie du photon et de l’électron. C’est la « diffusion Compton ». Notez que l’on ne devrait pas appeler ce processus « diffusion » puisqu’en principe une diffusion ne change pas l’énergie. Si les photons ont une grande énergie, c’est une diffusion Compton directe au cours de laquelle l’électron subit un recul et son énergie augmente. Au contraire si l’électron a une grande énergie, il en cède une partie au photon dont l’énergie se trouve multipliée par un facteur important : c’est la diffusion Compton inverse. La section des électrons pour ce processus est la même que celle de la diffusion Thomson, moyennant une correction relativiste qui intervient lorsque l’énergie de l’électron ou celle du photon est de l’ordre de mo c2 (on l’appelle alors section de Klein-Nishina, elle diminue avec l’énergie). Apelons hν f l’énergie de l’électron après la diffusion. Dans le cas de la diffusion Thomson, hν f = hν. Dans le cas de la diffusion Compton, on applique les lois de conservation de l’énergie et de la quantité de mouvement pour déterminer hν f . Considérons d’abord la diffusion Compton directe, avec E  1 et mhν 2 ≤ 1 (Figure B.7). mo c2 oc

Figure B.7. Diffusion Compton sur un électron au repos : le photon change de direction et d’énergie et l’électron est mis en mouvement.

Quelques théories physiques dont il est souvent question dans ce livre

Puisque l’électron a une énergie de mouvement beaucoup plus faible que son énergie au repos, la conservation de l’énergie s’écrit : mo c2 + hν = γ f mo c2 + hν f où γ f est le facteur de Lorentz de l’électron après la collision. La conservation de la quantité de mouvement, projetée respectivement sur la direction de l’onde incidente et sur la direction perpendiculaire, s’écrit : hν hν f = cos θ + mo γ f cos φ, c c 0=

hν f c

sin θ − mo γ f sin φ.

La résolution de ces trois équations conduit à la relation : hν f =

hν hν 1+ (1 − cos θ) m o c2

qui, intégrée sur les angles et pour une distribution isotrope des photons et des électrons, donne : hν f =

hν · hν 1+ m o c2

Cette expression montre que, pour d’énergie du photon est :

hν mo c2

 1, la perte relative

hν Δhν =− · hν m o c2 Par exemple un photon de 50 keV cède 10 % de son énergie lors d’une collision avec un électron de faible énergie. Même dans le cas où hν  mo c2 et ν  c, la diffusion peut s’accompagner d’un changement d’énergie important si les photons subissent un grand nombre de diffusions successives. On considère là encore qu’il s’agit de l’effet Compton car le spectre électromagnétique est redistribué. De tels processus affectent les milieux très épais pour la diffusion Thomson comme les disques d’accrétion autour des trous noirs. Il en est question à propos des disques irradiés par des éruptions X.

437

438

Des quasars aux trous noirs

Considérons maintenant l’effet opposé « Compton Inverse » où un photon de faible énergie, radio par exemple, entre en collision avec un électron de grande énergie. Le photon acquiert une partie de l’énergie de l’électron et devient un photon X. Nous sommes donc dans le cas mEo c2 1 ; mhν 2  1. oc En se plaçant dans le repère de l’électron en mouvement dans lequel la diffusion est élastique et en effectuant les transformations de Lorentz, on trouve hν ∼ γhν et hν f ∼ γhνf où les quantités primées sont dans le repère de l’électron en mouvement. Finalement

hν f =

4 2 γ hν, 3

le facteur 4/3 résultant de l’intégration sur les angles. Le spectre Compton est calculé en intégrant sur la distribution des électrons. S’il s’agit d’électrons relativistes dont la distribution est une loi de puissance N(E) ∝ Ep , on trouve que le spectre Compton est une loi de puissance en ν−α , avec un indice spectral α égal à (p − 1)/2 identique à celui du rayonnement synchrotron mais déporté vers les grandes fréquence par le facteur γ2 . Ce processus permet d’expliquer que le spectre des radiosources compactes situées dans certains noyaux de galaxies se prolonge jusque dans les domaines X et gamma avec le même indice spectral que dans le domaine radio (par exemple la galaxie Centaurus A). On voit aussi dans chapitre 11 le cas de blazars, qui reproduisent dans le domaine gamma très énergétique (au TeV) exactement la forme du spectre radio et optique. Pour qu’un tel processus soit efficace il faut naturellement que se produisent de nombreuses collisions entre les photons et les électrons relativistes, c’est-à-dire que la densité de photons et d’électrons soit très élevée. C’est précisément le cas dans les quasars radio qui sont des sources très compactes de rayonnement synchrotron. Ils possèdent de nombreux électrons « ultra-relativistes » baignant dans le rayonnement synchrotron radio intense qu’ils génèrent eux-mêmes. Ces électrons transfèrent une partie de leur énergie à aux photons synchrotron par effet Compton Inverse. On appelle ce mécanisme subtil l’effet SSC, pour synchrotron self-Compton ; il joue un rôle majeur dans les quasars radio et on le rencontre à plusieurs reprises dans le livre.

Quelques théories physiques dont il est souvent question dans ce livre

Structure atomique, ionisation et recombinaison, transitions quantifiées ou raies spectrales, raies en émission ou en absorption, raies de Balmer, raies interdites, effet laser ou maser Les atomes sont constitués de noyaux positifs et d’électrons négatifs. Ils peuvent perdre un ou plusieurs de leurs électrons à la suite de chocs avec d’autres particules, essentiellement des électrons d’ailleurs, ou bien en absorbant des photons. On appelle ces processus des « ionisations » parce que le gaz, constitué initialement d’atomes non chargés, se trouve divisé en « ions » chargés positivement et en électrons. On dit qu’un ion est deux fois ionisé lorsqu’il a perdu deux électrons, trois fois ionisé lorsqu’il en perdu trois, etc. . . Pour s’ioniser les atomes et les ions ont besoin qu’une énergie leur soit fournie, ou par des particules – qui perdent une partie de leur énergie de mouvement, ou par des photons. Inversement lorsqu’un électron passe à proximité d’un ion, il est attiré par lui car sa charge est de signe contraire et il peut se retrouver capturé. On est alors face à une « recombinaison ». C’est le processus inverse de l’ionisation : comme elle peut se produire en présence d’un deuxième électron qui récupère l’énergie de l’électron capturé, ou avec émission d’un photon qui emporte cette énergie. Il s’agit là de processus « non quantifiés », ou « continus » comme l’on dit. Les raies spectrales, elles, correspondent aux transitions « quantifiées » subies par les atomes ou les ions. En effet, la mécanique quantique nous apprend que les atomes sont des systèmes dont l’énergie est quantifiée, c’est-à-dire qu’elle ne peut prendre qu’un ensemble de valeurs précises correspondant à différentes positions des électrons par rapport au noyau (cette description est évidemment trop simpliste mais elle permet de comprendre le problème). Ce qui différencie alors ces « niveaux d’énergie » c’est l’énergie « potentielle » qui lie un électron au noyau, d’autant plus grande que l’électron est plus éloigné du noyau. Une fois que les électrons sont capturés par des ions ils deviennent « liés » et à moins d’être arrachés de nouveau, ils ne peuvent plus que sauter d’un niveau initial à un niveau final. Lorsque les atomes ou les ions passent d’un niveau d’énergie hνsup supérieur à un niveau d’énergie hνinf inférieur, cette « transition » s’accompagne en général de l’émission dite

439

440

Des quasars aux trous noirs

« spontanée » d’un photon qui emporte la différence d’énergie entre les niveaux de départ et d’arrivée : le photon a une énergie hνsup − hνinf . Sa fréquence est donc bien définie, de même que sa longueur d’onde. Comme je le fais dans le chapitre 5, on peut donc comparer les atomes à des marches d’escalier inégales et les transitions spontanées aux rebonds d’un ballon (l’électron) qui descendrait d’une marche à l’autre. Par opposition, la mécanique classique nous montrerait le ballon descendant sans à-coups une pente douce. L’ensemble des photons de même énergie constitue une raie spectrale qui apparaît brillante à une longueur d’onde bien précise. À l’inverse, lorsqu’un photon ayant la bonne énergie rencontre un atome possédant un électron dans l’état « inférieur » de la transition, il peut faire passer cet électron à l’état « supérieur », c’est-à-dire d’un niveau de faible énergie à un niveau d’énergie plus élevée. Le photon disparaît dans le processus ; on dit qu’il est « absorbé » comme dans le cas de l’ionisation. Dans ce cas les raies apparaissent sombres sur un fond continu brillant : ce sont des « raies en absorption », par opposition aux « raies en émission » que l’on voit dans les quasars et les nébuleuses gazeuses. Il est souvent question dans le livre des raies de l’atome d’hydrogène car c’est l’élément le plus abondant dans le cosmos (Figure B.8). Les raies les plus observées sont la raie Lyman α correspondant à la transition entre le niveau 2 et le niveau 1, d’énergies respectives 10,4 et 0 eV, à la longueur d’onde de 1 215 angströms (dans l’ultraviolet lointain) et les raies de Balmer, Hα et Hβ correspondant respectivement aux

Figure B.8. Les niveaux d’énergie de l’atome d’hydrogène montrant les séries de Lyman (transitions entre le niveau 1 et les niveaux supérieurs), de Balmer (transitions entre le niveau 2 et les niveaux supérieurs), de Paschen (transitions entre le niveau 3 et les niveaux supérieurs) et de Brackett. Les raies Lyα et Hα sont respectivement les premières de la série correspondante. Suivent les raies Lyβ et Hβ, les raies Lyγ et Hγ. . . Toutes ces raies sont permises.

Quelques théories physiques dont il est souvent question dans ce livre

441

transitions 3-2, 4-2, aux longueurs d’onde 6 563 et 4 861 angströms (dans le visible). Ces raies sont « permises » car la durée de vie du niveau supérieur de la transition est très courte – de l’ordre de 10−8 seconde. Mais il est également souvent question ici de raies « interdites » dont la durée de vie du niveau supérieur est longue – de l’ordre d’une seconde ou même beaucoup plus –, comme dans le cas de la raie à 21 cm de longueur d’onde de l’hydrogène. Elles ont une probabilité faible de se produire. Les raies interdites les plus importantes dans le spectre des quasars sont le « doublet » de l’oxygène deux fois ionisé qu’on note [OIII] 4959-5007 (Figure B.9). Mais il n’y a pas que les transitions « spontanées » avec émission d’un photon qui permettent à un atome sur un niveau de grande énergie de passer à un niveau d’énergie plus faible ; ni l’absorption des photons qui permet à un atome d’un niveau de faible énergie de passer à un niveau d’énergie plus élevée. De tels sauts d’énergie sont également produits par les chocs avec d’autres particules qui font passer les atomes d’un niveau d’énergie inférieur à un niveau supérieur en leur cédant une partie de leur énergie de mouvement (c’est ce que l’on appelle une « excitation »), ou qui les font passer d’un niveau d’énergie supérieur à un niveau inférieur en récupérant l’énergie correspondante (c’est une « désexcitation »). Dans le cas d’une transition interdite excitée par un choc et si le milieu est suffisamment dilué, il se passe un temps très long avant qu’un autre choc se produise. Donc au bout d’un certain temps l’atome redescend dans son état d’énergie bas en émettant un photon et la raie « interdite » est émise. C’est ce qui se passe dans les nébuleuses et les quasars. On dit que les raies interdites se forment par « excitation par choc » et elles peuvent être aussi ou même plus intenses que les raies permises, ainsi qu’on le voit dans les nébuleuses et certains noyaux actifs de galaxies. Les étoiles présentent presque exclusivement des raies en absorption car l’intense rayonnement « continu » provenant de leurs couches profondes est absorbé par des atomes des couches superficielles plus froides. Ce rayonnement continu est produit par les accélérations et les décélérations que subissent les particules chargées en déplaçant les unes par rapport aux autres par agitation thermique. On l’appelle « rayonnement thermique » par opposition au rayonnement synchrotron, également continu, mais « non-thermique », car produit par des particules relativistes.

Figure B.9. Niveaux d’énergie de l’oxygène deux fois ionisé montrant les raies interdites de [OIII]. Les plus intenses sont les raies à 4 959 et 5 007 angströms. On les appelle des raies nébulaires car on les a découvertes pour la première fois dans les nébuleuses planétaires. La raie à 4 363 angströms est appelée « raie aurorale » car elle peut être observée dans les aurores boréales. La raie à 2 321 angströms est appelée « trans-aurorale ». Les transitions entre les trois niveaux du bas peuvent également être très intenses ; elles sont situées dans l’infrarouge lointain.

442

Des quasars aux trous noirs

Figure B.10. Pourquoi les raies apparaissent en émission dans le spectre des quasars.

Pourquoi les raies apparaissent-elles en émission et non en absorption dans le spectre des nébuleuses et dans celui des quasars et des galaxies de Seyfert ? Il y a deux possibilités. L’une est qu’il n’y ait pratiquement pas de rayonnement continu à la longueur d’onde des raies. C’est le cas pour les nébuleuses gazeuses, régions HII ou nébuleuses planétaires. Mais c’est loin d’être celui des quasars et des galaxies de Seyfert qui ont un rayonnement continu intense dans le domaine visible où sont observées les raies en émission. La raison en est alors que la région émettant le continu est beaucoup plus petite que la région émettant les raies. Typiquement le continu est émis par une région de quelques millièmes d’annéeslumière tandis que les raies sont émises par une région de plusieurs années-lumière à plusieurs centaines d’années-lumière. Les raies en émission dominent donc sur celles qui se profilent en absorption sur le continu (Figure B.10). Enfin, il existe un autre mode d’émission des photons que les transitions spontanée, prévu par Albert Einstein en 1917 : c’est l’émission stimulée. Lorsqu’un photon ayant l’énergie hνsup − hνinf rencontre un atome ou un ion dans le niveau d’énergie supérieur d’une transition, il peut stimuler sa transition sur le niveau inférieur. Mais comme celle-ci s’effectue avec perte d’énergie, un deuxième photon de même fréquence est émis. Celui-ci est la réplique exacte du premier photon : il a la même énergie, la même direction et la même phase. Si le processus se répète souvent, une lumière composée de photons tous identiques est produite. Mais pour cela il faut trouver un moyen de multiplier le nombre d’atomes ou d’ions dans l’état supérieur de la transition. Ce sont les physiciens français Alfred Kastler et

Quelques théories physiques dont il est souvent question dans ce livre

Jean Brossel qui trouvèrent la solution de ce problème en 1949, le « pompage optique » permettant de « surpeupler » le niveau supérieur d’une transition. Cette découverte fut à l’origine du « LASER » (pour Light Amplification by Stimulated Emission of Radiation), et valut le prix Nobel en 1966 à Alfred Kastler. L’émission LASER n’est pas observée dans les astres mais une autre très semblable l’est. C’est l’émission « MASER » (pour Microwave Amplification by Stimulated Emission of Radiation), dont la découverte valut le prix Nobel à l’américain Charles Townes. Elle se produit lorsque l’on rencontre un gaz de molécules et non d’atomes car les molécules possèdent des niveaux d’énergie très proches correspondant à des transitions dans le domaine radio. Dans ce cas il ne s’agit plus de pompage optique mais de pompage infrarouge. C’est ce qui se produit dans certains noyaux actifs de galaxies émettant un rayonnement infrarouge intense dues à un cocon de poussière chaudes et contenant beaucoup de molécules.

Les paramètres cosmologiques La « constante » de Hubble H0 donne le taux actuel d’expansion de l’Univers, (dR/dt)/R. Elle n’était pas nécessairement la même par le passé, car l’Univers a pu être soumis à une accélération ou une décélération. La structure et la dynamique de l’Univers dépendent en fait de trois paramètres, dont H0 est l’un. Le deuxième est le paramètre d’accélération q0 , défini comme (dR/dt2) / (RH20 ) et le troisième celui que l’on appelle la constante cosmologique Λ. Utilisant les lois de conservation, les équations du champ d’Einstein conduisent aux deux équations : Λ k 8π Gρ + et H02 + 2 = 3 3 R Λ 4πG (ρ + 3p) + , q0 H02 = 3 3 où k est la courbure de l’Univers, ρ la densité et p la pression. Ces équations montrent deux choses. D’abord que la connaissance de q0 se ramène à celle de ρ0 . Par exemple, si la pression de l’Univers est négligeable (c’est vrai actuellement car sa température d’agitation thermique est faible) et si la constante cosmologique Λ est nulle, la densité locale ρ0 est égale à (3q0 H0 )/(4πG). Deuxièmement, que l’Univers a une courbure nulle (k = 0) pour une densité égale à la « densité critique » ρc = (3H02 )/(8πG) = 1,9−29 10h2 g/cm3 (où h = H0 /100). On

443

444

Des quasars aux trous noirs

Figure B.11. Courbes montrant la taille de l’Univers en fonction du temps : Ωm et Ων correspondent respectivement à la densité de matière (incluant la matière invisible) et à la « densité d’énergie du vide », en d’autres termes à Λ. H0 est fixé (c’est la pente à t = 0). Le modèle adopté maintenant est celui pour lequel Ωm = 0,3 et Ων = 0,7, ce qui correspond à un âge actuel de l’Univers de quatorze milliards d’années et à une expansion infinie. La matière baryonique représente seulement 20 % de la matière totale.

trouve donc 2q0 = ρ/ ρc . On a l’habitude d’appeler Ω la quantité 2q0 ce qui signifie que l’Univers est fermé pour q0 = 1/2 ou Ω = 1. Jusqu’à très récemment beaucoup croyaient la constante cosmologique Λ nulle. Le problème se réduisait donc à celuici : si Ω est supérieur à l’unité l’Univers est fini, fermé et décéléré, il retournera un jour à son état initial ; si Ω est inférieur à l’unité, l’Univers est infini, ouvert et accéléré et durera indéfiniment. Pour Ω égal exactement à l’unité, l’Univers est plat et infini : c’est l’Univers euclidien prôné par Einstein et de Sitter. Mais on a découvert récemment que l’Univers, après avoir décéléré, subit maintenant une accélération, ce qui signifie que la constante cosmologique Λ n’est pas nulle mais positive. On l’identifie à une « énergie noire », ou « énergie du vide » (Figure B.11). Je n’irai pas plus loin dans la discussion de la valeur et de la signification des constantes cosmologiques, que l’on peut trouver détaillée dans de nombreux traités. En ce qui concerne les quasars, il suffit pour comprendre ce livre de connaître la signification de la constante de Hubble. Les autres constantes sont surtout l’affaire des cosmologistes étudiant la structure et la dynamique de l’Univers : elles n’ont pas d’incidence majeure sur notre compréhension des quasars et des noyaux actifs de galaxies.

Glossaire Amas de galaxies : Ensemble d’une centaine ou plus de galaxies liées par leur attraction mutuelle. Certains amas peuvent ne pas être complètement stabilisés et participer encore à l’expansion de l’Univers. Lorsqu’ils contiennent seulement quelques dizaines de galaxies ou moins, on parle de « groupes » et non d’amas. Amas d’étoiles : Groupe d’étoiles. Certains comme les Pléiades et les Hyades sont relativement jeunes et contiennent un petit nombre d’étoiles : ce sont les « amas ouverts ». Ils sont nés ensemble et sont en général en expansion. Ils sont localisés dans le plan de la Galaxie. D’autres sont vieux et contiennent jusqu’à des milliers d’étoiles : ce sont les « amas globulaires ». Ils ont une distribution sphérique autour de la Galaxie. Amas globulaire : Voir amas d’étoiles. Classe spectrale : Elle sert à classer les étoiles et est basée sur les intensités respectives de leurs raies spectrales. Elle correspond à leur température de surface. Les différentes classes spectrales sont O, B, A, F, G, K, M, depuis les plus chaudes jusqu’aux plus froides. On parle également de « classe de luminosité », pour distinguer les étoiles naines (notées V) des étoiles géantes (notées III) et des supergéantes (notées I). Cette classification est basée essentiellement sur la largeur des raies spectrales. Constante de Hubble : C’est la constante de proportionnalité entre la distance des galaxies et leur vitesse d’éloignement. Elle n’est valable que dans l’Univers local. Corps noir : C’est la forme du spectre électromagnétique lorsqu’il a atteint un équilibre parfait. Cette forme est décrite par la « loi de Planck » et ne dépend que de la température. On parle de « Corps Noir cosmologique » pour désigner le rayonnement fossile de l’Univers qui a la distribution d’un corps noir de 2,7 degrés absolus. Discontinuité de Balmer : Voir raies de Balmer. Effet Compton : C’est la diminution de fréquence (donc l’augmentation de la longueur d’onde) d’un photon de grande énergie (X ou gamma) se produisant lorsqu’il rencontre un électron. On l’appelle également ce processus « diffusion Compton » car il correspond à la simple diffusion Thomson (changement de direction sans changement de fréquence) d’un photon de faible énergie lors de sa rencontre avec un électron.

446

Des quasars aux trous noirs

Effet Compton Inverse : Processus inverse du précédent. C’est l’augmentation de fréquence d’un photon de faible énergie lorsqu’il rencontre un électron de grande énergie (relativiste). Effet Doppler : Variation de la fréquence (donc aussi de la longueur d’onde) du rayonnement émis par une source en mouvement. On l’observe aussi pour des ondes acoustiques. On devrait l’appeler « effet Doppler-Fizeau ». Électron : L’un des constituants des atomes. Il porte une charge électrique positive et est mille fois plus léger que les protons dont sont également constitués les noyaux atomiques. Étoile géante : Voir classe spectrale. Étoile naine : Voir classe spectrale. Étoile à neutrons : Stade final de l’évolution d’une étoile de plus de 1,4 masse solaire. Elle est constituée principalement de neutrons. Elle peut se manifester sous la forme d’un pulsar. Galaxie elliptique : Galaxie de forme sphéroïdale, dépourvue d’étoiles jeunes. Galaxie spirale : Galaxie contenant un disque aplati constitué d’étoiles et de gaz et montrant une structure spirale. Jour julien : C’est le nombre de jours écoulés depuis le premier janvier 4713 avant Jésus-Christ à midi, il est utilisé pour mesurer le temps dans les expériences astronomiques. Halo galactique : Structure sphérique entourant les galaxies, issue probablement des premiers moments de leur formation et constituée essentiellement de « matière noire ». Interféromètres : Voir interférométrie. Interférométrie : Méthode utilisant les interférences entre les ondes issues d’une même source et cohérentes entre elles. Les interféromètres sont constitués de plusieurs télescopes (ou radiotélescopes) connectés entre eux permettant d’obtenir une résolution spatiale élevée. Ionisation : Processus qui arrache un ou plusieurs électrons à un atome. Luminosité : Énergie émise par un astre par unité de temps. On l’appelle aussi « puissance ». Luminosité d’Eddington : Luminosité maximum d’un astre au-dessus de laquelle son atmosphère (ou le gaz qu’il accrète) est chassée par la pression de radiation car elle ne peut plus être contrebalancée par l’attraction gravitationnelle. Machines analogiques : Elles fonctionnent sur le principe de la représentation de nombres par des quantités physiques, comme l’intensité d’un courant électrique, contrairement aux machines digitales, qui fonctionnent sur la représentation des nombres par des ensembles de chiffres, comme on le fait dans un calcul. Magnitude absolue : C’est une mesure de la luminosité d’un astre, dans une échelle logarithmique. Elle s’écrit : M = −2,5 log(L) + C, où C est une constante qui dépend du domaine spectral observé. Par exemple pour le domaine visible, elle est choisie de telle sorte que la magnitude absolue du Soleil soit égale à −4,83. La magnitude absolue est par convention la magnitude apparente d’un astre situé à une distance de 10 parsecs.

Glossaire

447

Magnitude apparente : Elle est exprimée par l’équation : m = M + 5 − 5 log D, où M est la magnitude absolue et D la distance en parsecs. Matière noire baryonique et non baryonique : C’est la matière invisible. Elle est de deux sortes. D’une part une matière « baryonique », c’est-à-dire composée de particules semblables à celles que l’on trouve sur terre (les baryons, constituant les atomes et les molécules) mais non détectée car ayant un rayonnement trop faible. Elle pourrait se trouver par exemple dans des étoiles de faible masse (les naines brunes), des trous noirs et des étoiles à neutrons. D’autre part une matière « non baryonique » constituée de « particules étranges » comme les « Weakly Interacting Massive Particules » ou WIMPs qui n’ont encore jamais été détectées ; sa masse serait au moins 5 fois plus grande que celle de la matière baryonique. Naine blanche : Stade final de l’évolution d’une étoile de moins de 1,4 masse solaire. Les naines blanches ont des rayons voisins du rayon terrestre et sont constituées de matière dégénérée d’électrons et de noyaux atomiques. Nébuleuse : Terme générique désignant tout objet céleste d’aspect diffus. Nébuleuse planétaire : Ce sont des nébuleuses brillantes constituées de gaz éjecté par une étoile peu massive avant qu’elle atteigne le stade de naine blanche. Elles sont ionisées et chauffées par l’étoile centrale. Elles ont été appelées « planétaires » car elles ont une forme régulière qui les fait ressembler à des planètes. Nova : Étoile dont l’intensité augmente d’éclat brusquement, mais sans atteindre l’éclat d’une « supernova ». Le mécanisme des novae est d’ailleurs complètement différent de celui des supernovae, car il fait intervenir un couple d’étoiles proches. Nucléosynthèse : Ensemble de processus physiques conduisant à la synthèse de noyaux atomiques, par fission ou fusion nucléaire. C’est la nucléosynthèse (ici la fusion) qui fournit l’énergie nécessaire aux étoiles et produit les éléments comme le carbonne, l’oxygène et l’azote. Ondes gravitationnelles : C’est une prédiction de la théorie de la relativité générale. Le déplacement d’objets massifs (comme deux pulsars en rotation) modifie localement la courbure de l’espace-temps, car celui-ci dépend de la répartition des masses. La propagation des déformations se fait par l’intermédiaire des ondes gravitationnelles à la vitesse de la lumière. L’émission d’ondes gravitationnelles s’accompagne d’une perte d’énergie. Optique adaptative : Technique qui permet de corriger en temps réel les déformations d’un front d’ondes grâce à un miroir déformable. Ordinateurs digitaux : Par opposition à « machines analogiques ». Photon : Particule de lumière sans masse, possédant une certaine énergie qui correspond à la fréquence de l’onde électromagnétique associée. Raie 21 cm de l’hydrogène : Il s’agit d’une transition interdite entre deux sous-niveaux très proches du niveau fondamental de l’hydrogène. Bien que la durée de vie du niveau supérieur soit de cent millions d’années, la raie est très intense dans de nombreuses régions de l’Univers, car la quantité d’atomes d’hydrogène est gigantesque.

448

Des quasars aux trous noirs

Raies de Balmer : Elles correspondent aux transitions entre le deuxième niveau et les niveaux supérieurs de l’atome d’hydrogène. On les nomme Hα, Hβ, Hγ. . . La « discontinuité de Balmer » correspond à l’arrachage d’un électron depuis le deuxième niveau, et à l’absorption d’un photon de longueur d’ondes inférieure à 3 646 angströms. Rayonnement synchrotron : Rayonnement émis par des particules relativistes chargées dans un champ magnétique. Rayonnement thermique : Rayonnement émis par un gaz ayant atteint un état d’équilibre. Le spectre d’un rayonnement thermique n’est pas nécessairement celui d’un corps noir. En astrophysique, on parle de rayonnement « thermique » par opposition au rayonnement « non thermique » comme le rayonnement synchrotron, qui est émis par une petite quantité de particules relativistes. Rayons cosmiques : Particules présentes dans tout l’Univers qu’elles parcourent avec une vitesse proche de celle de la lumière. Ce sont pour l’essentiel des protons et des noyaux d’hélium. Région HII : Nébuleuses brillantes ionisées et chauffées par des étoiles jeunes ou même en train de se former (nébuleuse d’Orion par exemple). À ne pas confondre avec les nébuleuses planétaires qui, elles, entourent de vieilles étoiles dont elles ont été éjectées. Relativiste : Qui répond aux lois de la relativité. Les particules relativistes ont des vitesses égales à des fractions non négligeables de la vitesse de la lumière qui doivent être traitées par les lois de la relativité restreinte. Spectre : Décomposition du rayonnement électromagnétique. Par extension on appelle spectre la distribution de l’intensité du rayonnement en fonction de la longueur d’onde ou de la fréquence. Spectroscopie, spectrographie : Observation du spectre électromagnétique, soit directement à l’œil (spectroscopie), soit par enregistrement, par exemple sur une plaque photographique. Supernova : Appelée ainsi dans le passé, car on croyait que c’était simplement une nova dont la luminosité augmentait d’une façon beaucoup plus importante, mais le mécanisme en est complètement différent. Le phénomène de supernova correspond à l’effondrement brutal d’une étoile en fin de vie, qui expulse en même temps une partie de ses couches extérieures.

Sigles utilisés fréquemment BLR : Broad Line Region CALTECH : California Institute of Technology CCD : Charge Coupled Device CEA : Commissariat à l’énergie atomique CNES : Centre national d’études spatiales CNRS : Centre national de la recherche scientifique ESA : European Space Agency ESO : European Southern Observatory HST : Hubble Space Telescope IAP : Institut d’astrophysique de Paris NAG : Noyau actif de galaxie NASA : National Aeronautics and Space Administration (États-Unis) OHP : Observatoire de Haute-Provence VLBI : Very Large Baseline Interferometry VLT : Very Large Telescope (Chili) Le texte contient beaucoup plus de sigles, mais ils sont explicités au moment où ils sont utilisés.

This page intentionally left blank

Quelques livres récents pouvant être consultés (naturellement tous les comptes rendus de congrès sont exclus) « Quasar astronomy » : Weedman, Daniel, 1986, Éd. Cambridge University Press « Les trous noirs » : Luminet, Jean-Pierre, 1987, Éd. Belfond, Édition de poche : Le Seuil, 1992 « Les quasars, aux confins de l’Univers » : Collin, Suzy, Stasinska, Grazyna, 1987, Éd. Le Rocher, Collection Science et découvertes « Active galactic nuclei » : Blandford, Roger D., Netzer, H., Woltjer, L., 1990, Éd. Springer-Verlag, Collection Saas-Fee advanced course « Active galactic nuclei » : Robson, Ian., 1995, Éd. Wiley, Collection Wiley-Praxis series in astronomy and astrophysics « Astrophysics of Gaseous Nebulae and Active galactic Nuclei », Osterbrock, Donald E., University Science Books « Black holes and the Universe » : Novikov, Igor D., 1995, Éd. Cambridge University Press « Le destin de l’Univers : trous noirs et énergie sombre » : Luminet, Jean-Pierre, 1996, Éd. Fayard « Gravity’s Fatal Attraction : Black Holes in the Universe » : Begelman, Mitchell C., Rees, Martin J., 1996, Éd. Scientific American Library « Les noyaux actifs de galaxies : galaxies de Seyfert, QSO, quasars, lacertides et radiogalaxies » : Camenzind, M., 1997, Éd. Springer, Collection Lecture notes in physics « An introduction to active galactic nuclei » : Peterson, Brad M., 1997, Éd. Cambridge University Press « Les trous noirs » : 1997, hors-série de la revue « pour la Science » « Les quasars » : Kunth, Daniel, 1998, Éd. Flammarion, Coll. Domino « Quasars and Active Galactic Nuclei : an Introduction » : Kembhavi, Ajit K., Narlikar, Jayant V., 1999, Éd. Cambridge University Press « Active Galactic Nuclei : from the Central Black Hole to the Galactic Environment » : Krolik, Julian H., 1999, Éd. Princeton University Press

452

Des quasars aux trous noirs

« L’invention du Big Bang » : Luminet, Jean-Pierre, 2004, Éd. Le Seuil, coll. Points Sciences (Paris) « L’Univers dévoilé », Lequeux, James, 2006, Éd. EDP Sciences « Mystères de la formation de galaxies : Vers une nouvelle physique. », Combes, Françoise, 2008, Éd. Dunod

Crédit des figures Outre les permissions accordées par les auteurs eux-mêmes, toutes les figures provenant de l’Astrophysical Journal sont reproduites avec la permission de l’American Astronomical Society, celles provenant de Monthly Notices of the Royal Astronomical Society avec la permission de Blackwell Publishing, et celles provenant de Astronomy and Astrophysics avec la permission de Claude Bertout, éditeur en chef. – Fig. 2.4 : Serge Koutchmy, IAP – Fig. 2.6 : NASA, ESA et Allison Loll/Jeff Hester (Arizona State University) – Figs 3.2 et 3.3 : Reber, G., 1944, Astrophysical Journal, vol. 100, p. 279 – Fig. 3.4 : Observatoire de Paris – Figs. 3.6 et 3.7 : Baade, WW., Minkovski, R. 1954, Astrophysical Journal, vol. 119, p. 206 – Fig. 3.10 : DuPage Heritage Gallery – Fig. 3.12 : American Association of Variable Star Observers – Fig. 3.14 : Hubble, E., 1925, Astrophysical Journal, vol. 62, p. 409 – Fig. 3.17 : National Academy of Sciences, USA – Fig. 3.24 : Discovery Education Streaming, USA – Fig. 3.25 : AIP Emilio Segre Visual Archives, USA – Fig. 3.26 : Greenstein, J. & Schmidt, M., Astrophysical Journal, vol. 140, p. 1 et ESO – Fig. 3.27 : Greenstein, J. & Schmidt, M., Astrophysical Journal, vol. 140, p. 1 – Fig. 3.29 : droits réservés – Fig. 3.30 : Tom Jarett, Cape Town, RSA – Fig. 4.2 : HST – Fig. 4.3 : Université Vanderbilt, USA – Fig. 4.4 : Seyfert, C., 1943, Astrophysical Journal, vol. 97, p. 28 – Fig. 4.6 : HST et Romano Corradi et Denise Goncalves, Instituto de Astrofisica de Canarias – Fig. 4.9 : William Keel, Université d’Alabama, USA – Fig. 4.10 : Observatoire de Paris et OHP – Fig. 5.8 : Burbidge, EM., Lynds, CR., Burbidge, GR., 1966, Astrophysical Journal, vol. 144, p. 447 – Fig. 5.9 : Burbidge, EM., Astrophysical Journal, vol. 155, L43, et Turnshek, et al., 1988, Astrophysical Journal, vol. 325, p. 651

454

Des quasars aux trous noirs

– Fig. 5.11 : Patrick Petitjean, IAP – Fig. 5.12 : William Keel, Université d’Alabama, USA – Figs. 5.13 and 5.14 : Académie des Sciences Pontificales, 1970, Scripta Varia 35, Proceedings of the Study Week on Nuclei of Galaxies – Figs. 6.2 et 6.3 : Observatoire de Paris – Fig. 7.2 : Philippe et Mira Véron – Figs. 7.2 et 7.4 : NRAO / AUI / NSF – Fig. 7.4 : Institut de Radioastronomie Millimétique, CNRS, France, et Max Planck Institut, Allemagne – Fig. 7.9 : NRAO / AUI / NSF – Fig. 7.10 : Hargrave, PJ., Ryle, 1974, M., MNRAS, vol. 166, p. 305, et Perley, RA. & Dreher, JW., 1984, NRAO / AUI / NSF – Figs. 7.11 et 7.12 : NRAO, USA – Fig. 7.13 : Roger Blandford – Fig. 7.14 : Richard McCray – Fig. 8.2 : Galianni, P., et al. 2005, Astrophysical Journal, vol. 620, p. 88 – Fig. 8.3 : Halton Arp, "Catalogue of Discordant Redshift Associations", Editeur : Apeiron – Fig. 8.8 : HST – Fig. 9.4 : Schreier, E., et al., 1971, Astrophysical Journal, vol. 170, L21 – Fig. 9.5 : Stephanie Komossa, MPI Garching, Allemagne – Fig. 9.12 : Sun, W-H., Malkan, M., 1989, Astrophysical Journal, vol. 346, p. 68 – Fig. 9.13 : Sanders, DB. et al., 1989, Astrophysical Journal, vol. 347, p. 29 – Fig. 9.14 : Mitch Begelman, JILA, Colorado – Fig. 9.15 : University of California, Santa Cruz – Fig. 10.2 : Penston, MV. & Perez, E., 1984, MNRAS, vol. 211, p. 33 – Fig. 10.6 : Sanders, DB., et al., 1988, vol. 325, p. 74 – Fig. 10.7 : Lutz, D., et al., 1999, ASP Conference Series, vol. 177, p. 171 – Fig. 10.8 : Capetti, A., et al., 1997, Astrophysical Journal, vol. 476, L67 – Fig. 10.9 : Ogle, PM., et al., 2003, Astronomy and Astrophysics, vol. 402, p. 849, et NASA/CXC/MIT/UCSB – Fig. 10.10 : Mike Crenshaw et John Hutchings, HST, STIS – Fig. 10.11 : STScI et WFPC2, NASA – Fig. 10.12 : NRAO / AUI / NSF – Fig. 10.13 : NRAO / AUI / NSF – Fig. 10.14 : NRAO / AUI / NSF, Chandra, HST – Fig. 10.15 : NRAO / AUI / NSF – Fig. 10.16 : HST et NRAO / AUI / NSF – Fig. 10.17 : Matsumoto, R., 1998, http://www.astro.phys.s.chiba-u.ac.jp/∼matumoto/r-matsumoto.cdrom

Crédit des figures

455

– Fig. 10.18 : Meg Urry et Paulo Padovani – Fig. 10.20 : Martin Elvis, CFA, Cambridge, USA – Fig. 11.1 : ESA – Fig. 11.2 : NASA – Fig. 11.3 : HESS (High Energy Stereoscopic System) – Fig. 11.4 : Collaboration MAGIC, Albert et al., 2007, Astrophysical Journal, vol. 666, L.17 – Figs. 11.6 et 11.8 : Pounds, K., et al., 1993, Annual Review of Astronomy and Astrophysics, vol. 31, p. 717 – Fig. 11.9 : Nandra, K., et al., 1997, Astrophysical Journal, vol. 477, p. 602 – Fig. 11.10 : Tanaka, Y., et al., 1995, Nature, vol. 375, p. 659 – Fig. 11.11 : Young, AJ., et al., 2005, Astrophysical Journal, vol. 631, p. 733 – Fig. 11.12 : Clavel, J., et al., 1992, Astrophysical Journal, vol. 393, p. 113 – Fig. 11.14 : Chris Done – Fig. 11.18 : Vaughan, S., Fabian, AC., 2004, MNRAS, vol. 348, p. 1415 – Figs. 12.2 et 12.3 : Hasinger, G., Miyaji, T., Schmidt, M., 2005, Astronomy and Astrophysices, vol. 441, p. 417 – Fig. 12.4 : L. Greenhill, et al., NRAO/AUI and the Harvard-Smithsonian Center for Astrophysics – Fig. 12.5 : Gerald Cecil, NASA/CXC/Univ. of Maryland/AS. Wilson et al. IR : NASA/JPL-Caltech ; VLA & NRAO/AUI/NSF – Fig. 12.6 : Guinevere Kauffman – Fig. 12.7 : HST et Chandra – Fig. 12.8 : Brad Peterson – Fig. 12.9 : OHANA (Optical Hawaiian Array for Nano-radian Astronomy) – Fig. 12.10 : Kaspi, S., et al., 2000, Astrophysical Journal, vol. 533, p. 631 – Fig. 12.11 : Peterson, BM., et al., 2004, Astrophysical Journal, vol. 613, p. 682 – Fig. 12.12 : Kaspi, S., et al. 2005, Astrophysical Journal, vol. 629, p. 1 – Fig. 12.13 : Hasinger, G., et al., 2005, Astronomy & Astrophysics, vol. 441, p. 417, et Bouwens, RJ., et al., 2007, Astrophysical Journal, vol. 670, p. 928 – Fig. 12.14 : HST – Fig. 12.15 : Françoise Combes – Fig. 12.16 : NASA/CXC/MPE/S, Komossa, S., et al. – Fig. 12. 17 : LISA (Laser Interferometer Space Antenna), K. Thorne (Caltech), T. Carnahan (NASA GSFC) – Fig. 12.18 : VIRGO Interferometer Gravitational-Wave Observatory, CNRS/INFN – Fig. 12.19 : LISA (Laser Interferometer Space Antenna) ESA-NASA – Fig. 12.20 : Christofer J. Conselice (WIYN/NOAO/NSF) – Figs. 12.21 et 12.22 : Andy Fabian, NASA/CXC/IoA – Fig. 12.24 : Daniel Rouan et l’équipe NAOS-CONICA (Observatoire Paris-Meudon) – Fig. 12.25 : Daniel Rouan, 2004, L’Astronomie, 118, 188-194 – Fig. 12.26 : Clénet, Y., et al., 2005, Astronomy and Astrophysics, Vol. 439, L9