264 37 7MB
French Pages 188 Year 2021
© ODILE JACOB, AVRIL 2021 15, RUE SOUFFLOT, 75005 PARIS www.odilejacob.fr ISBN : 978-2-7381-5472-9
Le code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5 et 3 a, d'une part, que les « copies ou reproductions strictement réservées à l'usage du copiste et non destinées à une utilisation collective » et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'illustration, « toute représentation ou réproduction intégrale ou partielle faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite » (art. L. 122-4). Cette représentation ou reproduction donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété intellectuelle. Ce document numérique a été réalisé par Nord Compo.
Avant-propos
À la recherche des origines et des conditions d’apparition de la vie dans l’Univers Il me revient que deux choses me troublaient de manière récurrente quand je grandissais dans mon petit village de Bretagne, l’infinité du ciel étoilé les soirs d’été et l’océan, juste à côté, qui rythmait nos vies d’enfants. L’océan et sa violence, lorsque les tempêtes de l’Atlantique Nord viennent s’échouer sur ce pays aux falaises édentées. La douceur de sa lumière, les matins d’hiver, quant au collège, on nous demandait de remonter le chemin des douaniers, pour nous entraîner au cross d’hiver. Enfant, je détestais courir, mais je garde intact le souvenir de ces instants où, arrêté après quelques centaines de mètres, je demeurais interpellé par la tranquillité de cette vaste étendue d’eau qui se laisse découvrir juste après le sémaphore. Le sentier y atteint un des points culminants des falaises armoricaines et découvre alors une cascade de granit et d’avancées délimitant le côté ouest de la baie. Certains lundis matin, alors que tout le monde est reparti travailler, on peut y deviner des courants à fleur d’eau qui s’élancent et reviennent de l’horizon. On s’y arrête aussi à d’autres moments pour y sonder le temps qu’il fera pour les heures ou les jours à venir. L’océan avec ses odeurs et ses bruits d’été mais aussi ses dangers et ses pièges. Ces vertiges d’enfant les premières fois où mes parents m’amenèrent en bateau sur une coque de noix au lever du jour. Voir le jour se lever lorsque l’on est en mer est une expérience qui laisse des marques indélébiles. Cela vous y ramène par la suite de manière addictive, quels que soient les peurs et
les dangers que vous y rencontrerez. Je pense à l’océan car c’est là qu’a germé l’idée de ce livre, là qu’il y trouve ses origines. Alors que je suis perdu dans son immensité, les quarts de nuit m’offrent des moments propices aux vagabondages astronomiques. Éloigné de la pollution lumineuse et sonore des villes, on peut alors y toucher la profondeur du ciel étoilé. Par temps calme et en bonne compagnie, on s’y perd souvent à essayer d’y donner un sens, enivré par le temps qui s’y écoule autrement. Ce livre est tissé des échos de ces vagabondages. À l’image de celui que je partageais avec mon ami Michel à bord du Tomby traversant le golfe de Gascogne, inconscient qu’une des plus grosses tempêtes que j’ai eu à affronter nous attendait à quelques dizaines de milles de La Corogne. À l’image également des nombreux échanges avec l’équipe de Tara aussi, à l’occasion d’une traversée mémorable du Pacifique sous l’égide de son capitaine Yohann, périple au cours duquel il m’a été donné de fêter le plus bel anniversaire dont on puisse rêver. Le lecteur ne trouvera pas là un traité scientifique et précis. Un tel ouvrage ne pourrait d’ailleurs jamais voir le jour, tant le sujet est vaste et transverse à de nombreuses disciplines, tant il touche également à ce qu’il y a en nous de plus personnel et joue du regard que chacun de nous porte sur cette grande énigme qu’est la vie sur Terre. S’éloignant volontairement de la rigueur scientifique, ce texte cherche plus modestement, et sur le ton de la discussion, à poursuivre ces errances nocturnes en esquissant les découvertes de ces dernières décennies. Celles-ci ouvrent des perspectives nouvelles sur l’histoire de la Terre et du système solaire, telles que la découverte, il y a un peu plus de vingt ans, de planètes orbitant autour d’étoiles autres que le Soleil nous permet aujourd’hui de l’appréhender. Alors que les données s’accumulent sur plus de quatre mille mondes distants répertoriés à ce jour, nous réécrivons aujourd’hui l’histoire de notre propre système solaire. La question des origines de la vie sur Terre et, plus largement, celle des conditions permettant à la vie d’émerger sur une planète ne sont plus cantonnées au seul domaine spéculatif. Elles reviennent à grands pas au premier plan des intérêts de la science la plus fondamentale. Cette révolution en marche est d’autant plus spectaculaire qu’elle est alimentée depuis plusieurs horizons scientifiques. Après soixante ans d’exploration du système solaire, notre maigre récolte de conditions favorables à l’émergence de la vie nous amène à repenser la place particulière de ce qui se déroule sur Terre. La biologie, la biochimie et la paléontologie ne sont pas en reste avec le décodage génétique du vivant, plusieurs découvertes inattendues sur les formes de vie peuplant la jeune Terre et une meilleure compréhension du vivant à l’échelle moléculaire. C’est donc le récit d’une tout autre histoire de la vie sur Terre qui est en train de voir le jour. Portée par ces nouveaux élans, la recherche de la vie extraterrestre prend, elle aussi, un essor nouveau. La possibilité de découvrir la vie en dehors du système solaire est en train de devenir réalité mais sous une forme différente de celle généralement imaginée par le grand public. On ne parle pas – ou plus – de vie extraterrestre complexe, ni des formes que celle-ci pourrait prendre. Ce questionnement, alimenté par cinquante années d’œuvres de science-fiction
dans lesquelles notre imaginaire a eu tout loisir de déployer ses intuitions à grand renfort d’effets spéciaux, diverge désormais de la réalité scientifique. Celle-ci investit massivement, pour le découvrir, un sixième océan, matrice de conditions similaires à celles ayant existé sur Terre. Ce livre s’attache à parcourir les soixante dernières années de découvertes scientifiques, plus spectaculaires les unes que les autres, qui nous ont fait passer de l’écoute des étoiles à la recherche des signes d’existence d’une civilisation plus sophistiquée et, pour certains, moins décevante que la nôtre, à simplement imaginer d’autres océans, et même un seul, sur les vagues duquel nos esprits aventuriers pourraient se déployer.
CHAPITRE 1
Une perspective sur la cosmologie grecque et le modèle géocentrique
Pour mieux appréhender la révolution intellectuelle qui se déroule autour de la découverte des planètes extrasolaires, il est bon de commencer par se remémorer ce que nos prédécesseurs, les Grecs de l’Antiquité, pensaient sur le sujet et de parcourir rapidement les grandes avancées qui se sont déroulées jusqu’à la Renaissance et ont posé les bases de la représentation moderne du système solaire. Cette mise en perspective n’est pas seulement nécessaire parce que le mot « planète » est un mot d’origine grecque, mais aussi parce qu’il illustre la naissance de la science moderne, les bases de la démarche scientifique, de ses limites, et des précautions nécessaires à prendre lorsque l’on s’engage sur un sujet aussi complexe que celui que nous nous apprêtons à aborder dans ce livre : l’origine de la vie sur Terre et la possibilité de détecter de la vie au-delà de celle-ci. Cette histoire, déjà largement documentée et commentée, commence donc sur les bords de la Méditerranée avec une poignée d’intellectuels en sandales et en toges, lauriers dans les cheveux, qui débattaient sur diverses préoccupations de l’homme et qui ignoraient qu’ils posaient là déjà les premiers jalons de ce qu’on appellerait plus tard la modernité. Que la pertinence de ces réflexions à l’ombre des oliviers nous parle toujours aujourd’hui doit nous rappeler à une certaine humilité car, malgré les milliers d’années qui nous séparent, ces hommes n’ont rien à nous envier du point de vue des accomplissements intellectuels dont ils étaient capables. Il est bon de rappeler ce constat simple aux modernes que nous sommes, qui poursuivent aujourd’hui, comme jadis les Grecs, le patient effort d’interpréter le ciel. Les Grecs ont développé une représentation de l’Univers avec les mêmes moyens intellectuels que ceux qui sont aujourd’hui les nôtres. Ils ont surtout élaboré – et nous ne faisons aujourd’hui que
poursuivre sur cette lancée –, un extraordinaire monument intellectuel décrivant l’Univers à partir de l’ensemble des observations disponibles à l’astronome grec. De Pythagore à Ptolémée, et en passant par Aristote, les Grecs ont proposé une vision du système solaire assez poussée, complétée par quelques prouesses de mathématiques et de géométrie. Nul besoin de rappeler que ces deux sciences étaient en plein essor dans la Grèce antique. Toute la puissance prédictive de ces outils, qui allait transformer notre pensée pour les deux millénaires à venir, commençait à peine à être domptée. Dans cette représentation du monde, sept astres remarquables étaient identifiés dans le ciel. Le Soleil qui se lève chaque jour à l’est et se couche à l’ouest, la Lune un peu moins brillante qui montre toujours la même face sous un éclairage qui varie de manière graduelle, et cinq astres vagabonds. Ces astres « vagabonds », appelés « planètes » en grec, ont un éclat qui diffère des autres étoiles du ciel et, surtout, un mouvement apparent distinct de celui des autres points scintillants du ciel. L’astronome grec a donc développé une représentation de l’Univers, c’est-à-dire une cosmologie, à partir des observations disponibles. Neptune, Uranus, Pluton comme les autres petits corps du système solaire n’étaient alors pas accessibles à l’observation. Même si vous n’êtes pas parmi les spectateurs attentifs du ciel, plusieurs de ces planètes vous sont probablement déjà familières car quatre d’entre elles sont plus brillantes que la plus brillante des étoiles, Sirius. Comme la Lune et le Soleil, elles se déplacent approximativement le long d’un demi-cercle joignant dans le ciel le point à l’est qui voit le Soleil et la Lune se lever à celui, à l’ouest, où ils se couchent. Les planètes se déplacent dans le même plan autour du Soleil. Vues de la Terre, elles semblent suivre ce même demi-cercle que le Soleil et la Lune que nous appelons l’écliptique. Vénus est, après le Soleil et la Lune, l’objet le plus brillant du ciel. Suivant sa configuration, elle reste visible, même si vous habitez en ville, quelques heures avant le lever ou après le coucher du Soleil. Comme Vénus est située entre la Terre et le Soleil, elle ne demeure pas visible tout au long de la nuit et suit ou précède le Soleil de quelques heures. Mercure est encore plus proche du Soleil. Lorsque la configuration est optimale, on peut l’apercevoir au lever et au coucher du jour, dans la zone de transition entre le jour et la nuit. Il est assez fréquent de voir de belles conjonctions où les deux astres sont visibles juste après le coucher de Soleil. Vénus illumine alors le ciel dans la partie la plus obscure tandis que Mercure apparaît dans le dégradé de jaune et rouge du Soleil couchant. Les trois planètes externes, Mars, Jupiter et Saturne, sont moins brillantes que Vénus mais ont un éclat tout aussi distinctif et ne scintillant quasiment pas, contrairement aux étoiles situées bien plus loin et dont la luminosité est, elle, perturbée par le mouvement des couches d’air atmosphériques. Si vous apercevez des objets brillants dans le ciel, et proches du demi-cercle imaginaire que représente l’écliptique, il y a de très fortes chances que cela soit l’une de ces planètes. Notez que cela n’est plus réservé aux initiés, aux patients ou aux chanceux. En cas de doute, d’échec, ou même en restant dans votre salon et sans accès au ciel, vous pouvez utiliser l’une des nombreuses applications sur téléphone
et tablette, qui vous donnent la position des différentes planètes et constellations en pointant simplement votre appareil vers le ciel. Forte de ces mêmes observations, la représentation aristotélicienne et pythagoricienne plaçait donc tout naturellement la Terre au centre de ce ballet cosmique. La Lune se situe sur le premier cercle concentrique de ce système géocentrique, suivie par Mercure et Vénus positionnées dans cet ordre et chacune sur un cercle de rayon différent. Le Soleil occupe le quatrième cercle, tandis que Mars, Jupiter et Saturne se placent respectivement sur les cinquième, sixième et septième cercles. Le reste des étoiles est représenté comme fixé sur une sphère englobant l’ensemble : la sphère céleste. Débarrassons-nous un moment de nos préjugés éclairés sur une telle représentation de l’Univers, cette cosmologie grecque, pour en apprécier les mérites et percevoir la profondeur de la réflexion qui la sous-tend. Il s’agit, en effet, de la première représentation scientifique aboutie du système solaire. Elle se nourrit d’observations approfondies sur la durée du mouvement de ces sept astres sous la forme d’éphémérides, c’est-à-dire de tables numériques, dont on retrouve les traces dans la civilisation mésopotamienne. Elle les théorise de manière mathématique à l’aide de trajectoires suivant des cercles concentriques, ce qui aboutit ainsi à des prédictions sur leurs positions futures. Ces dernières pouvaient alors être facilement comparées aux observations attenantes. Ce cercle vertueux est toujours celui à l’œuvre aujourd’hui lorsque l’on établit une théorie scientifique : observations, théorisation et, bien sûr, prédictions. Cela reste le but ultime de l’exercice et lui donne tout son pouvoir de conviction, toute son aura sociétale : il permet d’entrapercevoir l’avenir. Après près de huit siècles de développement, qui s’étendent de Pythagore au VIe siècle avant notre ère et s’achèvent avec les derniers ajustements de Ptolémée au IIe siècle de notre ère à Alexandrie, la fragilité du modèle grec est en fait assez surprenante et complète, si l’on considère les mesures sur le mouvement des planètes disponibles à cette époque. Ce premier modèle cosmologique permet ainsi de prédire les saisons, grâce à la rotation de la sphère céleste, le cycle lunaire puisque le ballet de la Lune sur le premier cercle et celui du Soleil sur le quatrième donnent une bonne représentation de ces jeux d’ombres connus de tous. On y comprend ainsi de manière approximative, avec quelques tracés et un peu de géométrie, les éclipses lunaires et solaires provenant des positions alternatives de non plus de deux mais de trois corps dont l’un est au centre et les deux autres sur des cercles concentriques. Ce système est ancré dans la vision aristotélicienne du monde, où le cercle représente la forme parfaite, où le monde « sublunaire », compris entre la Terre et la Lune, est le lieu de la corruption et de l’imperfection, tandis qu’audelà, dans l’espace « supralunaire », on va vers un monde d’êtres célestes de nature différente et animés de mouvements parfaits. On remarque sans surprise que le dogme judéo-chrétien, élaboré au premier millénaire de notre ère, s’est construit suivant cette même cosmologie, avec le chaos régnant sur Terre tandis que le parfait et l’éternel sont atteints dans les cieux.
Pour ce qui concerne le mouvement des planètes internes, Mercure et Vénus, et externes, Mars, Jupiter et Saturne, il faut attendre les derniers ajustements de Ptolémée au IIe siècle de notre ère pour obtenir un modèle entièrement prédictif pour les sept astres. Ptolémée corrige deux défauts majeurs du modèle d’Aristote. En plaçant la Terre au centre de l’Univers, et les sept autres astres évoluant sur des cercles parfaits, Aristote et ses disciples ne pouvaient expliquer ni le mouvement rétrograde des planètes qui suivent des trajectoires quasi circulaires dans le ciel mais apparaissent comme rebroussant chemin à intervalles réguliers, ni la variation de luminosité des planètes visibles à l’œil nu sur des temps d’observation longs qui s’étalent sur plusieurs années. Alors que ces deux anomalies sont des pistes qui mèneront par la suite à une représentation du système où le Soleil est au centre du système planétaire, Ptolémée trouve une parade mathématique assez astucieuse permettant de sauver le modèle d’Aristote dans une vision du cosmos où l’ordre, c’est-à-dire le cercle parfait, n’est atteint que sur la sphère céleste. Tout en préservant la vision géocentrique de l’Univers chère à Platon, à Pythagore et à Aristote, Ptolémée place les planètes sur des épicycles, c’est-à-dire sur des cercles plus petits dont les centres suivent les trajectoires circulaires d’Aristote centrées sur la Terre. Ce raffinement géométrique est remarquable, puisqu’il permet de reproduire de manière assez précise le mouvement de l’ensemble des astres en ajustant la taille des différents cercles et des combinaisons de cercles composant leur orbite. Cette complexité mathématique supplémentaire lança le modèle de Ptolémée, et de manière plus large, la cosmologie grecque sur une trajectoire irréversible de domination intellectuelle pour les dix siècles qui suivirent. Au crépuscule du monde grec, ce modèle, très abouti, aurait pu néanmoins être remis en question. Aristarque de Samos, qui s’appuyait sur des arguments géométriques pour expliquer les éclipses lunaires, s’aperçut que, pour que son modèle soit cohérent, le Soleil devait être beaucoup plus gros que la Terre. Cette simple constatation l’amena à placer le Soleil au centre du système solaire et à remettre ainsi en cause le modèle de Ptolémée. La perte d’influence du monde grec combinée à l’emprise croissante de la théologie sur le monde occidental figea notre représentation de l’Univers en imposant le modèle aristotélicien perfectionné par Ptolémée. On oublie trop souvent de rappeler que c’est aussi la puissance intuitive de ce modèle qui a tout autant contribué à son succès face au modèle héliocentrique, mentionné de manière épisodique durant le premier millénaire avant notre ère. Le modèle géocentrique est très fortement lié à notre expérience quotidienne où ni la rotation de la Terre sur elle-même ni son mouvement autour du Soleil ne sont ressentis. La donnée observationnelle élémentaire est donc que nous sommes bien immobiles. Parachevé par Ptolémée, il est ensuite prédictif et en résonance avec notre perception de l’Univers si l’on considère l’ensemble des données observationnelles disponibles de l’époque grecque à la Renaissance qui se résument au mouvement des sept astres connus à cette époque. Le modèle grec se fonde aussi sur l’idée, chère aux philosophes de cette époque, qu’il existe une harmonie dans l’Univers qui nous entoure, et
qu’elle est intelligible pour l’homme en juxtaposant observations disponibles, théorisation mathématique et prédictions. Il n’est pas inutile de se rappeler, alors que nous abordons un thème aussi propice à la controverse et aux contrevérités que celui des conditions d’apparition de la vie dans l’Univers, que nous sommes toujours des Grecs, avançant sur le chemin de la connaissance suivant le même triptyque intellectuel. Nous y progressons sûrement aussi, avec la même conviction, empreinte de notre expérience quotidienne du vivant qui nous entoure. Ce triptyque, qui nous a été transmis par le monde arabe en plein essor durant le premier millénaire, est le principe fondateur de la science moderne. Il est le propre de la démarche scientifique, qui se distingue de la philosophie et de la croyance, lesquelles se limitent, quant à elles, à la théorisation sans vérification, validation expérimentale ou observationnelle. C’est donc tout naturellement celui que nous allons utiliser pour aborder le thème qui nous préoccupe ici. Il convient aussi de préciser que, suivant cette même logique, il n’y a pas nécessairement de vérité scientifique absolue mais plutôt une modélisation ou une théorie validée à l’aune des données observationnelles ou expérimentales sur lesquelles elle repose. Il ne s’agit pas ici d’affirmer qu’aucune vérité scientifique ne peut être établie – bien au contraire –, mais de souligner qu’il est toujours nécessaire d’être vigilant sur cette réalité et de s’assurer que l’hypothèse avancée repose sur un nombre suffisant de données reproductibles. C’est particulièrement le cas pour le domaine que nous nous apprêtons à aborder. L’histoire de la représentation géocentrique du système solaire est instructive à ce titre car elle induit une cosmologie erronée, tout en donnant une description imparfaite, mais malgré tout acceptable, de l’ensemble des données observationnelles disponibles. Il est aussi particulièrement savoureux de constater que cette représentation erronée a pu perdurer pendant près de deux mille ans grâce à l’acrobatie mathématique proposée par Ptolémée et accessible seulement à quelques spécialistes. La longévité du modèle géocentrique s’explique aussi par deux caractéristiques extrêmement puissantes : sa capacité à intégrer notre expérience quotidienne et sa complexité mathématique, source d’admiration. La civilisation arabe du premier millénaire, qui connut des mathématiciens remarquables, amplifia ce phénomène en ajoutant au modèle de Ptolémée plusieurs arrangements trigonométriques. Plusieurs critiques du système géocentrique voient également le jour durant cette période. Il faudra en fait attendre le début de la Renaissance qui s’accompagne des débuts de l’optique et de notre compréhension du principe d’inertie pour que notre représentation du monde connaisse sa première révolution majeure, après deux millénaires dans la mauvaise direction. La maîtrise de l’optique amena en effet la possibilité de découvrir dans le ciel une infinité d’objets invisibles à l’œil nu, fournissant une moisson de données nouvelles qui allaient contribuer à mettre en défaut le modèle géocentrique de Ptolémée.
Quelques leçons de la révolution copernicienne et de l’héliocentrisme Vers la moitié du deuxième millénaire, alors qu’en Europe la distinction entre théologiens et scientifiques n’est pas encore posée, les intellectuels de plusieurs capitales redécouvrent les écrits grecs préservés par le monde arabe et largement augmentés de plusieurs avancées mathématiques. Alors que nombre d’entre eux travaillent à corriger les imperfections du modèle géocentrique de Ptolémée, l’un d’eux, Nicolas Copernic, médecin, astronome, astrologue et économiste polonais, propose une représentation héliocentrique du système solaire. Cette proposition, qui sera jugée comme hérétique et mise à l’index en 1616, est d’ailleurs présentée au départ comme un artifice intellectuel permettant simplement d’améliorer la précision des éphémérides planétaires. Bloquées sur une représentation circulaire du mouvement des planètes, les améliorations restent marginales et ne sont pas suffisamment convaincantes en elles-mêmes pour déclencher la révolution intellectuelle à venir. Les premières impressions de l’ouvrage, publiées l’année de sa mort en 1543 et dédiées au pape, font initialement apparaître une note de l’éditeur écartant toute tentative d’associer cette représentation à une quelconque réalité. Dans le contexte intellectuel de la première moitié du XVIe siècle, la méthode scientifique est balbutiante. Nicolas Copernic est d’abord médecin et astrologue, avant d’être astronome, étudie le ciel à l’œil nu et produit des éphémérides lui permettant d’établir des horoscopes alors considérés comme indispensables pour le traitement des patients. Chanoine et donc acteur visible au sein de l’Église, il occupe aussi pendant de longues années plusieurs postes d’administrateur dans son diocèse. Il s’intéresse tout autant à l’économie qu’à l’astronomie et serait resté dans l’histoire pour cette dernière contribution sans la révolution instrumentale à venir. Alors que les idées de Nicolas Copernic circulent depuis plusieurs décennies dans les cercles savants du monde occidental sans opposition religieuse, une avancée technique majeure est en train de voir le jour. Ce début de XVIIe siècle voit ainsi le développement des premières longues-vues en Hollande. Ce qui était avant tout initialement perçu comme un objet récréatif suscite tout naturellement l’intérêt du physicien et mathématicien Galileo Galilei exerçant à l’Université de Padoue, alors sous contrôle de la république de Venise. Galilée perçoit immédiatement les retombées militaires d’un tel instrument et se lance dans son perfectionnement. Nous sommes alors à une époque où Galilée n’est pas l’astronome de réputation légendaire que nous connaissons aujourd’hui. Il enseigne la mécanique des corps, l’architecture militaire et développe plusieurs instruments scientifiques qu’il revend dans ses propres ateliers. Il fait également face à une certaine difficulté financière et est interdit de séjour dans sa Toscane natale en raison des nombreuses dettes qu’il y a accumulées. Il présente une version perfectionnée du modèle hollandais au Sénat vénitien en 1609. Alors que la technique de fabrication est encore empirique en l’absence de formalisation des principes de l’optique, la
démonstration publique est fracassante. Il cède l’instrument et l’exploitation de son invention à la république de Venise qui lui offre en retour une nomination à vie à l’Université de Padoue, accompagnée du doublement de sa rémunération. Libéré de ses difficultés financières, Galilée perfectionne son invention pour en faire la première lunette astronomique et la tourne vers le ciel jusqu’ici observé seulement à l’œil nu. Cette invention capitale va enfin donner tout son essor à la théorie héliocentrique, pressentie par plusieurs astronomes au cours des siècles mais jusque-là jamais confirmée. Galilée utilise ainsi sa lunette pour observer la Lune et la Voie lactée, mais surtout découvrir les quatre satellites naturels de Jupiter. En 1610, Galilée est ainsi parvenu à élaborer un instrument lui permettant d’observer les quatre lunes en orbite autour de Jupiter. La réalité du monde s’en trouva subitement transformée et le système géocentrique sérieusement ébranlé. En démontrant l’existence de lunes tournant autour de Jupiter, Galilée démontre ainsi que tous les corps ne tournent pas autour de la Terre comme le théorisait la vision aristotélicienne du monde. Le pouvoir suggestif du mouvement de ces quatre satellites autour de Jupiter allait aussi donner l’élan nécessaire au système héliocentrique et porter les efforts de modélisation dans cette direction à partir de ce moment. Galilée, qui n’était pas en reste pour valoriser son travail, nomma pour un temps ces quatre satellites les astres médicéens afin de s’attirer les faveurs du grand-duc de Toscane, un Médicis, et être autorisé à retourner dans sa Pise natale. Il est nommé premier mathématicien de l’Université de Pise en juillet 1610 et premier philosophe et mathématicien du grand-duc de Toscane la même année. Ses observations publiques des lunes joviennes lui procurent une reconnaissance instantanée et, dans les années qui suivirent, les foudres du pouvoir religieux. Au-delà de la controverse religieuse, qui a conduit les sciences de la nature à s’autonomiser par rapport aux considérations théologiques et métaphysiques, il faut retenir que c’est en fait l’observation du système jovien qui plaça de manière irrévocable le Soleil au centre du système solaire et scella la vision copernicienne du monde comme conforme à la réalité qui nous entoure. Galilée observa presque la même année les anneaux de Saturne, dont l’origine ne sera éclaircie que bien plus tard par Huygens, les phases de Vénus difficilement explicables dans le système géocentrique, les taches solaires et le relief cratérisé de la Lune. La découverte des phases de Vénus fournit les données indispensables à l’élaboration du cadre théorique nous permettant d’élaborer une vision héliocentrique du système solaire. Malgré sa conviction inébranlable dans le système copernicien, acquise par ses nouvelles observations du système jovien, Galilée se heurte à un obstacle de taille. En échouant à démontrer la rotation de la Terre, il sera sans défense face aux autorités religieuses qui s’appuient sur les écrits bibliques et une vision aristotélicienne du monde mais, peut-être avant tout, sur le bon sens et la conviction spontanée de chacun puisée dans l’expérience quotidienne, où il va de soi que le Soleil est en mouvement et traverse le ciel. Toute la renommée scientifique de Galilée, ainsi que son habilité politique, largement démontrée par la valorisation habile de ses
découvertes et inventions, ne le protégeront pas contre les cabales du pouvoir religieux. Il est condamné pour hérésie en 1633 lors d’un procès retentissant qui résonna dans toute l’Europe de cette première moitié du XVIIe siècle. Ses ouvrages marquent un changement de paradigme concernant notre perception du système solaire et scellent un divorce de plus en plus clair entre la théologie et la science moderne, appuyée sur l’observation et la mesure, et exigeant la mise à l’épreuve des hypothèses au moyen d’expérimentations reproductibles. La méthode scientifique que nous utilisons aujourd’hui était née. On juge par contre sûrement de manière biaisée, et à l’aune de découvertes bien postérieures, cette grande controverse, qui fut peut-être d’abord scientifique avant d’être religieuse et philosophique. En ce début de XVIIe siècle, le modèle copernicien, fondé sur des trajectoires circulaires, n’est en effet pas des plus convaincants. Une prédiction raisonnablement précise du mouvement planétaire nécessite également l’introduction d’épicycles : en fin de compte le modèle devient aussi complexe que celui de Ptolémée… Le modèle tychonique, introduit par l’astronome danois Tycho Brahe, alors à Prague, est peut-être même plus en cohérence avec les données disponibles à l’époque. Se basant sur l’absence de parallaxe stellaire mesurable, c’est-à-dire d’un déplacement angulaire des étoiles sur une durée de six mois provenant du déplacement de la Terre autour du Soleil, celui-ci introduit le modèle géohéliocentrique. Dans cette représentation les planètes tournent autour du Soleil lui-même entraîné dans un mouvement circulaire autour de la Terre considérée comme fixe. Ce modèle, équivalent d’un point de vue mathématique au système copernicien, explique les phases de Vénus et rétablit la vision aristotélicienne chère à l’Église. Il sera adopté par plusieurs scientifiques et intellectuels européens, et cela pendant encore plusieurs décennies après la condamnation de Galilée. Le modèle de Galilée était imparfait, et il fut facile à ses détracteurs de trouver des arguments scientifiques permettant de le condamner. C’est d’autant plus dramatique qu’il a joué aussi un rôle important en s’attaquant au principe d’inertie. Le principe d’inertie, autre entaille majeure à la cosmologie aristotélicienne, postule qu’il est équivalent pour un corps d’être immobile ou à vitesse constante. Les hommes modernes que nous sommes, habitués aux ascenseurs, aux voyages en avion et en voiture, ont maintenant intégré ce principe physique fondamental qui se traduit par le fait ne pas sentir que l’on est en mouvement une fois la vitesse de croisière atteinte et constante. Pour cette même raison, nous ne ressentons pas les déplacements à vitesse constante de la Terre, autour du Soleil et sur elle-même. Galilée, qui était avant tout mécanicien, est le premier à réaliser que l’impression d’immobilité que nous ressentons n’est en fait pas la preuve de l’immobilité de la Terre, comme le soutenaient les aristotéliciens mais aussi ses adversaires religieux. Il se perdit par contre en conjectures pour tenter de démontrer la rotation de la Terre en s’appuyant de manière erronée sur le phénomène des marées. La bienveillance de son ami le pape, Urbain VII, ne parviendra pas à lui éviter la foudre de ses détracteurs. Ceux-ci utiliseront sans retenue ses échecs à démontrer le mouvement
de la Terre et à expliquer le phénomène des marées pour le faire condamner et enterrer ainsi la thèse copernicienne. En fin de compte celle-ci manquait tout de même de données scientifiques solides. C’est à un autre contemporain de Galilée, Johannes Kepler, que nous devons les développements théoriques permettant de corriger les faiblesses des premiers modèles coperniciens qui plaçaient le Soleil au centre du système et les planètes sur des trajectoires circulaires centrées sur ce dernier. La difficulté majeure de cette représentation est qu’elle ne permet pas d’expliquer la variation de vitesses observées pour les planètes lorsqu’elles s’approchent du Soleil. Johannes Kepler, élève de Tycho Brahe qui était connu pour son système géohéliocentrique mais également réputé pour ses mesures et ses éphémérides très précises, s’appuie initialement sur celles concernant la planète Mars pour élaborer son modèle. Il remplace les trajectoires circulaires augmentées d’épicycles imaginés par Copernic par des ellipses dont l’un des foyers passe par le Soleil. Il parvient ainsi à des éphémérides plus précises que celles obtenues par son professeur, tout en soutenant une vision copernicienne du système solaire. Cette proposition s’accompagna de trois lois empiriques concernant le mouvement des planètes et permettant de décrire de manière assez judicieuse les variations de vitesse observées.
Figure 1. Le planisphère de Brahe, ou la structure de l’Univers illustrant l’hypothèse de Tycho Brahe (© DR).
La formulation de ces trois lois du mouvement et l’introduction d’ellipses constituent des attaques frontales du monde aristotélicien, tout aussi importantes que celles amenées par le modèle copernicien. Elles démontrent, d’une part, que les corps célestes ne suivent pas ce mouvement circulaire censé symboliser l’harmonie de la sphère céleste et des objets s’y rattachant. Elles sous-tendent, d’autre part, l’idée que des lois universelles non seulement fondées sur des mathématiques, mais incluant des principes physiques peuvent expliquer le mouvement des planètes. Il s’agit ici de la première tentative d’utiliser non seulement les mathématiques mais également la physique, alors considérées comme des domaines de la connaissance disjoints, pour expliquer les phénomènes astronomiques. Kepler suggère ainsi l’influence d’une force invisible entre les planètes et le Soleil pour expliquer le mouvement de ces dernières. Ces deux principes explicités dans ses ouvrages seront largement diffusés dans la seconde partie du XVIIe siècle et jetteront les bases de l’astronomie moderne. Ces deux grandes réalisations théoriques, qui apporteront les éléments jusqu’ici manquants au système copernicien
pour emporter le débat scientifique, passèrent toutefois inaperçues de son vivant. Kepler, fervent protestant, empreint de mysticisme et qui vivait également de ses activités d’astrologue, habilla malheureusement ses découvertes de conjectures religieuses, faisant appel à une harmonie cosmique mise en place par Dieu. Cela suscita probablement certaines réticences de la part de Galilée. On imagine facilement ce dernier se méfier des suggestions de force invisible au goût trop astrologique et de considérations concernant l’harmonie de formes géométriques mise en place suivant un principe divin. Alors que les deux hommes entretenaient une relation étroite lors de la découverte des satellites joviens, l’histoire ne dit pas pourquoi cette relation se distendit. Il semble en revanche qu’aucun des deux ne sut voir dans le travail de l’autre la partie qui lui manquait pour arriver à la démonstration complète de la validité de la vision héliocentrique. Cela est d’autant plus surprenant s’agissant de Galilée, car le recours aux ellipses et les trois lois mathématiques formulées par Kepler contenaient naturellement la solution au problème des marées qui lui avait tant résisté et tant coûté. Excommunié par les autorités luthériennes et accaparé par la défense de sa mère accusée de sorcellerie, Kepler avait ses propres problèmes avec les institutions religieuses, moins souvent encensés par l’histoire mais tout aussi sérieux. Il faut attendre les travaux d’Isaac Newton, publiés en 1687 alors qu’il occupe un poste de professeur de mathématiques à l’Université de Cambridge, pour asseoir les fondements de notre perception moderne du système solaire. Isaac Newton unit en un tout cohérent les travaux des deux géants qui l’avaient précédé. Il pose les bases de la mécanique classique en s’appuyant sur le principe d’inertie que Galilée avait mis en évidence à l’aide de plusieurs dispositifs mécaniques, et en donnant tout son sens à la notion de force introduite par Kepler. Il désigna cette dernière du nom de force de gravitation, du latin gravitas qui veut dire masse. Newton se débarrasse de la question de la nature de cette force discutée de manière un peu trop étendue par Kepler et l’introduit comme une force d’attraction entre deux corps de masse donnée, proportionnelle au produit des deux masses et inversement proportionnelle au carré de la distance qui les sépare. Il postule ainsi les lois du mouvement et la théorie universelle de la gravitation, toujours en usage aujourd’hui pour décrire le système solaire et, de manière plus large, l’ensemble des mouvements des corps composant les systèmes planétaires. À l’aide de ces principes de la mécanique et de la loi de gravitation universelle, Newton est capable de dériver les trois lois de Kepler. Il retrouve, de manière assez naturelle, les trajectoires elliptiques introduites de manière empirique par ce dernier. Le Soleil se trouve bien entendu au centre de ce système héliocentrique, avec une masse et une force d’attraction exercée sur les autres corps du système solaire et expliquant leurs mouvements maintenant observés avec une précision bien supérieure à celle obtenue par les Grecs ou même Copernic. Ces trois principes de la mécanique allaient révolutionner notre façon de voir le monde et seront au cœur de plusieurs innovations remarquables durant la révolution industrielle qui suivit. Ils ne seront remis en cause qu’au début du XXe siècle, par la théorie de la relativité générale d’Einstein. Celle-ci ouvrit une brèche dans les principes de la mécanique classique de Newton,
qui reposent de manière implicite sur la notion de temps absolu, qui est le même pour tous les observateurs et quelles que soient leurs vitesses de déplacement. Les objets du système solaire et, de manière plus générale, des systèmes planétaires se déplaçant à des vitesses bien inférieures à la vitesse de la lumière et ne subissant pas de champs gravitationnels forts, il n’est pas nécessaire de faire appel à la relativité générale. La mécanique classique de Newton est toujours employée aujourd’hui pour décrire les différents événements s’y déroulant. S’agissant de la description des systèmes planétaires, la théorie de la relativité générale présente quelques corrections de second ordre et dans des situations bien particulières que nous n’aborderons pas ici. Elle n’aura donc pas cours pour les différentes questions auxquelles nous nous intéresserons. Le succès de la mécanique newtonienne fut immédiat. Cette formulation posait le cadre théorique nécessaire à l’utilisation intégrée des avancées complémentaires de Galilée et de Kepler. Elle permit ainsi d’expliquer plusieurs observations jusqu’alors mal comprises. En premier lieu, le phénomène des marées, qui avait tant coûté à Galilée, se décline dans ce cadre théorique comme l’action gravitationnelle combinée du Soleil et de la Lune. De manière tout aussi spectaculaire, les principes énoncés par Newton permettent également d’expliquer les trajectoires des comètes, bien différentes de celles des planètes. Phénomènes énigmatiques et objets de spéculations frénétiques depuis l’aube de l’humanité, ils sont inscrits naturellement par la mécanique newtonienne dans le ballet planétaire comme des petits objets, bien plus petits que les planètes, tournant autour du Soleil. Le succès de ces prédictions marque la fin du débat scientifique concernant le caractère géocentrique ou héliocentrique du système solaire. L’énoncé des lois de la mécanique par Newton représente une discontinuité très nette dans notre perception du monde et marque un changement de paradigme cosmologique assez brutal. Elles donnent un accès direct aux masses des différents objets composants le système solaire. Elles fournissent également une représentation spatiale du système solaire puisque la force gravitationnelle dépend de la masse des deux corps en jeu ainsi que de la distance qui les sépare. Elles postulent que la Terre n’est plus le centre du monde, un état des choses qui commençait à être perçu depuis Copernic mais, de manière tout aussi marquée, que le Soleil n’en est pas le centre non plus. Les lois de la mécanique newtonienne indiquent en effet que tous les corps du système solaire se déplacent autour du centre de gravité de l’ensemble des corps le composant. Pour le système solaire, celuici est proche du centre du Soleil mais ne coïncide pas avec ce dernier. Elles introduisent également la notion, tout aussi troublante, de mouvement continu pour l’ensemble des corps du système solaire, non seulement celui des planètes comme la Terre mais, par extension, celui du Soleil soumis à la force gravitationnelle des autres étoiles dans un Univers qui n’a plus de centre. La vision aristotélicienne d’un Univers statique, centré sur la Terre et ancré dans notre perception quotidienne d’immobilisme, appartient, à partir de la fin du XVIIe siècle, à l’histoire des sciences. La pomme lancée par les Grecs pour démontrer l’immobilisme de la Terre retomba donc sur la tête de Newton qui l’utilisa pour changer radicalement la vision du monde qui nous entoure. Les
questions liées à la nature même de cette force gravitationnelle, énoncée comme un postulat ou une loi empirique par Newton, et reformulée dans le cadre de la relativité générale comme une déformation de l’espace-temps, sont toujours d’actualité. Les tentatives de justification dans un cadre théorique plus large sont régulièrement discutées et l’objet de nombreux échanges scientifiques. La gravitation est aujourd’hui l’une des quatre forces fondamentales en physique et a résisté, jusqu’à présent, aux tentatives d’unification avec les autres forces. Nous laissons ce sujet de côté car il n’a que peu de pertinence sur le thème qui nous occupe. Comme nous l’avons déjà mentionné, l’évolution de notre perception du système solaire de l’Antiquité à la Renaissance est une bonne illustration du triptyque à l’œuvre dans la science moderne. Celui-ci allie de manière circulaire observations, théorisation et prédictions. N’en déplaise aux Grecs et à Kepler, il faut ajouter que la science moderne s’est aussi détachée de la perception des mathématiques comme étroitement associées à une vérité divine, dans laquelle chaque avancée lève un peu le voile sur l’œuvre d’un grand architecte. L’outil théorique moderne qui associe aux mathématiques la physique, la chimie et, plus largement, l’ensemble des données disciplinaires nécessaires à la compréhension d’un phénomène doit être compris comme un objet révélant une vérité abstraite et partielle, uniquement contrainte par le champ de données qu’elle décrit et prédit. Dans ce contexte, cette théorisation n’a bien souvent qu’une validité temporelle finie, au fur et à mesure que de nouvelles observations viennent confirmer ou infirmer les nouvelles prédictions qui s’étendent au-delà de l’ensemble des données initialement utilisées pour son élaboration. Il faut aussi comprendre que les grandes controverses scientifiques se situent dans cet interstice, où les prédictions qui s’étendent au-delà du champ de données initiales divergent. Alors qu’une démarche plus philosophique s’arrêterait à contempler cet état de fait, l’objectif de l’approche scientifique s’efforce de mettre en place un protocole d’observation ou expérimental permettant de lever cette controverse en y ajoutant un nouveau champ de données et ainsi étendre notre champ de connaissance. Notre vision du système solaire s’est donc trouvée transformée à la Renaissance non pas parce que nous sommes devenus plus clairvoyants mais seulement parce que l’essor de l’optique a créé un nouveau champ de données qu’il a fallu intégrer. Cela a nécessité le développement de nouveaux outils mathématiques et l’introduction notamment de la physique dans cette nouvelle description. Ce cercle vertueux, qui s’articule autour de l’observation, de la théorisation et de la prédiction, permet de progresser de manière systématique dans les possibles que nous imaginons pour comprendre l’Univers qui nous entoure. Alors que nous abordons un thème aussi complexe que celui des origines de la vie sur Terre et des conditions possibles d’apparition de la vie dans l’Univers, qui s’appuie sur un ensemble de données parcellaires, s’étendant parfois sur plusieurs champs disciplinaires, il sera utile de garder en tête ce triptyque et de s’interroger sur les éléments observationnels étayant ou pouvant étayer les différentes propositions. Il faudra aussi bien sûr ne pas perdre de vue qu’en raison du manque de données sur certains aspects et
imprégnés de notre expérience quotidienne, tout comme les Grecs, nous mettons peut-être une nouvelle fois la Terre au centre de l’Univers.
CHAPITRE 2
Le système solaire moderne
Nous sortons tous de nos études avec une vision du système solaire fortement marquée par les débats de la Renaissance, opposant Galilée et l’Église, et plaçant non plus la Terre mais le Soleil au centre du cortège planétaire formant le système solaire. Cette révolution conceptuelle quant à notre place dans l’Univers est devenue inséparable de la naissance de la science moderne. Elle illustre sa libération des contraintes théologiques et métaphysiques qui lui étaient étrangères, pour s’appuyer sur le triptyque observation-théorisation-prédiction. Alors que nous venons d’évoquer, sûrement trop brièvement pour les spécialistes, cette période où la science contemporaine a pris son autonomie, l’avènement du système héliocentrique qui en résulte n’est en fait qu’une première étape : un nouveau point de départ. Grâce au développement continu de l’optique et à la maîtrise des nouveaux principes de la mécanique newtonienne, une nouvelle conception du système solaire s’est élaborée de manière ininterrompue depuis la fin du e XVII siècle. Des planètes supplémentaires ont été mises en évidence, ainsi que toute une collection d’objets un peu plus petits se déplaçant aux premiers abords de manière anarchique. Ces éléments continuent d’alimenter une théorisation sans cesse plus élaborée mais toujours en chantier : il faut en effet intégrer des quantités sans cesse croissantes de données nouvelles obtenues par des instruments plus puissants, la modélisation numérique, l’exploration spatiale du système solaire et maintenant la découverte de planètes extrasolaires que l’on trouve autour d’autres étoiles que la nôtre.
Des terres brûlées aux géantes de glace
Avant de nous lancer dans l’exploration du système solaire et de parcourir les trois siècles de découvertes qui ont suivi la révolution copernicienne, il est important de rappeler les ordres de grandeurs concernant la répartition des masses pour les sept astres visibles à l’œil nu et observés depuis les Grecs, et même bien avant. Le Soleil, qui est proche du centre de gravité du système solaire, mais dont le centre ne coïncide pas, détail dont nous saisirons toute l’importance pour la détection des exoplanètes, contient près de 99,8 % de toute la masse du système solaire. Il s’agit d’une étoile constituée principalement d’hydrogène et d’hélium et qui produit son énergie grâce à la fusion thermonucléaire. L’hydrogène est le carburant de ce processus tandis que l’hélium en est le produit. L’intérieur du Soleil se caractérise par un état de plasma pour lequel les pressions et les températures sont telles que les électrons et les protons constituant les atomes d’hydrogène ne sont plus liés. Ils se déplacent de manière collective en formant une soupe d’éléments disjoints. Cette réaction, qui produit une énergie colossale et consomme près de 700 millions de tonnes d’hydrogène à la seconde, nous arrive sur Terre sous la forme de particules ionisées, protons, électrons, ions, et, bien sûr, de photons, et donc de lumière, source indispensable à la vie sur Terre. Le Soleil est de la même nature que l’ensemble des étoiles que vous voyez dans le ciel. Chacune consomme de l’hydrogène et produit la lumière que vous voyez. Le Soleil est une étoile assez standard et se situe dans la moyenne des caractéristiques, si on le compare aux autres étoiles que nous connaissons. Son âge est estimé à 4,5 milliards d’années et la quantité d’hydrogène disponible nous laisse entrevoir que son état est relativement stable pour les 6,5 milliards d’années à venir. Nous avons donc, a priori, tout le temps de continuer à nous développer et à réfléchir au sens de l’Univers. Son apparence calme est toutefois trompeuse, et au moins deux facteurs viennent ternir cette vision idyllique. Il y a maintenant des photos superbes du Soleil disponibles dans plusieurs longueurs d’onde et qui révèlent ce qui se cache derrière ce disque d’apparence uniforme. La surface du Soleil ressemble à celle d’une casserole d’eau en ébullition avec des jets de matière et des rayonnements erratiques qui suivent des cycles d’intenses activités et de repos. Cela se traduit par une variation de la densité des taches solaires, qui apparaissent à sa surface, et, plus proche de nous, par l’intensité et la fréquence des aurores boréales visibles aux pôles. Celles-ci sont causées par l’afflux subit de particules chargées qui, piégées dans le champ magnétique terrestre, embrasent notre atmosphère. Alors que certains d’entre vous voient sûrement une bonne raison de se réjouir à l’idée qu’un plus grand nombre d’aurores boréales pourraient être visibles à nos latitudes, les tempêtes solaires ne sont pas anodines. Elles représentent en fait un risque qui n’est pas complètement quantifié. Sur le court terme, elles perturbent régulièrement les communications, la distribution d’électricité, et peuvent endommager satellites et réseaux électriques. Depuis la première observation de ces taches par Galilée, le Soleil est maintenant surveillé de manière quotidienne car la variation de son activité de surface permet de prédire avec un peu d’avance l’intensité des tempêtes solaires à venir. Ces observations permettent également de mieux
appréhender ces fluctuations qui restent au final assez mal quantifiées sur le long terme. De plus fortes fluctuations ont eu ou pourront avoir lieu avec des conséquences plus dramatiques pour les conditions de vie sur Terre. Comme nous le verrons plus loin, l’activité stellaire varie fortement suivant le type d’étoile, et c’est donc une première donnée que nous devrons prendre en compte lorsque nous chercherons les conditions favorables au développement de la vie. Sur un temps plus long, une autre caractéristique importante de l’activité solaire concerne l’augmentation progressive de sa luminosité, depuis les premiers moments de sa formation. La luminosité solaire a augmenté d’environ 30 % en 4 milliards d’années. Cela a bien sûr fortement affecté les températures ressenties sur Terre et sur l’ensemble des planètes du système solaire. La consommation d’hydrogène, responsable de cet effet, entraîne une contraction progressive de l’étoile, ce qui se traduit par une augmentation constante de la luminosité émise. Cet effet va continuer durant plusieurs milliards d’années, et jusqu’à épuisement du stock d’hydrogène disponible. Par voie de conséquence, l’augmentation de luminosité va se répercuter par une augmentation progressive de la température sur Terre et par une réduction, tout aussi dramatique, de la durée pendant laquelle les conditions resteront favorables à la vie. Les 6,5 milliards d’années affichés précédemment doivent donc être tempérés par la prise en compte de la variation de luminosité tout au long de la vie du Soleil. Cela pose un problème non trivial à résoudre puisqu’il concerne le couplage entre l’activité solaire et le climat terrestre. Dans environ un milliard d’années, le Soleil sera de 10 % plus brillant. Il amènera alors la Terre sur la même trajectoire que celle de Vénus. Nous reviendrons sur ce point plus en détail dans les chapitres suivants puisqu’il concerne, d’une part, sur la Terre primitive, les conditions favorables à l’émergence de la vie dans le système solaire et, d’autre part, de manière plus générale, dans un système planétaire autre que le système solaire. La luminosité solaire définit ainsi deux zones distinctes dans le système solaire, séparées par ce que l’on appelle la ligne des glaces. Pour des distances supérieures, l’eau, et par extension le méthane et l’ammoniac, se trouve à l’état solide tandis qu’aux distances inférieures ces composés se trouvent à l’état liquide ou gazeux. Pour le Soleil, cette distance correspond actuellement à trois unités astronomiques, c’est-à-dire 3 fois la distance entre la Terre et le Soleil, et sépare ainsi les planètes en deux grandes catégories. À l’intérieur de la ligne des glaces, on trouve quatre planètes dites telluriques, ressemblant à la Terre pour ce qui concerne leurs intérieurs, qui sont composées d’un noyau de fer et d’une couche de silicates. Comme la température de surface varie en fonction de la distance au Soleil, Mercure, la plus petite planète du système solaire et la plus proche du Soleil, a une température de surface qui peut atteindre 700 K (427 oC). Son atmosphère est quasi inexistante en raison de sa petite taille et de sa faible masse, 5 % de la masse terrestre, comme de sa proximité au Soleil, 40 % de la distance Terre-Soleil. Elle est suivie par ordre d’éloignement au Soleil par Vénus, qui est située aux trois quarts de la distance séparant la Terre du Soleil mais qui montre des températures de surface du même ordre de grandeur que Mercure en raison de l’effet de serre important créé par son atmosphère. Vénus est
légèrement plus petite que la Terre – 80 % de sa masse – et souvent considérée comme une jumelle de la Terre. En déplaçant Vénus à la position actuelle de la Terre, nous retrouverions un effet de serre toujours présent, comme sur Terre, mais suffisamment réduit pour que l’eau soit restée à l’état liquide en surface. Après la Terre, nous trouvons Mars, à peine plus grosse que Mercure, qui a une masse correspondant à 10 % de la masse terrestre. Son éloignement du Soleil n’est pas encore trop important et la planète passe dans la zone où l’eau pourrait être trouvée à l’état liquide si son atmosphère était suffisamment dense. La température atteint des maximums de 310 K (35 oC) à l’équateur durant l’été. L’atmosphère de Mars est très ténue, et la pression atmosphérique y atteint à peine 0,5 % de celle que nous connaissons sur Terre. Avec ses calottes polaires, ses saisons, ses tempêtes, pouvant atteindre plusieurs centaines de kilomètres par heure, et sa topographie qui suggère que l’eau a pu s’y trouver en abondance et à l’état liquide à un moment de son histoire, Mars est l’objet de beaucoup d’attention dans nos recherches des conditions favorables à l’émergence de la vie, comme nous le verrons dans les prochains chapitres. Si nous continuons à nous éloigner du Soleil, nous trouvons, au-delà de la ligne des glaces, Jupiter et Saturne. Ces deux planètes ont une composition qui se distingue très nettement des planètes telluriques. Composées principalement d’hydrogène et d’hélium, ces deux planètes ressemblent au Soleil pour ce qui est de leur composition. Leur taille a en revanche empêché toutes réactions nucléaires de fusion de se produire. Représentant moins de 0,1 % de la masse du Soleil et occupant un volume environ 1 000 fois plus petit, elles restent tout de même des mastodontes planétaires. Jupiter, la plus grosse planète du système solaire, a une masse égale à plus de 300 fois celle de la Terre, tandis que Saturne, la deuxième planète la plus massive, atteint 100 fois la masse terrestre. Constituées principalement des deux éléments les plus légers de la classification périodique, elles sont beaucoup plus volumineuses que les planètes telluriques du système interne et ne présentent pas de surface solide. Une plongée dans ses couches nuageuses, qui présentent des rendus de couleurs spectaculaires visibles depuis la Terre pour Jupiter, équivaut à pénétrer dans un brouillard de plus en plus dense et qui atteint des pressions et des températures bien supérieures aux cœurs métalliques des planètes comme la Terre.
Figure 2. Le système solaire sur une échelle de logarithmique (image : © R. Mewaldt et P. Liewer/JPL/NASA, légendes : Y. Gominet/IMCCE).
Jusqu’à la fin du XVIIIe siècle, Jupiter et Saturne se trouvaient à la limite connue du système solaire avec des distances du Soleil respectivement égales à 5 et 10 fois celle de la Terre. Leurs périodes de révolution autour du Soleil s’allongent tout autant, avec Jupiter qui effectue une révolution complète en dix ans alors qu’il faut trente ans à Saturne pour faire de même. Nous voyons donc que les distances s’allongent de manière significative et que ces planètes se trouvent dans une région du système solaire où la chaleur et la lumière arrivant du Soleil sont bien moins importantes que pour les planètes internes. Les températures y sont aussi bien plus basses, de l’ordre de 150 K et 80 K dans la partie nuageuse. Cet accroissement significatif des distances dans le système solaire externe est la raison principale pour laquelle il a fallu attendre la fin du e XVIII siècle et les progrès de l’optique pour découvrir la septième planète du système solaire, Uranus. La découverte d’Uranus, première planète découverte à l’époque moderne, grâce à une observation de l’astronome William Herschel, symbolise toute la puissance scientifique de la révolution copernicienne. Uranus est 2 fois plus éloignée du Soleil que Saturne et n’a pu être détectée que grâce à la puissance combinée des progrès effectués en optique et de ceux obtenus par la mécanique newtonienne. Cette dernière a ainsi permis d’associer son mouvement relativement lent d’un astre brillant à celui d’une planète. À 20 fois la distance Terre-Soleil,
Uranus se distingue des autres planètes du système solaire par sa composition qui contient non seulement de l’hydrogène et de l’hélium, comme les deux planètes géantes du système solaire Jupiter et Saturne, mais une quantité importante de ce qui est appelé communément des glaces, c’est-à-dire un mélange d’eau, d’ammoniac et de méthane à l’état solide. Uranus, qui a une masse 15 fois plus importante que la masse de la Terre, définit une nouvelle classe de planètes. Elle définit une catégorie entre les planètes géantes et les planètes telluriques, les géantes glacées, et, par sa distance au Soleil, double ainsi la taille du système solaire. Moins d’un siècle plus tard, et notant des perturbations importantes dans l’orbite d’Uranus, le Français Alexis Bouvard suggère l’existante d’une huitième planète au-delà de l’orbite d’Uranus. Les prédictions de la mécanique newtonienne sont alors telles qu’Urbain Le Verrier, en France, et John Couch Adams, en Angleterre, prédisent indépendamment la position de cette hypothétique planète, Neptune. Elle sera observée moins de deux ans plus tard par un astronome allemand, Johann Galle. Neptune devient ainsi la première planète détectée uniquement à l’aide de la mécanique newtonienne et des mathématiques. Neptune ouvre la voie à cent ans de découvertes d’objets de plus en plus petits et de plus en plus lointains du système solaire. Elle est similaire à Uranus pour ce qui concerne sa taille et sa composition. Elle appartient également à la catégorie des géantes glacées et se trouve en orbite autour du Soleil à une distance de 30 fois celle de la Terre au Soleil. Elle fait une révolution complète autour du Soleil en cent soixantecinq ans. Elle reste difficilement observable depuis la Terre et il faudra attendre la conquête spatiale pour obtenir les premières données fiables à son sujet. En moins de deux cents ans, la révolution copernicienne et newtonienne à laquelle s’ajoute la maîtrise de l’optique a donc considérablement modifié notre vision du système solaire. En trouvant des planètes à des distances 3 fois supérieures à celle de Saturne, la plus lointaine des planètes connues au temps de Galilée, et en remettant en cause le nombre de planètes gravitant autour du Soleil, le XIXe siècle marque la prise de conscience que le système solaire est beaucoup plus vaste qu’initialement imaginé. La découverte d’Uranus et de Neptune, à laquelle s’ajoute la ceinture d’astéroïdes, et de nouvelles lunes, suggère de plus qu’il est peuplé d’objets d’une diversité bien plus grande qu’imaginé initialement.
Éris la déesse de la discorde et les lunes de mille mondes Comme plusieurs d’entre vous ont consciencieusement appris qu’il y avait neuf planètes dans le système solaire, nous allons nous pencher sur le cas de Pluton, qui a perdu officiellement son statut de planète à la fin des années 2000. Ce débat, tranché en 2006 par l’Union
internationale d’astronomie, date en réalité du début du XIXe siècle, alors que lunettes et télescopes exploraient sans relâche le ciel, à la suite de la découverte d’Uranus. Pluton, longtemps considérée comme la neuvième planète du système solaire, est en fait relativement petite. Elle est un peu moins grosse que notre Lune. Découverte en 1930 après plusieurs années de recherche, elle se situe environ à 40 fois la distance Terre-Soleil. Sa masse, en revanche, avait été surestimée : anticipée dès la fin du XIXe siècle, après la mise en évidence d’irrégularités dans les trajectoires de Neptune et d’Uranus, elle avait été initialement prédite comme approchant 6 fois celle de la Terre. Le cas de Pluton montre que, au début du XXe siècle, nous sommes à la limite de détection de ce type d’objets, d’une masse de quelques masses terrestres, situés à une distance de 50 fois celle de la Terre au Soleil. Nous sommes aussi à la limite de précision en ce qui concerne la caractérisation de l’orbite d’Uranus et de Neptune et, finalement, également à la limite de précision de ce type de calcul. La révolution informatique ne s’étant pas encore produite, ces calculs sont réalisés à la main et avec une précision bien moindre de ce qu’il est possible de faire aujourd’hui. Il faut également prendre en compte qu’à la faible luminosité et à la petite taille apparente de ces objets depuis la Terre s’ajoutent des déplacements relativement faibles avec des révolutions qui dépassent la centaine d’années. Leur détection ne peut donc se faire que sur des temps longs, en accumulant des observations effectuées sur plusieurs nuits. L’arrivée de la photographie, au début du XXe siècle, apporte la technologie nécessaire pour ce type d’observations qui consiste en la recherche systématique d’objets se déplaçant de manière détectable sur le fond étoilé. Découverte en 1930, Pluton se révéla immédiatement bien plus petite que les six à dix masses terrestres permettant d’expliquer les perturbations observées pour les orbites d’Uranus et de Neptune. Sa taille et sa masse estimées à sa découverte comme équivalentes à celles de la Terre n’ont, depuis près d’un siècle, cessé de diminuer. Après quelques décennies de recherches infructueuses pour trouver une planète plus massive que Pluton, et afin d’expliquer les perturbations observées pour les orbites d’Uranus et de Neptune, Gerard Kuiper suggère l’existence d’une ceinture d’astéroïdes s’étendant au-delà de l’orbite de Neptune et sur une distance de plusieurs dizaines de fois la distance Terre-Soleil. Cette ceinture serait composée de plusieurs dizaines de milliers d’objets plus petits que Pluton, non détectables avec les instruments disponibles, mais dont l’effet gravitationnel cumulé serait équivalant aux six à dix masses terrestres nécessaires pour expliquer les perturbations détectées sur les orbites d’Uranus et de Neptune. Cette hypothèse, émise aux alentours de la Seconde Guerre mondiale, ne se trouva vérifiée qu’à partir des années 1990 avec la détection de plusieurs objets dits transneptuniens dont Éris, la déesse de la discorde, qui vint jeter le trouble sur le statut de Pluton comme neuvième planète du système solaire. Détectée en 2002, Éris appartient également à la ceinture de Kuiper. Elle a une masse, et surtout une taille, initialement estimée comme légèrement supérieure à celle de Pluton. La question se posa alors de savoir si Éris devait être considérée comme la dixième planète du système solaire.
Figure 3. Pluton survolée par la sonde New Horizons en 2017 (© NASA).
La question s’était déjà posée au XIXe siècle où la définition d’une planète devint un sujet de débat durant plusieurs décennies. Alors qu’Uranus venait d’être détectée et que celle de Neptune était à venir, quatre objets furent observés entre les orbites de Mars et de Jupiter. Le premier et le plus gros de ces objets, Cérès, observé pour la première fois en 1801 par le prêtre catholique Giuseppe Piazzi, gagna, avec son rayon initialement estimé entre 250 et 2 500 kilomètres, le statut de planète. Dans les années qui suivirent, trois autres objets plus petits mais de taille comparable furent détectés dans la même région entre Mars et Jupiter, Pallas, Juno et Vesta.
À partir de 1810, ces quatre objets sont catalogués comme des planètes, bien que plus petites que celles recensées alors. Elles maintiennent ce statut jusqu’à la découverte d’un cinquième objet en 1848, Astraea. Les découvertes de petits objets au-delà de l’orbite de Mars se déroulent alors de manière suffisamment continue à partir de cette date pour que ces quatre objets ne soient plus considérés comme des planètes indépendantes mais comme appartenant à une collection d’objets se situant entre l’orbite de Mars et celle de Jupiter. La désignation d’astéroïde, initialement introduite par William Herschel au début du XIXe siècle, alors qu’il était en pleine gloire à la suite de la découverte d’Uranus, fut remise au goût du jour. On parla, à partir de ce moment, de ceinture d’astéroïdes, et Cérès, Pallas, Juno et Vesta perdirent leur prestige, passant du statut de planète à celui d’astéroïde. Ces quatre astéroïdes, qui ont une taille de l’ordre de quelques centaines de kilomètres, restent les plus gros objets détectés dans la ceinture d’astéroïdes. Profitant de l’amélioration des moyens d’observation et de détection, le nombre d’objets recensés n’a cessé de croître depuis le e XIX siècle. On estime qu’il existe entre l’orbite de Mars et celle de Jupiter près de 2 millions d’astéroïdes dont la masse est supérieure à 1 kilomètre, et dont celle de plus de 200 d’entre eux est supérieure à 100 kilomètres. Les astéroïdes sont particulièrement étudiés ces dernières décennies, car certains ont quitté ou peuvent quitter la ceinture d’astéroïdes, par collision ou effet gravitationnel créés par le ballet des planètes, pour prendre une orbite qui croise celle de la Terre. Ces astéroïdes, fichés S, prennent alors le nom de géocroiseurs, et sont l’objet d’un suivi tout particulier, notamment dans la presse Internet qui annonce régulièrement le passage à proximité de l’un de ces croiseurs. Le danger n’est pas pressant, malgré les diverses déclarations dans ce sens, mais tout de même bien réel. On pense que l’impact d’un objet d’une taille de 10 à 15 kilomètres a causé l’extinction des dinosaures, il y a 65 millions d’années, et fait baisser la température moyenne de la Terre d’une dizaine de degrés pendant plusieurs centaines d’années. Il est en revanche bon de rappeler que cela reste tout de même une hypothèse qui pourrait être assez facilement remise en cause. Ce n’est donc pas la démonstration en soi de l’occurrence d’un tel événement. Le meteor crater en Arizona ou l’entrée en 2013 dans le ciel russe d’un objet d’une taille estimée à seulement 20 mètres sont de meilleurs exemples pour nous rappeler que ce danger ne doit pas non plus être sous-estimé. Arrivé sans être annoncé, car trop peu lumineux pour être détecté, ce dernier événement, filmé par plusieurs témoins et ayant blessé près de mille personnes, plaide pour une meilleure surveillance et un suivi plus systématique des objets de petite taille dans notre voisinage proche. Une journée mondiale des astéroïdes, fixée au 30 juin, a été décrétée par l’ONU en 2015 pour alerter sur ce risque et le soutenir. Bien qu’il ne faille pas tomber dans une vision anxiogène, il n’en reste pas moins que celui-ci doit être un peu mieux quantifié. Cela montre également que nous prenons maintenant conscience de l’existence d’un système solaire peuplé non seulement de planètes, mais aussi d’un grand nombre d’objets plus petits, souvent indétectables depuis la Terre. La ceinture d’astéroïdes et la ceinture de Kuiper
sont deux exemples d’objets nouveaux du système solaire, désormais observés de manière plus systématique car ils jouent un rôle important dans notre compréhension de l’architecture comme de l’histoire du système solaire. C’est dans ce contexte, et en cherchant aussi à découvrir ce qui peuple le système solaire lointain, qu’Éris a été détectée en 2005, à l’aide de l’optique adaptative. Cette technique permet de corriger les fluctuations dues à l’atmosphère terrestre et d’obtenir des images qui rivalisent avec les observations faites depuis l’espace grâce au télescope Hubble. Avec cette nouvelle technique, plusieurs objets massifs d’un rayon de l’ordre de 1 000 kilomètres ont ainsi été détectés depuis une dizaine d’années. De taille initialement estimée légèrement supérieure à Pluton, Éris, comme Cérès un siècle plus tôt, relança le débat sur la définition d’une planète. Éris a même été annoncée par ses découvreurs comme la dixième planète du système solaire, montrant, si besoin était, que la fièvre de découvrir une dixième planète dans le système solaire n’est pas retombée depuis Herschel, le découvreur d’Uranus. Comme celle de Pluton, l’orbite d’Éris présente une forte excentricité qui l’amène largement au-delà de ce qui est défini comme la ceinture de Kuiper. À son aphélie, c’est-à-dire le point le plus éloigné du Soleil, on calcule qu’Éris se trouve à presque 100 fois la distance Terre-Soleil. Devant ce nouvel arrivant, l’Union astronomique internationale a, une nouvelle fois, redéfini ce qu’est une planète, en excluant les objets présents dans les disques ou ceintures d’astéroïdes. Cette organisation, en charge de la nomenclature des objets astronomiques, a, de plus, introduit une nouvelle catégorie, celle des planètes naines, ces objets trop massifs pour être des astéroïdes et trop petits pour être des planètes. Notre système solaire est donc actuellement constitué de huit planètes et de cinq planètes naines dont Éris, Pluton, Cérès, Haumea et Makémaké. Une demi-douzaine d’objets massifs audelà de l’orbite de Neptune, et appartenant à la ceinture de Kuiper, ont un rayon proche de 1 000 kilomètres et sont en attente de promotion au statut de planète naine. L’annonce du déclassement de Pluton en tant que planète a retenti dans les médias comme la perte d’un objet du système solaire, mais il faut réaliser qu’il s’agit en réalité de la découverte de plusieurs objets remarquables additionnels ayant, à l’image d’Éris, au moins un satellite naturel en orbite. Cérès a de plus gagné au change en retrouvant, au moins partiellement, sa gloire planétaire d’antan, passant du statut d’astéroïde à celui de planète naine. Le débat n’est d’ailleurs pas clos. En 2008, la même Union internationale d’astronomie a introduit la notion de plutoïde pour distinguer parmi les planètes naines Éris et Pluton. Il ne s’agit bien sûr que d’une question de définition. Le point à retenir reste qu’il y a un continuum d’objets entre les astéroïdes de quelques mètres et les planètes de plusieurs dizaines de milliers de kilomètres. Les planètes naines et les astéroïdes ne sont pas les seuls objets supplémentaires que nous ayons trouvés au système solaire. Poussé par les mêmes progrès observationnels, le nombre de satellites naturels a également explosé ces dernières années, ajoutant ainsi une nouvelle gradation dans la classification par taille des objets du système solaire. Alors que l’astronomie moderne fut lancée par la découverte des quatre plus gros satellites naturels de Jupiter, on en recense actuellement près de 90 autour de
cette planète. Les moyens de détection permettant maintenant de détecter des objets de plus faible luminosité, nous découvrons à un rythme effréné des objets en orbite non pas autour du Soleil mais autour des planètes externes. Plus de 600 sont répertoriés à ce jour. Deux de ces satellites, Ganymède autour de Jupiter et Titan, autour de Saturne, sont d’ailleurs plus gros que la plus petite des planètes du système solaire, Mercure, et à peine plus petits que la deuxième plus petite, Mars. Pour illustrer, une fois de plus, le problème de classification posé par Pluton et les planètes naines, notons également que la Lune, notre satellite naturel préféré, est elle-même plus grosse que Pluton et Éris. Le nombre de satellites naturels autour des planètes du système solaire va en nombre croissant alors que nous nous éloignons du Soleil et que la taille des planètes augmente. Jupiter et Saturne ont ainsi un nombre de satellites beaucoup plus important que les planètes internes du système solaire, qui n’en possèdent que trois au total. Alors que nous pouvons facilement imaginer que les planètes les plus massives ont tendance à agréger un nombre plus important d’objets de taille intermédiaire durant l’évolution du système solaire, cette meilleure statistique sur la distribution des satellites naturels nous permet de faire ressortir quelques cas particuliers. Le rapport de masse entre Pluton et Charon, sa plus grosse lune, nous fait apparaître ce système comme une planète double, Charon étant probablement un astéroïde de la ceinture de Kuiper capté par cette dernière. Un autre cas, peut-être plus important pour ce qui concerne les conditions d’apparition de la vie, est celui de la Terre et de la Lune sur lequel nous reviendrons dans les prochains chapitres. Le système Terre-Lune est, en effet, un cas particulier dans le système solaire. La Lune est le quatrième plus gros satellite du système solaire en orbite autour d’une planète tellurique du système interne ne présentant que peu de satellites. Mercure et Venus n’ont pas de satellite naturel, alors que Mars possède deux satellites, Phobos et Demos, qui restent très petits puisque leurs diamètres sont inférieurs à 50 kilomètres. Cette nouvelle compréhension de la nature des satellites naturels dans le système solaire fait donc apparaître le système Terre-Lune comme un système planétaire double en dehors de la norme observée dans le système solaire. Ces satellites, en nombre désormais supérieur à 600, illustrent également, de manière assez saisissante, la diversité d’environnements pouvant exister au sein d’un système planétaire. Ils laissent entrevoir l’univers des possibles en ce qui concerne les environnements planétaires et ceux que l’on cherche à imaginer lorsque l’on s’interroge sur les conditions pouvant exister sur les exoplanètes. Les plus gros d’entre eux possèdent une atmosphère, tandis que plusieurs disposent d’une quantité d’eau suffisamment importante pour héberger potentiellement un cycle biologique. Ils permettent donc tout autant de comprendre comment évolue un environnement planétaire complet, comportant une atmosphère en interaction avec une activité de surface significative, comme c’est le cas de la Terre, que de pousser notre imagination au-delà de notre environnement terrestre familier.
La diversité des environnements que l’on découvre pour les satellites naturels des planètes du système solaire démontre également qu’au-delà de l’architecture d’un système planétaire et de la forte corrélation entre la distance à l’étoile hôte et les conditions qui existent à sa surface un degré de liberté supplémentaire réside dans les conditions que l’on trouve à la surface des satellites naturels associés. Alors que la Terre est clairement dans la zone habitable du système solaire, la Lune n’est pas et ne saurait être habitable. Inversement, alors que Saturne et Jupiter sont bien au-delà de la zone habitable du système solaire, Encelade, l’un des satellites naturels de Saturne, Ganymède, Gallisteo et Europa, trois des quatre satellites de Jupiter, sont actuellement des cibles de choix pour la recherche de conditions qui pourraient être viables pour l’émergence d’une activité biologique. Ce sont donc des systèmes que nous devons explorer pour ce qui concerne notre recherche de la vie dans l’Univers. Ces dernières décennies d’observations nous montrent que le système solaire est bien plus encombré et moins idéal que ne l’avaient imaginé nos ancêtres grecs. Au-delà du nombre impressionnant d’objets de taille intermédiaire, au sein des ceintures d’astéroïdes, ou en orbite autour des planètes externes, il apparaît comme un système dynamique ressemblant davantage à un ball-trap planétaire qu’à la belle horloge immuable imaginée par les scientifiques du e XIX siècle. Le système solaire commence à nous apparaître comme un assemblage un peu confus d’objets de tailles diverses, arrangés par les circonstances bien plus que de manière géométrique et raisonnée. Notre connaissance actuelle nous laisse entrevoir un système en travaux et qui semble inachevé. Pour finir notre tour de la zoologie des objets peuplant le système solaire, tournons-nous maintenant vers deux objets astronomiques qui alimentent nos rêves et nos fantasmes depuis que l’homme regarde le ciel, les étoiles filantes et les comètes. Ces deux phénomènes, pourtant bien connus, viennent ajouter de nouveaux éléments permettant d’appréhender le caractère instable et inachevé de ce qui nous entoure.
Aux confins du système solaire, des objets encore plus petits, et peut-être une neuvième planète ? Les étoiles filantes et les comètes restent deux phénomènes visibles par tous et qui attisent notre imagination depuis toujours. Les étoiles filantes, appelées scientifiquement météorides, sont de petits objets solides qui deviennent incandescents lorsqu’ils entrent dans l’atmosphère à très haute vitesse. Lorsque la combustion n’est pas complète, ils atteignent la surface terrestre et prennent le nom de météorites. Ils se transforment en astéroïdes lorsque leur diamètre atteint la dizaine de mètres. Comme vous l’avez maintenant compris, il s’agit simplement d’une question
de définition. La séparation entre astéroïde et météoride est arbitraire et, pour ce qui nous concerne, avant tout une question d’impact sur notre environnement. Les météorites sont donc des météorides qui croisent l’orbite terrestre. Ils proviennent pour la plupart de la ceinture d’astéroïdes et sont le produit de collisions entre les astéroïdes. Une petite fraction – moins de 1 % – est identifiée comme provenant de la Lune, de Mars ou du système solaire externe, voire des résidus de comètes. Les météorites, retrouvées sur le sol terrestre depuis des millénaires, ont depuis toujours exercé une fascination en raison à la fois de leur origine mystérieuse et de leur apparence distinctive. Les plus anciennes civilisations en ont fait des objets de pouvoir ou de culte. Leur origine a fait l’objet des spéculations les plus farfelues jusqu’au XIXe siècle où l’on a enfin admis leur nature extraterrestre. Au-delà de leur entrée spectaculaire dans notre atmosphère, que l’on peut observer au hasard d’une nuit ou durant l’un des moments d’activité intense comme durant les perséides chaque année vers la mi-août, c’est leur nature originelle qui se trouve être le plus intéressante. Les météorites sont en fait des objets primitifs du système solaire qui nous donnent une mesure assez précise des matériaux présents lors de la formation des planètes. On peut, à partir de leurs constituants isotopiques, leur donner un âge avoisinant les 4,5 milliards d’années, remontant ainsi aux tout premiers instants du système solaire. Les météorites sont donc les objets les plus anciens que vous pouvez trouver sur la surface de la Terre. Les météorites viennent pour un grand nombre de la ceinture d’astéroïdes. Grâce aux méthodes de caractérisation isotopique de plus en plus précises, leur étude permet aussi d’explorer divers objets du système solaire en attendant la mise en place de missions spatiales très coûteuses. Parmi les objets notables, qui se distinguent de par leur composition des milliers d’autres objets collectés et analysés, on identifie des météorites provenant vraisemblablement de la Lune et de Mars. Pour le cas de la Lune, l’identification est plus simple, car les échantillons ramenés par les missions Apollo permettent de valider cette hypothèse. Il existe, à ce jour, environ une centaine d’objets répertoriés comme ayant une origine lunaire et provenant vraisemblablement de l’éjection de matière à la suite d’un impact d’astéroïde. Le cas des météorites d’origine martienne est plus indirect car il ne se base actuellement que sur notre connaissance partielle du sol de cette planète. En l’absence de retour d’échantillon, ces météorites constituent à l’heure actuelle notre meilleur terrain d’études du sol martien. Les météorites renferment aussi des surprises de taille. Une petite fraction de celles que l’on trouve sur Terre, environ 5 %, appartient à la catégorie des chondrites carbonées. Comme leur nom l’indique, elles contiennent une quantité importante de carbone mais aussi d’eau et d’éléments volatils dans lesquels peuvent se trouver des molécules plus complexes. La présence de molécules complexes et organiques a été mise en évidence pour certaines d’entre elles, comme la météorite d’Orgueil repérée lors de sa chute dans le sud de la France au XIXe siècle, et celle de Murchison trouvée en Australie en 1969. Ces deux messagers du ciel sont parmi les météorites les plus étudiées car elles renferment des acides aminés et une richesse moléculaire
organique troublante. Elles sont aussi l’objet de vives controverses concernant l’origine de cette matière organique, bien qu’il soit maintenant admis que celle-ci est d’origine abiotique, c’est-àdire uniquement chimique et sans activité biologique associée. L’analyse des météorites est en plein essor et plusieurs programmes sont actuellement développés pour repérer ces objets au moment où ils entrent dans l’atmosphère afin de les collecter au sol avant qu’ils ne soient trop contaminés. On peut s’attendre à des surprises de la part de ces cadeaux tombés du ciel, qui nous donnent une vision nouvelle de la complexité moléculaire existant dans le milieu interstellaire. Avec, en moyenne, 100 tonnes de matériaux rencontrant la trajectoire de la Terre chaque jour, de nombreuses découvertes restent sûrement à venir grâce aux moyens d’analyse isotopique de plus en plus performants. Cette exploration, peut-être moins spectaculaire et moins glamour mais tout aussi pertinente que les grands programmes d’observation, devra être suivie de près pour reconstituer l’histoire du système solaire. D’autres témoins de cette histoire, longtemps demeurés tout aussi mystérieux que les météorites, ont également agité notre imagination depuis toujours. Les comètes, élevées pour certaines d'entre elles au rang de grandes comètes parce que visibles à l’œil nu, parsèment les documents historiques depuis les temps les plus anciens. Longtemps perçus comme des phénomènes atmosphériques, ces objets de quelques kilomètres de diamètre parcourent probablement les plus grandes distances dans le système solaire, avec des périodes de révolution s’étendant sur plusieurs milliers d’années. L’identification de la comète de Halley et la prédiction de son passage à la fin du XVIIIe siècle furent l’une des grandes réalisations de la mécanique newtonienne. Il s’agit alors du premier objet identifié comme n’étant pas une planète et orbitant le Soleil. La comète de Halley passe à un intervalle de soixante-quatorze ans et tourne autour du Soleil de matière rétrograde, c’est-à-dire à l’inverse du sens des planètes. On retrouve des indications de son observation datant de presque deux mille ans. La comète de Halley appartient à la famille des comètes à courtes périodes – c’est-à-dire inférieure à deux cents ans – laquelle compte environ 600 individus répertoriés. Elles ont pour origine la ceinture de Kuiper et ont pour la plupart été piégées dans le système solaire interne par l’influence de Jupiter, la plus grosse des planètes du système solaire. Elles ressemblent donc aux astéroïdes pour ce qui est de leur taille et se caractérisent par une activité de dégazage spectaculaire lorsque leur orbite approche le Soleil. Il est alors possible d’apercevoir une chevelure magnifique s’étalant sur une région importante du ciel et clairement visible à l’œil nu. La dernière grande comète, Hale-Bopp, est passée près de la Terre en 1997. Plus de 70 % des habitants de l’hémisphère Nord ont pu constater, durant plusieurs semaines, que des objets étaient en rotation autour du Soleil. L’activité de dégazage se réduisant et s’arrêtant lorsque les comètes s’éloignent du Soleil, elles deviennent alors invisibles pendant de longues périodes. Pour la même raison, les comètes de longue période ne sont détectées que lorsqu’elles entrent dans le système solaire interne et quelques mois avant leur passage près du Soleil.
Hale-Bopp est une comète de longue période, estimée après son dernier passage à 2 533 ans. Elle va donc repartir pour plus de mille ans pour atteindre une distance de 370 fois la distance de la Terre au Soleil et faire demi-tour pour revenir une nouvelle fois près de la Terre en 4385. Comme d’autres comètes de longue période, elle va donc dépasser le système solaire connu, bien au-delà de la ceinture de Kuiper estimée s’étendre jusqu’à 50 fois la distance de la Terre au Soleil. Contrairement aux comètes à courtes périodes, qui restent presque dans le même plan que les planètes, c’est-à-dire le plan de l’écliptique, les comètes à longues périodes ont des orbites qui viennent de toutes les directions du système solaire. Ainsi Hale-Bopp a-t-elle, par exemple, une orbite qui est perpendiculaire au plan de l’écliptique. Cette dichotomie entre comètes à courte et longue période suggère qu’il existe, au-delà de la ceinture de Kuiper, un réservoir d’astéroïdes ayant une forte concentration d’eau et de glace, comme le montrent les comètes approchant le système solaire interne. Déstabilisés par les marées gravitationnelles causées par les étoiles voisines, ces astéroïdes, composés d’une large fraction de glaces, deviendraient alors les comètes à longue période que nous venons d’évoquer. Cette hypothèse crédible, émise pour la première fois vers le milieu du XXe siècle par le Danois Jan Oort et l’Estonien Ernst Öpik, avance que le système solaire externe serait composé d’une ceinture d’astéroïdes externes, dans le plan de l’écliptique distribué suivant un tore s’étendant de 2 000 à 20 000 fois la distance de la Terre au Soleil. Il serait ensuite entouré d’une sphère s’étendant de 20 000 à presque 100 000 fois la distance de la Terre au Soleil et contenant des centaines de millions, voire des milliards d’objets de quelques kilomètres de diamètre. Nous sommes aux confins du système solaire, à une distance où l’influence gravitationnelle du Soleil se fait très peu sentir. Les objets s’y trouvant sont donc très faiblement liés gravitationnellement au Soleil et, bien sûr, d’une luminosité trop faible pour être détectés. Le nuage de Oort est donc hypothétique à ce stade, et, bien qu’aucune donnée observationnelle directe n’existe, plusieurs évidences indirectes viennent corroborer ce scénario. Le nombre de comètes de longue durée maintenant détectées, ainsi que leurs trajectoires cumulées continuent de confirmer une densité importante d’objets provenant de cette région du système solaire. Les comètes sont, de plus, des objets fragiles dont la durée de vie est largement inférieure à celle du système solaire. Elles perdent une quantité importante de matière lorsqu’elles passent près du Soleil et sont fortement perturbées par l’attraction gravitationnelle de Jupiter lorsqu’elles passent dans le système interne. Ces éléments suggèrent qu’un réservoir continue d’alimenter le système interne en comètes. Le nuage de Oort est donc à ce jour l’hypothèse la plus raisonnable en fonction des données à notre disposition. Le système solaire s’est donc fortement complexifié et étendu depuis l’époque de la Renaissance et la première observation des satellites de Jupiter par Galilée. Il s’étend maintenant à presque une année-lumière et contient des milliards d’objets couvrant plusieurs ordres de grandeurs en taille, allant de la poussière de quelques grammes, qui produit une étoile filante, à Jupiter, plus de 300 fois la masse de la Terre. Nous découvrons de plus en plus d’objets aux
confins du système solaire, dans le nuage de Kuiper et bien au-delà de l’orbite de Pluton et cette exploration ne fait que démarrer. Elle nous réserve sans aucun doute de nombreuses surprises destinées à remettre en cause la vision que nous en avons actuellement. Une de ces surprises se produit peut-être même en ce moment. L’étude des orbites particulières des objets transneptuniens récemment découverts et appartenant à la ceinture de Kuiper nous conduit en effet à faire l’hypothèse de l’existence d’une neuvième planète. De 10 fois la masse de la Terre, cette planète hypothétique se déplacerait sur une orbite très excentrique, s’allongeant jusqu’à 1 200 fois la distance Terre-Soleil et s’approchant à 200 fois la distance Terre-Soleil. La confirmation de l’existence d’un objet d’une telle masse, au-delà de la ceinture de Kuiper, modifierait de manière radicale la perception que nous avons du système solaire. L’enjeu est donc de taille et plusieurs équipes travaillent d’arrache-pied depuis 2016 pour confirmer l’existence de ce nouvel ovni planétaire qui viendrait une nouvelle fois réécrire les scénarios de formation du système solaire.
CHAPITRE 3
L’âge d’or de la conquête spatiale ou l’invasion du système solaire
Près de deux cents sondes depuis 1960 De Neil Armstrong, qui fit le premier pas sur la Lune, à Elon Musk, patron de SpaceX, qui envoya tout récemment en orbite sa décapotable Tesla diffusant sur Internet Space Oddity, ce sont maintenant soixante ans de conquête spatiale que nous contemplons. Alors que l’entrepreneur américain secoue enfin une industrie quelque peu endormie et paralysée par un carcan administratif parfois trop rigide, il faut aussi prendre conscience du chemin parcouru et, plus encore, de celui qui nous reste à effectuer. Comme Galilée a révolutionné notre cosmologie avec sa lunette au XVIIe siècle, les quelque deux cents sondes envoyées depuis la fin des années 1950 ont tout autant transformé notre perception de l’Univers proche, changeant de manière radicale la conscience collective. Qui d’ailleurs n’a pas à l’esprit s’agissant de notre Terre, en ce début du XXIe siècle, cette incroyable image d’une sphère bleutée, suspendue dans le vide, et perdue dans l’obscurité interplanétaire ? Qu’il s’agisse des images prises de la Station internationale ou des missions Apollo nous révélant des clairs de Terre depuis la Lune, la conquête spatiale nous a tout d’abord fait prendre conscience de la nature fragile et éphémère d’un monde suspendu dans le vide, susceptible à tout moment de disparaître de manière discrète dans l’histoire de l’Univers. Elle nous a aussi permis d’effectuer le plus incroyable des voyages, à destination de cette sphère
argentée qui éclaire nos nuits depuis que l’homme est l’homme et qu’il contemple le ciel en s’interrogeant les yeux levés vers lui. Contrairement à Ulysse et à d’autres marins après lui qui parcoururent et parcourent l’immensité des océans imaginée seulement par ceux qui sont restés à terre, la Lune représente la destination ultime, celle que tout le monde peut pointer du doigt, celle que l’humanité a rêvé d’atteindre pendant des millénaires. Le franchissement de cette seconde lumière constitue sans nul doute un grand pas pour l’humanité. Ce que l’on sait un peu moins, c’est que la conquête de la Lune s’est accompagnée d’une flottille de sondes diverses et variées, envoyées dans toutes les directions du système solaire, et bien au-delà de la Lune, même si moins de la moitié d’entre elles ont permis un retour scientifique. Les vingt premières années de la conquête spatiale ont donné lieu aux expérimentations les plus folles. Au cœur de la guerre froide, alors qu’on tâtonnait de manière empirique pour maîtriser ce nouvel outil technologique, il y eut en réalité plus de roquettes disponibles que d’idées technologiquement viables à exploiter. Dans la lancée de la conquête des airs du début du e XX siècle et au sortir de la Seconde Guerre mondiale, la technologie de propulsion avionique permet d’envisager d’aller toujours plus haut, au-delà de l’atmosphère terrestre, et de s’échapper de l’attraction terrestre qui nous ramène invariablement sur Terre. En parallèle de l’aventure humaine dans l’espace, la volonté d’une exploration robotique s’est rapidement imposée comme la voie la plus pragmatique pour fouler le sol des mondes qui nous entourent – sans avoir à y poser notre propre pied… Alors que l’épopée des voyages habités dans l’espace comporte une contrainte très lourde mais impérieuse liée à la nécessité de ramener les acteurs en fin d’aventure, l’exploration robotique est affranchie de cet obstacle moral incontournable et peut ainsi se concentrer uniquement sur l’obstacle technologique à surmonter pour dépasser la distance qui nous sépare de la Lune et atteindre les autres planètes du système solaire. Celui-ci est de taille. Pour saisir la difficulté, il suffit de comprendre qu’une fois la sonde libérée de l’attraction terrestre, lancée à des vitesses prodigieuses qui dépassent notre expérience quotidienne, il faut une énergie assez importante pour corriger sa trajectoire, contrer l’attraction gravitationnelle des planètes et des corps du système solaire, atterrir sur une autre planète, se libérer de son attraction et redécoller. L’expérience est assez similaire à celle que tous les marins ont eu à affronter, à savoir faire entrer un bateau de plusieurs mètres dans une place de port plus étroite qu’une place de seconde dans un TGV avec un vent soutenu, soufflant en rafales. Il n’y a pas de freins comme dans une voiture et tout changement de vitesse ou de trajectoire se gère avec des accélérations suivant des directions diverses. Contrairement aussi à la voiture qui tend à s’arrêter lorsque vous lâchez l’accélérateur en raison de la friction de la route et aux freins qui ajoutent une autre source de frottement et de ralentissement, un bateau continue à avancer et à dériver au gré du vent et des courants si vous n’avez plus assez d’énergie pour maintenir votre trajectoire. De manière similaire, comme il n’y a aucun frottement dès que l’on sort de l’atmosphère terrestre, une sonde lancée depuis le sol part donc à une vitesse qui est celle de la Terre – en mouvement rapide sur son orbite – à laquelle s’ajoute la vitesse nécessaire au
lancement, pour échapper à l’attraction gravitationnelle. Quand elle quitte l’atmosphère, la sonde continue donc à suivre sa trajectoire avec une vitesse quasi constante (aucune résistance due au frottement) et seulement modifiée par l’attraction gravitationnelle des objets qu’elle rencontre sur son chemin. Une des difficultés de l’exploration spatiale réside dans le fait que toute l’énergie nécessaire pour modifier la trajectoire au cours de la durée de vie de la sonde devra être emportée à bord au moment du départ. Il faut donc arriver à un compromis entre la puissance du lanceur et la masse de l’équipement embarqué à laquelle vient s’ajouter le carburant nécessaire pour les corrections de trajectoire ou pour permettre à la sonde de se poser et même, le cas échéant, de redécoller. Alors que nous gardons tous en mémoire les spectaculaires mises en orbite de la chienne Laïka en 1958, et celle de Youri Gagarine en 1961, c’est, de mon point de vue, le succès des missions russes Luna 1, 2 et 3 qui sonne le départ de la conquête spatiale. Entre janvier et octobre 1959, l’Union soviétique envoya la première sonde Luna 1 dans le voisinage de la Lune et en orbite héliocentrique ; elle atteignit sa surface avec la deuxième, Luna 2, et assouvit l’une de nos plus grandes frustrations en photographiant enfin la face cachée de celle-ci grâce à Luna 3. Cette série de missions constitue une étape décisive dans la conquête spatiale du système solaire car elle démontra la maîtrise des trois aspects indispensables : le lanceur, le contrôle de la trajectoire et l’atterrissage – dans une moindre mesure, l’atterrissage de Luna 2 était en effet des plus rudimentaires. Tout en restant une prouesse technologique lorsque l’on considère que la sonde était lancée à une vitesse de plusieurs mètres par seconde et sans atmosphère pour la ralentir pendant sa chute, cette première arrivée sur la Lune ne fut qu’une chute contrôlée. La technologie nécessaire pour se poser en douceur ne sera maîtrisée que quelques années plus tard. En pleine guerre froide, alors que la conquête spatiale n’est qu’un dérivé des programmes militaires des deux grandes puissances occupées à développer des missiles intercontinentaux, le succès des missions soviétiques force l’ambition spatiale américaine. Avec près de vingtcinq lancements en moins de deux ans et peu de résultats en dépit de la création en 1958 de la NASA par l’administration Johnson, l’Amérique sort des années 1950 avec un énorme retard. La situation est telle que l’administration Kennedy se lance d’emblée dans la conquête de la Lune avec l’espoir secret que cet objectif, suffisamment éloigné, permettra au programme américain de rattraper son compétiteur russe. Ce coup de bluff, résumé dans un mémo, devenu célèbre, de Wernher von Braun à l’administration Kennedy en avril 1961, compare, de manière très lucide l’état d’avancement des programmes américain et soviétique. Il anticipe de manière saisissante les dix années qui suivirent, avec une analyse portée sur la capacité de développement des lanceurs disponibles. Comme l’avait imaginé von Braun, les Soviétiques effectuent, grâce à la puissance de leurs propulseurs, le premier survol de Mars en 1962, le premier atterrissage en douceur sur la Lune en 1966 et posent, la même année, la première sonde sur Vénus. Dès 1961, Wernher von Braun estime qu’il faut un lanceur 10 fois plus puissant pour une mission habitée vers la Lune, c’est-à-dire pour lancer hors de l’attraction terrestre capsule, carburant et
équipement de survie pour l’équipage, ce qui pèsera au final près de 28 tonnes. À titre de comparaison, les sondes Luna 1 et 2 pesaient aux alentours de 300 kilos, tandis que Venera 1, la première sonde soviétique envoyée vers Vénus à la même époque, 643 kilos. Cette analyse replace dans son contexte l’affirmation de Kennedy durant son discours de Rice, lorsque celui-ci justifie le choix de s’engager dans le développement d’une mission habitée vers la Lune en disant : « Nous choisissons la Lune parce que l’objectif est difficile. » Il faudrait ajouter « et encore hors de portée des lanceurs soviétiques pour les dix années à venir ». La NASA va bénéficier d’un budget approchant les 500 milliards de dollars (corrigés pour l’inflation) cumulés sur une dizaine d’années, dont les deux tiers alimentent directement le programme Apollo. C’est un poids financier colossal pour le pays, difficile à traduire en termes de dépenses courantes. À titre de comparaison, le budget de la NASA en 1962 représente l’équivalent du PIB de l’Italie et les deux tiers de celui de la France. Majoritairement concentré sur un seul objectif, il illustre de manière saisissante le bond technologique qu’il a fallu réaliser pour atteindre cette prouesse. Ce bond quantitatif a été rendu possible grâce à une forte implication des différents pans de l’industrie américaine. Il a concerné les aspects les plus divers, allant de la mise au point des systèmes de propulsion, de transmission, jusqu’aux moyens informatiques qui incluent le développement de circuits intégrés pour une industrie encore balbutiante au milieu des années 1960. Il est en fait aujourd’hui assez difficile d’estimer le coût direct de ce projet tant les ramifications ont été importantes, que ce soit sur le plan fédéral comme sur celui du privé. Les retombées des différentes percées technologiques sont tout aussi difficiles à quantifier. Sans chercher à les énumérer, celle qui laisse le plus rêveur concerne la révolution informatique qui suivra dans les années 1970 et 1980. Certains aiment ainsi à spéculer que celle-ci est une retombée directe du programme Apollo qui utilisait, il est vrai, près de la moitié des circuits imprimés produits aux États-Unis dans le milieu des années 1960. Je laisse aux historiens des sciences la vérification de cette affirmation, mais il n’en reste pas moins vrai que la miniaturisation de plusieurs fonctions vitales de la capsule Apollo, comme celle de son ordinateur de bord, de ces moyens de navigation et de transmission, sont des avancées technologiques majeures, orientées vers la miniaturisation des composants électroniques, que les programmes civils ou militaires soviétiques ne semblent pas avoir intégré dans les deux décennies qui suivirent. Au-delà de ces spéculations sur les retombées certaines, pour la société civile d’un programme d’une telle ampleur financière, le budget alloué à la NASA durant la décennie 19621972 permit non seulement de poser plusieurs équipages sur la Lune, mais également de disposer de lanceurs suffisamment puissants ainsi que de la technologie permettant d’explorer le système solaire. Il remit de manière incontestée les États-Unis en phase avec leurs ambitions spatiales. La montée en puissance est spectaculaire. Avec la série de sondes Mariner, le premier survol de Vénus est effectué en 1962 par Mariner 2, celui de Mars en 1965 par la sonde Mariner 4. Ces deux missions rapportent les premières images des deux planètes voisines du système solaire.
Bien que ces sondes fussent équipées d’autres instruments, elles ont principalement fourni des informations concernant la composition et la température de l’atmosphère de Vénus et de Mars, difficiles à caractériser depuis la Terre. Mariner 2 révéla aussi la surface volcanique de Mars qui nous occupe encore aujourd’hui. Ces premières sondes étaient également équipées d’instruments permettant de caractériser le milieu interplanétaire dont on savait très peu de choses. L’atmosphère et le champ magnétique terrestre protègent la Terre des rayonnements divers, venant du Soleil et du reste de la galaxie. La densité de poussière et de débris non détectables depuis le sol, et pouvant exister dans le milieu interplanétaire, constituait une autre inconnue qui représentait potentiellement un péril pour une sonde ou un vol habité. Ces premières sorties hors de l’atmosphère avaient également pour objectif une meilleure compréhension de l’environnement proche de la Terre et celui nous séparant de ces deux planètes. Après le succès de la série de sondes Luna, les années 1960 furent moins prolifiques pour l’Union soviétique qui a mis le cap sur Vénus et Mars. Pas moins de vingt-sept sondes sont envoyées au total vers ces deux planètes durant la décennie. Alors que les États-Unis montent en puissance avec le programme Apollo et les survols réussis de Mars et de Vénus avec les sondes Mariner, équipées d’une caméra pour saisir de plus près ce qui n’était pas visible depuis la Terre, il faut attendre la fin de la décennie pour que l’Union soviétique renoue avec le succès. De 1967 à 1969, trois sondes Venera entrent dans l’atmosphère de Vénus et transmettent des données durant leur descente jusqu’à quelques kilomètres de la surface, révélant ainsi la composition profonde de l’épaisse atmosphère.
Figure 4. Trajectoires des quatre sondes interstellaires Voyager et Pioneer (adapté de Planetary Society C Y © Y. Gominet/IMCCE).
Dès le début des années 1970, les lanceurs et la technologie des sondes embarquées sont suffisamment mûrs pour plusieurs missions avec atterrissage en douceur sur Mars et Vénus. Alors que les missions soviétiques se cantonnent au système solaire interne, les États-Unis visent d’emblée l’exploration du système solaire externe, au-delà de la ceinture d’astéroïdes, jugée un moment infranchissable. Dix années après le mémo de von Braun, les États-Unis disposent de lanceurs puissants mais qui ne suffisent toujours pas pour atteindre seuls les confins du système solaire externe. La maîtrise de l’assistance gravitationnelle est l’éperon technologique indispensable pour franchir cette nouvelle frontière. Testée par l’Union soviétique avec le lanceur Luna 3 qui photographia la face cachée de la Lune, l’assistance gravitationnelle consiste à utiliser l’attraction gravitationnelle exercée par une planète pour accélérer, ralentir et modifier la trajectoire d’une sonde lancée à la vitesse de déplacement de la Terre à laquelle vient s’ajouter la vitesse nécessaire pour se libérer de son attraction.
L’exploration du système solaire externe est un véritable ballet interplanétaire dans lequel la technologie spatiale et la maîtrise de la trajectoire des sondes lancées viennent jouer avec la précision mathématique de la mécanique céleste qui prédit la position des planètes sur plusieurs années à quelques centaines de mètres ou kilomètres près. Testée par les États-Unis avec la sonde Pionner 10 dès le début des années 1970, la maîtrise de l’assistance gravitationnelle prend tout son essor avec les sondes Pioneer 10 et 11 et Voyageur 1 et 2, lancées toutes les quatre durant cette même décennie. Ces quatre sondes, qui nous ont permis de découvrir les sillons des anneaux de Saturne, l’atmosphère turbulente de Jupiter, les premières images résolues d’Uranus et de Neptune n’auraient pas réussi cet exploit sans le mariage subtil de la mécanique céleste et de l’ingénierie, permettant ainsi d’effectuer les accélérations et changements de trajectoire nécessaires avec très peu de carburant. La trajectoire de Voyageur 2 est la plus spectaculaire. Profitant d’un alignement optimal des quatre planètes externes, Voyageur 2 est lancée à la bonne vitesse et durant une fenêtre de lancement lui permettant de profiter de la vitesse de rotation de la Terre autour du Soleil pour atteindre Jupiter deux ans plus tard, avec la vitesse adéquate pour accélérer et changer de direction de manière à se retrouver sur la trajectoire de Saturne dix-huit mois plus tard. Le ballet continue durant le survol de Saturne où la sonde accélère et change, une nouvelle fois, de trajectoire sous l’influence de l’attraction gravitationnelle de Saturne pour se retrouver quatre ans et demi plus tard sur celle d’Uranus. Ce dernier rendez-vous lui donne alors une nouvelle impulsion pour se retrouver sur la route de Neptune trois ans et demi plus tard. Il faut se représenter la trajectoire de Voyageur 2 comme un coup de billard où la boule blanche que vous tirez touche quatre boules rouges en mouvement rapide. L’alignement des planètes permettant cet incroyable ballet ne se produit, en revanche, que tous les cent soixante-seize ans. L’assistance gravitationnelle est maintenant partie prenante de toutes les missions, qu’elles soient en direction du système interne ou externe, ou à destination des corps plus petits du système solaire comme les astéroïdes et les comètes qui ont également vu, ces dernières années, leur lot de missions. La puissance des lanceurs, combinée à la maîtrise de l’assistance gravitationnelle actuelle, ne permet pas, par contre, d’envisager l’envoi de sonde vers d’autres systèmes planétaires. À l’heure actuelle, seulement huit sondes ont été envoyées vers le système solaire externe, toutes américaines, et seulement cinq sont actuellement sorties ou sont en train d’en sortir. La dernière en date, New Horizons, lancée en 2006, est l’objet le plus rapide lancé depuis la Terre. Avec l’assistance gravitationnelle de Jupiter, la sonde New Horizons a mis neuf années pour atteindre Pluton. Après un survol spectaculaire de celle-ci, elle se trouve actuellement à 45 fois la distance Terre-Soleil (c’est-à-dire 45 unités astronomiques) et traverse la ceinture de Kuiper pour caractériser les astéroïdes la constituant. Il ne s’agit pas de la sonde la plus rapide. Celle-ci demeure Voyager 1, lancée en 1977, et qui a bénéficié de l’assistance gravitationnelle de Jupiter et de Saturne. Elle ne sera pas rattrapée par New Horizons dont la vitesse va continuer à décroître en raison de l’attraction du Soleil, même faible à ces distances. Voyager 1 se trouve en ce moment avec sa sonde jumelle
Voyager 2, lancée seize jours plus tôt, à respectivement 140 et 120 fois la distance Terre-Soleil (140 et 120 u.a.). Après plus de quarante ans, la sonde la plus rapide envoyée par l’homme à ce jour vient juste de quitter le système solaire. Elle voyage depuis cinq ans dans l’espace interstellaire, c’est-à-dire dans la région de l’espace située au-delà de l’influence d’une étoile. Même si elle pointait dans cette direction, ce qui n’est pas le cas, elle serait encore bien loin d’atteindre l’étoile la plus proche, Proxima du Centaure, située à 4,37 années-lumière de la Terre. Voyager 1 se situe en ce moment à une distance d’environ 19 heures-lumière de la Terre, c’est-à-dire qu’en un peu plus de quarante années la sonde Voyager 1 est à la distance parcourue par la lumière en 19 heures. À cette vitesse, il lui faudrait au total près de quatre-vingt mille ans pour atteindre Proxima. Cette simple constatation montre que l’Univers dans son ensemble est tout aussi inaccessible à l’exploration robotique, tout du moins avec l’horizon technologique qui est le nôtre en ce début du XXIe siècle. Le Soleil est situé sur les bords d’une galaxie spirale que l’on regarde par la tranche. Ce halo blanchâtre, qui traverse le ciel les soirs d’été, lorsque la Lune est nouvelle ou pas encore levée, prend le nom de Voie lactée pour son apparence laiteuse à l’œil nu. C’est notre galaxie, composée d’une centaine de milliards d’étoiles dont le centre, situé vers le sud, près de la constellation du Sagittaire, est à 26 000 années-lumière. Toutes les étoiles que l’on voit dans le ciel à l’œil nu appartiennent à notre galaxie qui peut être définie comme un groupement d’étoiles tournant autour d’un centre. La Voie lactée est entourée de plusieurs galaxies naines, que l’on peut considérer comme des galaxies satellites de la nôtre et bien plus petites, contenant seulement quelques milliards d’étoiles. La plus proche est, à ce jour, celle du Grand Chien, située également à 25 000 annéeslumière du système solaire. La galaxie de taille comparable à la Voie lactée la plus proche est la plus galaxie d’Andromède. Elle se situe à 2,5 millions d’années-lumière. Lorsque l’on continue à s’éloigner de plusieurs centaines de millions d’années-lumière du Soleil, on trouve d’autres galaxies, de formes variées, s’éloignant les unes des autres, et cela, jusqu’à l’horizon visible. Ces îlots d’étoiles, aussi nombreux que les étoiles que nous voyons dans le ciel, sont tout aussi inaccessibles à l’exploration robotique, laquelle reste cantonnée au système solaire. Il est bon de signaler qu’il n’existe pas de programme secret mis au point par l’armée américaine dans le désert du Nevada permettant ce premier voyage interplanétaire. L’investissement le plus conséquent actuellement fait pour développer une telle sonde interplanétaire n’est pas gouvernemental mais privé. Il s’agit du projet Breakthrough Initiatives, financé par deux mécènes, Yuri Milner et Mark Zuckerberg. Ce positionnement est aussi provocateur qu’ambitieux, tant les défis technologiques à relever sont nombreux. Il s’agit en effet de développer une sonde pouvant se déplacer à près de un cinquième de la vitesse de la lumière pour atteindre l’étoile la plus proche de notre système solaire, Alpha du Centaure, en une vingtaine d’années. L’ambition du programme est de réaliser ce bond technologique pour la prochaine génération, c’est-à-dire d’effectuer un premier lancement pour le milieu des années 2030. Pour atteindre ces vitesses vertigineuses, l’angle technologique choisi consiste à
utiliser une sonde de taille nanométrique, c’est-à-dire d’une fraction de millimètre, attachée à une voile d’une surface de quelques mètres carrés, le tout poussé par un faisceau de lasers tirés depuis la Terre. Tout est donc à développer et les challenges technologiques à surmonter sont nombreux : la sonde nanométrique, plus petite que la puce de votre téléphone, mais qui doit être capable de prendre des photos, de les envoyer, tout en produisant l’énergie nécessaire à ces opérations ; la voile, destinée à recevoir une énergie laser colossale pour parvenir à la poussée nécessaire de manière à atteindre une fraction de la vitesse de la lumière, et les lasers de puissance qu’il faut focaliser sur une cible si petite en orbite. Même si l’objectif semble inatteignable, ce qui lui a valu d’être reçu de manière très hautaine de ce côté plus conservateur de l’Atlantique, ce projet a le mérite de bousculer de manière provocatrice le microcosme de l’exploration spatiale. Comme les autres initiatives privées de ce secteur, qui cherchent sans complexe à concurrencer les États les plus puissants sur ce qui était jusqu’à présent une vitrine de leur savoir-faire technologique, cette initiative contribue à redonner le souffle nécessaire pour la prochaine révolution de l’exploration spatiale. Il faut espérer que ce ne sera pas la seule et que l’exploration interplanétaire va bientôt connaître la même révolution que celle que nous avons vue ces dernières années autour des lanceurs ou des missions vers la Lune ou Mars. Il est vrai qu’après les programmes Apollo et Pioneer-Voyager des années 1960-1970 nous avions connu quatre décennies assez ennuyeuses. Après quelques années des plus folles, que ce soit sur le plan technologique, scientifique ou tout simplement sur celui de l’ambition à l’échelle de l’aventure humaine, la situation s’était enlisée. Les changements budgétaires perpétuels des grandes agences spatiales, combinés à la culture technico-administrative qui s’est développée depuis quarante ans, débouchent sur des missions qui s’étendent sur plus de vingt ans. Entre la conception et l’acquisition des données, auxquelles s’ajoute une période parfois indéfinie de prospective et de lobbying à l’échelle nationale pour convaincre les communautés de scientifiques potentiellement impliquées dans une mission donnée, quelques décennies peuvent rapidement s’écouler. Il est difficile dans ce contexte de ne pas faire autre chose que de s’appuyer sur le conservatisme inhérent de toutes les communautés, même scientifiques. Il ne s’agit pas ici de dresser un tableau noir car le bilan de cette mise en œuvre est très positif, avec des succès retentissants autour de missions qui croissent de manière continue vers plus de complexité sur les plans technologique, de la navigation spatiale, de l’automatisation, et sur bien d’autres aspects. On a d’ailleurs en ce moment en opération le plus grand nombre de missions spatiales dédiées aux questions astrophysiques jamais atteint. Tout cela se décide et se déroule, par contre, dans un monde enfermé dans un carcan administratif un peu trop rigide où l’échec n’est plus permis. Cette tolérance zéro pour l’échec, nourrissant et se nourrissant de la longueur temporelle des missions spatiales, est devenue un frein aux projets de rupture. On comprend très bien que l’échec d’une sonde développée sur une, voire deux décennies retarde d’autant le programme scientifique attaché, pousse celui-ci au-delà
d’une carrière scientifique et se traduit souvent en une véritable catastrophe pour la communauté concernée. Même si cette idée est pour l’instant celle d’une minorité de scientifiques, tout du moins en Europe, on ne peut cependant que mettre en exergue les succès accomplis dans le domaine de l’exploration spatiale avec une approche plus audacieuse et bien sûr plus risquée. En complément des programmes des agences gouvernementales, il est donc de très bon augure de voir apparaître dans le domaine de l’exploration de l’espace lointain une implication de mécènes ou d’entreprises privées. Le programme Starshot du Breakthrough Initiatives est à saluer pour cela. On ne peut que lui souhaiter le même succès que celui de la compagnie SpaceX, largement ignorée à sa création en 2002, et même décriée par différentes communautés d’experts. Même si l’objectif d’atteindre l’étoile la plus proche est bien plus ambitieux et semble aujourd’hui inatteignable, on peut espérer, de manière plus raisonnable, que ce nouvel élan va révolutionner notre exploration du système solaire lointain, au-delà de la ceinture d’astéroïdes, qui n’a, à ce jour, été visitée que par huit sondes, toutes issues d’un seul pays. Ces missions plus techniques portent directement sur notre compréhension physique du système solaire et de ses particularités, et s’attaquent à un questionnement plus large que celui des conditions d’apparition de la vie telles qu’on les connaît sur Terre. Elles permettraient également de multiplier les efforts pour explorer les quelques sites sur les satellites des planètes externes où l’on espère encore trouver une activité biologique toujours active, fût-elle rudimentaire. Après soixante ans d’exploration du système solaire, nos espoirs de trouver une activité biologique élémentaire audelà de la Terre sont actuellement très faibles. Il s’agit peut-être de la découverte la plus importante, et paradoxalement la moins mise en avant, que nous apporte l’exploration du système solaire.
Des mondes hostiles à l’invasion de Mars Après la course effrénée pour atteindre la Lune dans les années 1960, couronnée par l’atterrissage des missions Apollo sur la Lune entre 1969 et 1972, la conquête spatiale passe par une période de dépression. Alors que les images prises depuis la Terre des trois planètes telluriques étaient de qualité suffisamment faible pour laisser planer un certain doute sur la possibilité d’une vie extraterrestre, l’exploration de ces trois objets enterre définitivement tout espoir d’une rencontre avec une autre civilisation dans notre voisinage proche. Il faut en effet se remettre dans la perspective des années 1960 et 1970 durant lesquelles la conquête spatiale évolue de pair avec l’essor de la science-fiction, à la télévision, au cinéma, dans la littérature écrite ou en bandes dessinées. Difficile, dans ce contexte, de maintenir l’imagination du grand public en appétit pour justifier des budgets titanesques requis comme de missions dont les
objectifs deviennent de plus en plus pointus et s’éloignent de la grande aventure humaine de l’espace. Nous sommes alors dans une période où les différents canaux de communication sont saturés sur ces thèmes par les Chroniques martiennes de Ray Bradbury, La Guerre des étoiles, Star Trek et autres aventures de superhéros provenant de galaxies lointaines ou s’y rendant en toute facilité à l’aide du Guide du voyageur galactique. En quelques années, la fiction a, de loin, dépassé la réalité. Alors que l’imagination sur ce que peut être une vie extraterrestre s’envole, la conquête spatiale de nos trois voisins planétaires nous rappelle à une réalité peut-être bien plus difficile à appréhender depuis la Terre qui pullule d’activités biologiques dans ses recoins les plus profonds.
Figure 5. Première image de la surface de Vénus prise par Venera 9 (© Russian Space Agency).
Et le coup d’arrêt est brutal. Si l’on prend comme perspective le protocole de décontamination et de quarantaine mis en place par la NASA pour le retour sur Terre des astronautes des missions Apollo, on se rend compte que la possibilité d’une vie microbienne sur la Lune ou dans l’espace interstellaire n’était pas complètement exclue. Cela paraît assez paradoxal alors que l’on savait depuis longtemps qu’il n’y avait pas d’atmosphère la permettant. Dès le début des années 1970, les sondes soviétiques affinent nos connaissances de notre voisine Vénus. De taille similaire à la Terre et sur une orbite assez proche, la surface de Vénus est inaccessible à l’observation. La planète apparaît blanchâtre et couverte d’une couche de nuages uniforme sur la totalité de la surface lorsqu’elle est observée depuis la Terre. Seules les observations dans l’ultraviolet laissent apparaître des bandes plus sombres indiquant une circulation nuageuse dans la haute atmosphère. Il faut attendre l’envoi de sondes en orbite ou se posant à la surface pour compléter un tableau des plus décevants sur le plan de la recherche directe d’une activité biologique extraterrestre même élémentaire. Les sondes, exclusivement soviétiques, qui réussissent à se poser confirment que les conditions à la surface de Vénus sont des plus hostiles. À la composition de l’atmosphère comprenant du CO2, de l’azote, du SO2 qui
se transforme en acide sulfurique à haute altitude, s’ajoute une température atteignant les 450 °C combinée à une pression proche de 90 fois celle que l’on connaît sur Terre. Ces conditions extrêmes de température et de pression ont été un obstacle significatif à surmonter pour poser une sonde et obtenir les premières images de la surface de la planète. Il faut attendre 1975 et la sonde Venera 9, soit près de neuf années après la première tentative avec Venera 3, pour accomplir cet exploit. La sonde réussit à se poser, à fonctionner pendant 53 minutes à la surface, renvoyant une première image vers la Terre. Surmonter des températures où le plomb et l’étain fondent est une performance technique notable qui ne sera d’ailleurs répétée que par l’Union soviétique dans les années qui suivirent. Ces différentes sondes Venera, envoyées jusqu’au milieu des années 1980, ont permis une analyse assez poussée de la composition du sol, qui semble proche de celui que nous connaissons sur Terre. Les images en noir et blanc de Vénus révèlent un sol rocailleux, ressemblant à celui des déserts que l’on voit sur Terre. Seuls deux continents, chacun dans l’un des hémisphères, se distinguent d’un paysage relativement plat, souvent qualifié de collines roulantes et couvrant près de 80 % de la surface. Contrairement à la Lune ou à Mars, il n’y existe que peu d’impact de cratères. Cela indique que la surface est probablement récente et qu’elle a été l’objet d’une activité volcanique et/ou tectonique dans un passé assez proche. La teneur élevée en CO2 et les variations de la teneur en SO2 ainsi que les nombreuses formes à la surface ressemblant à des cratères laissent penser que l’activité volcanique a été importante dans le passé de Vénus. Les formations volcaniques sont beaucoup plus nombreuses et plus imposantes en taille que celles que nous connaissons sur Terre, suggérant qu’une activité volcanique plus intense a eu lieu pour Vénus. Contrairement à la Terre, il n’y a par contre pas d’évidence d’un cycle de tectonique des plaques. Sur Terre, le cycle tectonique consiste en plaques continentales en mouvement qui créent les tremblements de terre et les montagnes, amenant ainsi un relief accidenté en surface. Les sondes Magellan et Venus Express, lancées dans les années 1990 et 2000, l’une s’occupant principalement d’une cartographie radar de la surface de la planète et l’autre, de la composition de l’atmosphère sur l’étendue de la planète, ont peaufiné cette image. Ces deux missions suggèrent qu’une activité volcanique serait peut-être toujours présente, bien qu’aucune éruption n’ait été directement observée à ce jour, que l’atmosphère serait chargée d’éclairs dont l’origine reste à expliquer, et même que les deux continents identifiés seraient plus âgés que les bassins volcaniques, et peut-être constitués de granit. Cette découverte, si elle est confirmée, pourrait signifier que de l’eau liquide était présente à la surface de Vénus dans un passé lointain. Une fois passée la déception des conditions hostiles observées à la surface de Vénus, cette différence établie de l’activité géologique, comme des conditions atmosphériques observées, pose maintenant question. Elle devient même de toute première importance dans la recherche actuelle des conditions favorables à l’apparition de la vie. Pour comprendre cette dernière assertion, qui contredit directement nos premières impressions et se place à 180 degrés du sentiment premier ressenti à la vue de la surface révélée par les sondes Venera, il faut se rappeler
que Vénus ressemble à la Terre en de nombreux points. La composition de Vénus, déduite de sa densité moyenne et de l’analyse de sa surface par les sondes Vega, est aussi proche de celle de la Terre. Avec un rayon de 0,94 fois celui de la Terre, et sa distance au Soleil de 0,72 fois la distance Terre-Soleil, Vénus est, sous bien des aspects, la planète jumelle de la Terre. Comprendre cette différence de destins entre les deux planètes revient donc à s’interroger sur les critères nécessaires pour qu’une planète soit et surtout reste habitable sur près de 4 milliards d’années. Comme cette différence est bien plus dramatique que leurs propriétés planétaires ne le laissent le supposer à première vue, elle montre aussi que les deux planètes doivent être comparées dans leur ensemble. Il faut donc voir la Terre avec une quantité d’eau significative en surface, probablement présente depuis sa formation, un cycle du carbone, c’est-à-dire une quantité de CO2 dans l’atmosphère, une tectonique des plaques et un volcanisme, tous deux significatifs depuis les origines de la planète. Depuis la visite des différentes sondes ayant survolé ou atterri sur Vénus, nous considérons maintenant celle-ci comme ayant perdu toute l’eau potentiellement présente à l’origine, avec la quasi-totalité du CO2 dégazé dans l’atmosphère, et un cycle géologique très différent de son équivalent terrestre. Le volcanisme y a été plus important et l’énergie interne accumulée depuis la formation, probablement comparable à celle de la Terre, s’est libérée de manière abrupte en provoquant une régénération très rapide de la surface et sans tectonique des plaques. Un consensus est maintenant établi pour considérer que les conditions observées actuellement à la surface de Vénus sont la conséquence de sa plus grande proximité au Soleil. Contrairement à la Terre plus éloignée, Vénus aurait subi un effet de serre plus important, ne permettant pas à l’eau liquide de se condenser, provoquant ainsi un échappement de la quasitotalité de l’eau à un moment présent dans l’atmosphère. Cette théorie de l’effet de serre par échappement est supportée par la mesure du rapport hydrogène/deutérium effectuée par la sonde Pionner-Venus à la fin des années 1970. La question qui intéresse aujourd’hui la communauté scientifique est de savoir si de l’eau, et peut-être des océans, était présente à la surface de la planète à un moment dans l’histoire du système solaire, notamment lorsque le Soleil était plus jeune et donc moins brillant. Cette question esquissée, mais laissée en suspens après la dernière mission Vénus Express de la fin des années 2000, revient à l’heure actuelle au tout premier plan maintenant que de nombreuses exoplanètes ressemblant à la Terre et à Vénus ont été identifiées. Dans ce contexte, valider ou invalider cette hypothèse a une répercussion directe sur ce que nous allons définir plus loin comme la notion de zone habitable autour d’une étoile. Cette notion est donc directement liée à ce que nous prédisons pour les conditions supposées présentes à la surface des exoplanètes de type terrestre. D’une importance plus difficile à évaluer à l’heure actuelle s’ajoute celle du cycle géologique et volcanique vénusien, qui reste de manière assez surprenante différent de celui que nous connaissons sur Terre. Cette différence est importante car elle suggère que, même située à la même distance du Soleil que la Terre, Vénus ne resterait peut-être pas habitable durant
4 milliards d’années. Ces questions alimentent en ce moment les projets de missions qui viendraient poser de nouvelles sondes à la surface de Vénus dans les prochaines décennies. Nous sommes donc bien revenus de notre première déception à la vue de la surface de Vénus. Ce revirement d’amour pour Vénus s’est accompagné d’un autre, tout aussi important, voire plus spectaculaire, pour Mars. Alors que l’atmosphère ténue de Vénus laissait subsister un voile pudique sur nos spéculations concernant ce qui pouvait exister à sa surface, celle de Mars, bien visible depuis la Terre, a depuis longtemps attisé notre imagination. S’agissant de Mars, nous sommes passés du fait d’imaginer des canaux artificiels construits par une civilisation pacifiée à la fin du XIXe siècle par Camille Flammarion à la non-détection d’une simple molécule organique par la sonde Viking posée en 1976. Comme aime à le dire Franck Selsis, professeur à l’université de Bordeaux, qui s’est penché avec attention sur le problème de Mars, notre croyance en une vie extraterrestre martienne a continué à décroître au fur et à mesure que nos observations se sont affinées. La non-détection d’une activité biologique à la surface par les sondes Viking a réduit cet espoir à zéro pour un temps. Ces deux missions envoyées à un mois d’intervalle marquent aussi la première et la dernière implication directe des biologistes dans une mission de la NASA. Cette non-découverte annonce le début d’une période de réticence, voire d’une certaine aversion de l’agence et de la communauté scientifique au sens large pour la problématique de la recherche de la vie extraterrestre. Même si la détection initialement positive de l’une des sondes Viking est débattue de manière récurrente, depuis, le consensus actuel de la communauté scientifique est qu’il n’y a probablement pas eu de détection d’activité biologique à la surface de Mars. Le programme Viking a, en revanche, apporté une inflexion importante sur notre façon d’aborder Mars, non pas en y découvrant une activité biologique martienne, mais en révélant une surface marquée par des formations géologiques suggérant que de l’eau liquide aurait été présente à sa surface. Les deux sondes Viking étaient composées d’un atterrisseur emportant plusieurs instruments pour analyser le sol, données que nous ne pouvons pas obtenir à partir des télescopes terrestres, et d’une sonde restant en orbite pour cartographier la surface avec une précision, une fois encore, jusque-là inaccessible depuis la Terre. Et la découverte fut aussi spectaculaire qu’inattendue. Les photos prises montrent la surface de Mars couverte de lits de rivières asséchées, de vallées qui, sur Terre, ne sont formées que par l’écoulement de l’eau à l’état liquide. On distingue même des formations qui évoquent des vestiges de delta. Ces formations sont tellement importantes que, prises dans leur ensemble, elles pourraient indiquer que Mars aurait même connu un épisode de déluge important dans son passé lointain. Les missions Viking ont ainsi changé notre vision de Mars passant de l’état d’une planète potentiellement habitée à celui d’une planète qui semble avoir connu des conditions propices au développement de la vie très tôt dans son histoire, avec de l’eau liquide à sa surface. Alors que nous nous satisfaisions de comprendre que cette planète 10 fois moins massive que la Terre ne puisse garder son atmosphère après 4 milliards d’années, nous nous sommes soudainement
trouvés face à un nouveau paradoxe, peut-être aussi intéressant que celui de déterminer l’existence d’une activité biologique contemporaine sur Mars. Même si cette assertion fait actuellement débat pour la communauté scientifique, les sondes Viking ont, de manière certaine, montré que nous n’abordions pas le problème de la bonne manière en cherchant des preuves directes de la vie sur Mars en nous appuyant sur une exploration limitée et indirecte de la constitution du sol martien. Il ne s’agit pas d’une pirouette intellectuelle permettant de justifier de nouvelles missions vers Mars mais bel et bien d’un changement de paradigme significatif qui a profondément modifié notre approche du problème Mars pour les décennies qui suivirent. Il est également intéressant de souligner que la même mission qui échoua à démontrer une activité biologique va aussi être celle qui relance complètement le débat sous un jour nouveau, grâce à une moisson de données inattendues venant non pas de la sonde de surface, mais de la partie restée en orbite, photographiant le sol pour déterminer notamment la meilleure zone d’atterrissage. Pour comprendre ce paradoxe et son intérêt pour la recherche des conditions d’apparition de la vie, il faut reprendre le problème du point de vue de la planétologie et tenter de répondre à la question suivante : comment une planète située à 1,52 fois la distance Terre-Soleil a-t-elle pu avoir de l’eau liquide à sa surface, en quantité suffisante pour créer les vestiges géologiques caractéristiques que nous observons aujourd’hui, tels que des lits de rivières, alors que le Soleil bien plus jeune et donc bien moins brillant ne permettait pas d’atteindre une température suffisante à la surface. Si nous parvenons à expliquer ce paradoxe, en démontrant que Mars a connu des conditions d’habitabilité proches de celles de la Terre il y a 4 milliards d’années, nous aurons alors un nouveau terrain d’exploration qui a, depuis bien longtemps, quasiment disparu de la surface terrestre en raison de la tectonique des plaques et du renouvellement quasi complet de la surface terrestre. Dans ce contexte, la découverte directe d’une activité biologique à la surface de Mars serait bien sûr une découverte exceptionnelle, mais représenterait la détection d’une activité biologique qui a évolué sur 4 milliards d’années et qui se serait retranchée dans les derniers écosystèmes viables de la planète. Même sans cette détection, l’étude du sol martien permettra de comprendre les conditions qui ont existé il y a 4 milliards d’années, d’évaluer l’habitabilité éventuelle de la planète à cette époque et peut-être même d’identifier des vestiges d’une activité biologique passée. Tous ces éléments apportent un éclairage direct pour comprendre la Terre primitive. Ce paradoxe occupe donc les planétologues et façonne les missions vers Mars depuis maintenant plusieurs décennies. La cartographie du sol martien effectuée par la sonde MOLA (Mars Orbital Laser Altimeter) au début des années 2000 fait apparaître une dichotomie nette entre les deux hémisphères. On distingue au sud un continent surélevé montrant une densité de cratères élevée, proche de celle de Mercure ou de la Lune et indiquant un âge entre 4,5 et 4 milliards d’années. L’hémisphère nord est, lui, quasiment uniforme. Modelé par des coulées de lave, il témoigne d’un relief moins accidenté et laisse facilement imaginer la place d’un océan ancestral dans un bassin s’étendant
sur la quasi-totalité de l’hémisphère. Ces deux hémisphères sont séparés par des formations volcaniques spectaculaires, avec des volcans semblables à ceux que nous connaissons sur Terre, mais de taille bien supérieure. Le plus grand mesure près de 22 kilomètres de haut et s’étale sur plusieurs centaines de kilomètres. Les volcans martiens sont en fait les plus élevés du système solaire. La formation volcanique la plus importante, composée de plusieurs volcans, est si imposante qu’elle pourrait même avoir modifié l’axe de rotation de la planète. Ces volcans sont aujourd'hui éteints. Mars étant 10 fois plus légère que la Terre, elle a déjà dissipé trop d’énergie interne pour maintenir son activité volcanique. On peut facilement imaginer en revanche que ce n’était pas le cas il y a 4 milliards d’années et que l’atmosphère de Mars primitive était bien plus significative qu’aujourd’hui, et composée de CO2 et d’eau. Comme pour la Terre et Vénus, ces deux éléments en quantité suffisante dans l’atmosphère pourraient produire un effet de serre important et l’élévation de température voulue pour trouver de l’eau liquide en surface. Les différentes sondes envoyées depuis les sondes Viking des années 1970, dont onze sont encore en fonctionnement, nous ont montré que Mars était l’objet d’un cycle de saisons comparable à celui que nous connaissons sur Terre, plus marqué toutefois en raison de l’excentricité plus importante de la planète, c’est-à-dire la variation de sa distance au Soleil au cours de l’année. La rotation de la planète est proche de celle de la Terre tout comme son inclinaison actuelle. Elle présente aussi deux pôles glacés, contenant une large proportion d’eau, suffisante pour couvrir une partie de la planète, et du dioxyde de carbone. La pression atmosphérique est par contre bien plus faible que sur Terre, presque 150 fois moins importante. Lorsque les pôles sont exposés durant l’été, le dioxyde de carbone passe directement dans l’atmosphère sans toutefois que de l’eau liquide n’apparaisse à la surface en raison de la faible pression atmosphérique. Ce cycle de saisons entraîne seulement l’apparition de nuages et des tempêtes de sable gigantesques qui peuvent couvrir la totalité de la planète. De l’eau a également été récemment détectée en quantité importante dans le sous-sol martien avec la sonde Mars Reconnaissance Orbiter de la NASA, ainsi que des minéraux ne pouvant se former qu’en contact direct avec de l’eau liquide. Après trente ans d’exploration de Mars, dont la surface est bien plus facile d’accès que celle de Vénus, la présence de l’eau à la surface, non pas à l’état liquide, mais sous forme de glace, est maintenant établie sans aucune ambiguïté. La composition de son atmosphère, tout comme son cycle de saisons, est aussi assez bien comprise. Son climat actuel présente des similitudes intéressantes avec le cycle terrestre, et rend la Terre moins isolée parmi ses congénères du système solaire. Mais la comparaison s’arrête là pour l’instant. Si une activité tectonique a eu lieu, celle-ci semble s’être limitée à une toute petite période lors de la formation du continent visible dans l’hémisphère sud. L’existence d’un cycle tectonique similaire à celui de la Terre semble, quant à elle, peu probable. L’hypothèse actuellement privilégiée pour expliquer la dichotomie des deux hémisphères martiens est celle d’un impact géant similaire à celui qui a créé
la Lune. Si de l’eau liquide était présente à la surface de Mars après sa formation, un cycle du carbone, tel que nous le connaissons sur Terre, ne se serait donc a priori pas établi. La question d’une jeune Mars chaude et accueillante pour la vie n’est, par contre, toujours pas tranchée. Aucune donnée ne vient pour l’instant valider ou non les différents scénarios mis en avant. Il est de plus assez difficile de générer suffisamment de gaz à effet de serre dans l’atmosphère pour obtenir l’élévation de température escomptée avec un Soleil plus jeune de plus de 4 milliards d’années. L’effet d’un impact géant expliquant la dichotomie hémisphérique, tout comme celui de l’apparition des formations volcaniques massives observées sont autant d’hypothèses avancées pour expliquer l’apparition d’un épisode humide et transitoire. Cet épisode s’est peut-être même produit de manière naturelle car, contrairement à la Terre, l’axe de rotation de la planète n’est pas figé sur le long terme. Il a ainsi pu varier rapidement au cours de son histoire sous l’influence des autres planètes du système solaire. Les pôles peuvent alors se retrouver près de l’équateur et générer un épisode où la calotte glaciaire exposée se relocalise près des pôles. Dans ce scénario, cette relocalisation laisse sur son passage les vestiges d’un glacier disparu, que l’on pourrait assez facilement associer à certaines formations identifiées en surface. Les divers atterrisseurs dotés de quelques centaines de kilogrammes d’équipement et n’ayant au total parcouru qu’une centaine de kilomètres à la surface ne suffisent malheureusement pas pour effectuer les mesures et observations du sol martien nécessaires pour progresser de manière significative sur ces questions. Nous sommes toujours en train d’analyser sur Terre les vestiges de son passé lointain, grâce à des instruments de plus en plus précis et qui remplissent plusieurs pièces. Les quelques robots ayant analysé de manière très locale le sol martien n’ont fait qu’effleurer la surface de la planète. Ils n’ont pas encore permis d’en révéler le passé plus lointain ni de trouver des indices peut-être seulement localisés dans quelques régions encore inexplorées. Les météorites de Mars, arrachées à celle-ci lors d’impacts et retrouvées sur Terre sont aussi analysées de manière extensive, mais les conditions de création sous choc de ces fragments, comme celles de leur contamination potentielle lorsqu’elles sont sur Terre, posent question. De plus, la localisation de ces échantillons naturels comme leur âge sont inconnus. C’est pourquoi les prochaines missions vers Mars prévoient de ramener des échantillons afin qu’ils puissent être analysés finement sur Terre avec l’ensemble des dispositifs expérimentaux disponibles. L’ESA et la NASA travaillent actuellement à une mission conjointe qui pourrait rapporter des échantillons martiens sur Terre pour le début des années 2030. Il faut en effet y déposer l’atterrisseur collectant les échantillons, la sonde qui va les mettre en orbite avec son carburant et, bien sûr, potentiellement une troisième pour un retour vers la Terre. Ce scénario est réaliste et prend à l’heure actuelle un nouvel essor avec l’ambition renouvelée d’envoyer une mission habitée vers Mars dans la décennie 2030. Si cette ambition se confirme – et survit aux atermoiements politiques et bureaucratiques –, elle pourrait apporter une moisson de résultats
permettant de lever le voile sur le passé de Mars tout en préparant une mission habitée en analysant le sol martien de manière poussée. Ce double objectif convaincra peut-être aussi les compagnies privées souhaitant atteindre Mars de financer directement ce programme ou de se joindre aux missions scientifiques nécessaires à la réussite de cette nouvelle grande aventure. Et, avec un peu de chance, il y aura un géologue à bord, ce qui nous fera sans aucun doute gagner des années d’exploration robotique !
Des anneaux à n’en plus finir et des lunes peut-être habitables Alors que l’exploration du système solaire interne, c’est-à-dire compris à l’intérieur de la ceinture d’astéroïdes, nous a révélé des mondes esthétiquement décevants et hostiles à la vie, celle du système externe nous a, en revanche, fait rêver les yeux grands ouverts et a, pour certains, maintenu en éveil l’appétit pour l’exploration spatiale. Des magnifiques anneaux de Saturne, apparaissant quasi uniformes depuis la Terre, mais se révélant sous l’œil de Voyager 1 comme une mer de morceaux de glace dansant autour de la planète, à l’apparence « vanghogienne » de Jupiter révélée par la sonde Juno en 2017, chacune des missions d’exploration vers le système solaire externe a changé notre vision de ces quatre planètes comme de leur petite sœur Pluton. Il faut aussi dire que ces visites ont en fait été relativement peu nombreuses. Seulement huit sondes sont sorties du système solaire interne. Uranus et Neptune n’ont été survolées qu’une fois par la sonde Voyager 2 dans les années 1980 tandis que seules Jupiter et Saturne ont fait l’objet de missions dédiées avec la mise en orbite de trois sondes. Nous ne connaissons donc pas très bien ces planètes du système externe qui ne ressemblent en rien à leurs congénères du système interne. Beaucoup plus massives, allant de 300 fois la masse de la Terre pour Jupiter à près de 15 fois celle-ci pour Uranus, elles sont composées principalement d’hydrogène, d’hélium et d’un peu d’eau. Elles ne présentent pas de surface solide ou liquide et doivent être vues comme des boules de gaz où la pression et la température augmentent de manière significative au fur et à mesure que vous entrez à l’intérieur de la planète. Seules deux sondes ont pénétré la haute atmosphère de Jupiter et de Saturne : Galileo et Cassini. Galileo a, par exemple, parcouru 160 kilomètres à l’intérieur de Jupiter, soit moins de 0,2 % de son rayon, avant d’être détruite par les conditions extrêmes de température et de densité qui y règnent. Ces planètes sont plus éloignées du Soleil que leurs congénères du système interne, et leur température, qui est comprise entre 80 K et 150 K (- 193 et - 123 oC) à une pression équivalente à la pression atmosphérique terrestre, augmente rapidement, tout comme la pression, en raison du propre poids de la planète. L’effet est en fait assez similaire à celui que nous avons
sur Terre et dont nous avons tous entendu parler dans le cadre de l’exploration des fonds marins. Nous n’avons donc à ce jour qu’une vision théorique de l’intérieur de ces planètes dont nous essayons maintenant de mieux comprendre les contraintes spécifiques, de manière indirecte grâce aux données obtenues par ces missions spatiales dédiées. Les trois sondes mises en orbite autour de Jupiter et de Saturne, Galileo, Juno et CassiniHuygens, ont ainsi permis de mesurer les variations faibles du champ gravitationnel autour de ces planètes. Ces variations reflètent les changements de densité de la matière à l’intérieur de ces planètes et permettent ainsi de contraindre la composition de leurs intérieurs qui restent inaccessibles à l’observation directe. Ces trois sondes ont également permis une meilleure compréhension des champs magnétiques produits par ces objets, de la composition de leur atmosphère, des impuretés qui les composent, de la vitesse et de la profondeur des courants atmosphériques. Pour Jupiter, ces courants sont observables comme de larges bandes orangées depuis la Terre. Pour Saturne, elles ont été identifiées par la sonde Cassini-Huygens. Ces sondes ont de plus révélé des systèmes d’anneaux existant autour des quatre planètes géantes. Pour Uranus et Neptune, ils n’étaient que supposés à partir d’occultation stellaire, c’est-à-dire en notant une baisse de luminosité lors du passage de la planète devant une étoile. Pour Jupiter, le système d’anneaux était, lui, inconnu avant le passage de Voyager 1. Ces découvertes concernant les densités et les luminosités observées pour ces quatre systèmes d’anneaux ont relancé les idées que l’on se faisait de leur formation. On pense même aujourd’hui que les anneaux de Saturne, que l’on imaginait présents depuis la formation de la planète, sont peut-être en fait très jeunes, âgés de seulement quelques centaines de millions d’années. Cet ensemble de données, énuméré de manière bien incomplète, semble à première vue assez éloigné de notre propos et renforce l’idée que l’exploration du système externe nous révèle une nouvelle fois des mondes inhospitaliers. S’ils sont esthétiquement séduisants, ils sont une fois encore peu favorables à l’émergence de la vie. Il est vrai que les conditions prévalant pour ces objets, confirmées peu à peu par l’exploration spatiale, les classent en dehors de la catégorie des planètes habitables. L’intérêt de la communauté scientifique pour une meilleure compréhension de ces planètes, qui passe par l’exploration spatiale de ces objets, est pourtant également lié aux questions d’habitabilité.
Figure 6. Jupiter prise par la sonde Juno (© NASA/JPL/SwRI/MSSS/Gerald Eichstädt/David Marriott).
Pour les prendre en compte, il faut se placer dans la perspective de l’histoire du système solaire et se poser la question du mécanisme de formation de ces planètes et de leur impact sur les conditions qui vont être créées pour les planètes du système interne. Contrairement aux planètes rocheuses du système interne que l’on imagine s’être formées à partir de l’accumulation de multiples embryons de roche, la formation des planètes externes demande un autre modèle qui explique l’accumulation rapide d’hydrogène et d’hélium pour arriver aux 300 masses terrestres de Jupiter ou aux 100 de Saturne. On peut théoriquement construire ces objets à partir d’une protoplanète d’une vingtaine de masses terrestres qui accumule alors les éléments plus légers, formant rapidement des planètes de la masse de Jupiter et de Saturne. La question qui anime en ce moment la communauté scientifique est de valider ce modèle générique afin de comprendre comment se forment ces planètes géantes, à quelle vitesse et à quelle fréquence, sachant qu’elles semblent agir comme des régulateurs de la masse d’éléments arrivant dans le disque interne et qu’elles affectent directement la composition des planètes internes. Jupiter présente également un puits gravitationnel important qui protège le système interne d’un trop grand nombre de comètes et d’astéroïdes. Nous reviendrons plus en détail sur ces différents points dans les prochains chapitres, mais il est important de retenir pour l’instant que ces questions sont suffisamment pressantes pour avoir motivé la dernière grande mission vers Jupiter. La sonde Juno est actuellement en orbite autour de la géante du système solaire pour révéler la composition de son intérieur et, on l’espère, nous donner de nouvelles pistes de réflexion sur le rôle de Jupiter dans l’habitabilité de la Terre et du système solaire.
Figure 7. Europe à gauche et Encelade à droite (© NASA/ESA/JPL-Caltech/SETI Institute).
Les deux autres sondes qui sont entrées en orbite de Jupiter et de Saturne, Galileo et Cassini-Huygens, ont non seulement caractérisé ces deux planètes et leur environnement, mais aussi visité plusieurs des lunes de ces planètes géantes qui en comptent chacune plusieurs dizaines. La sonde Cassini-Huygens développée conjointement par la NASA et l’ESA a, de plus, réussi l’exploit technologique de poser une sonde sur l’un des satellites de Saturne, Titan. C’est la partie Huygens de la mission. Développée par l’ESA, la sonde Huygens réussit à se poser sans encombre sur ce satellite plus gros que Mercure et qui intriguait depuis le début du XXe siècle en raison de l’atmosphère relativement dense et opaque qui dissimule sa surface. Titan est souvent évoquée dans les films de science-fiction comme un refuge possible pour une civilisation terrestre en perdition. Bien qu’il soit le seul satellite ayant une atmosphère dense, composée principalement d’azote comme la Terre, la comparaison s’arrête là. La sonde Huygens a révélé un monde une fois de plus hostile, avec des températures plus basses encore que celles qui étaient anticipées en raison d’un effet de serre inversé, produit par les brumes de méthane qui lui donnent aussi un aspect orangé. La température n’y dépasse pas les 100 K (- 173 oC), condition à laquelle le méthane et d’autres hydrocarbures peuvent se trouver à l’état liquide en surface. Les deux seuls parallèles qui peuvent être établis avec la Terre sont l’existence d’une surface solide et d’un cycle climatique avec des pluies, des nuages et du liquide en surface. Mais ce cycle ne concerne que les hydrocarbures. Le sol est probablement composé de glaces de méthane et
d’ammoniac avec des parties sombres qui pourraient ressembler à des solides organiques. L’eau ne se sublime pas à ces basses températures et n’est donc pas présente dans l’atmosphère. La lumière du Soleil ne produit qu’une illumination de l’ordre de 10 % de celle que nous connaissons sur Terre. Titan possède bien à sa surface les constituants pouvant mener à des molécules organiques, mais la température y est tellement basse qu’aucune réaction conduisant à la construction d’édifices moléculaires plus complexes qui nécessitent, en général, un solvant et donc de l’eau liquide ne semble possible. La surface de Titan paraît donc stérile pour la vie malgré une certaine similarité avec la Terre. La possibilité que des impacts d’astéroïdes élèvent la température de manière transitoire à la surface et créent des mares avec de l’eau liquide ou l’existence d’un océan liquide sous la surface glacée sont deux pistes fréquemment évoquées pour suggérer qu’une activité biologique élémentaire, que l’on qualifie aussi de prébiotique, soit possible. On pourrait imaginer la première comme possible, mais elle se heurte à l’obstacle temporel. On peut en effet penser que, durant quelques dizaines, voire quelques centaines d’années, il puisse y avoir de l’eau liquide dans le cratère formé, mais cela ne semble pas suffisamment long pour obtenir une quantité suffisante de molécules biologiques. Elles se retrouveraient donc rapidement piégées dans la glace se reconstituant et limitant ainsi l’expérience à une expérience chimique, certes intéressante, mais qui semble marginalement pertinente pour la question de l’émergence de la vie. La seconde hypothèse, elle, souffre d’un autre problème. Même si l’existence d’un océan liquide à plusieurs kilomètres sous la glace semble confirmée, notamment pour expliquer l’interaction avec Saturne et les effets de marée associés, celui-ci ne semble pas être en contact avec le cœur rocheux et à la température requise pour permettre la mise en place des réactions nécessaires pour créer une activité biologique. Par analogie avec ce qui se passe sur Terre, on imagine en effet que la vie pourrait évoluer dans ce contexte si nous nous retrouvions dans une situation similaire à celle que nous avons au fond des océans et autour des cheminées hydrothermales. Par contre, il semble impossible, depuis la surface, de détecter cette activité – à supposer qu’elle ait lieu. Nous sommes donc dans une situation où l’on ne peut vraisemblablement pas confirmer cette hypothèse. Comme nous le dirons à plusieurs reprises dans les chapitres qui suivent, pour que la recherche de vie extraterrestre reste une activité scientifique, il faut qu’une hypothèse puisse être mise en regard d’une observation potentielle permettant de la valider. Le cas d’une vie potentielle dans un océan supposé emprisonné dans les profondeurs de Titan est une assertion qui n’est au mieux qu’hypothétique en l’absence d’un début de protocole de détection viable. Pour changer ce point de vue, il faudrait donc pouvoir imaginer un dégazage en surface pour mettre en évidence certains composés spécifiques dans l’atmosphère. Cela semble difficile à faire dans le cas présent, même si on envisage sur Titan la possibilité d’une activité cryovolcanique, c’est-à-dire ressemblant aux volcans terrestres mais éjectant de l’eau, de l’ammoniac et du méthane plutôt que de la lave.
Un cas plus intéressant à ce titre, mis en évidence par Voyageur 2 et particulièrement étudié par la sonde Cassini, est celui d’Encelade. Encelade est une autre lune glacée de Saturne, 10 fois plus petite que Titan et ne possédant pas d’atmosphère. Alors que cette lune était plutôt délaissée car relativement éloignée de Saturne et ne présentant pas de caractéristiques remarquables vue depuis la Terre, son survol par la sonde Voyageur 2 a révélé une activité de surface assez surprenante. Vue de près par la sonde Cassini, la surface d’Encelade, qui est entièrement glacée et très réfléchissante, montre des craquelures importantes vers le pôle sud indiquant une activité de surface surprenante pour un objet si petit. On s’attendait en effet à trouver une lune glacée, relativement inerte et surtout sans chaleur interne importante. C’est exactement l’inverse qui se produit, et la sonde Cassini a même observé des geysers s’élevant à plusieurs kilomètres audessus de la surface. L’analyse de ces jets montre qu’ils contiennent de l’eau, du dioxyde de carbone et même de l’hydrogène, trois ingrédients qui pourraient être compatibles avec une activité biologique. Encelade semble donc à l’heure actuelle un cas très pertinent, voire le cas le plus pertinent, en ce qui concerne la recherche d’une activité biologique extraterrestre dans le système solaire. Contrairement à Titan, cette lune de Saturne réunit en fait plusieurs conditions. La possibilité d’un océan liquide en contact avec un noyau rocheux pouvant potentiellement reproduire des conditions similaires à celles rencontrées dans les cheminées hydrothermales terrestres, ainsi qu’une validation possible grâce à une détection en surface. Il faut toutefois rester prudent car, pour les mêmes raisons que nous n’imaginions pas une telle activité pour Encelade avant le survol, la modélisation des conditions rencontrées dans son intérieur, ainsi que l’origine des geysers observés ne font pas consensus et toutes les modélisations ne sont pas compatibles entre elles. Un autre aspect rarement mentionné est le caractère très dynamique du système saturnien et les interrogations qui se posent actuellement au sujet de la variation des orbites des différents satellites sur le long terme. L’existence même de l’ensemble de ces satellites depuis la formation de Saturne est actuellement remise en cause. Par voie de conséquence, cela suggère qu’Encelade n’a peut-être pas toujours été sur l’orbite que nous connaissons aujourd’hui et que les conditions créées par l’effet de marée en son sein sont peut-être récentes. Dans ce contexte, l’activité actuellement observée est peut-être trop récente pour avoir permis le démarrage d’une activité biologique. Munis de ces éléments, nous aimerions bien pouvoir retourner sur Encelade pour tester ces différentes hypothèses. Malheureusement, aucune mission n’est actuellement prévue, que ce soit du côté de la NASA ou de l’ESA. En l’absence de données additionnelles, et donc sans contraintes supplémentaires, le cas d’Encelade risque d’animer la communauté scientifique pour de nombreuses années, suscitant sûrement d’importantes controverses, sans pour autant apporter de réponse claire concernant l’existence d’une activité biologique potentielle. Le salut viendra peut-être d’une mission privée puisque Encelade est un objectif actuellement discuté par le Breakthrough Initiatives évoqué précédemment, ou d’une meilleure connaissance des satellites
galiléens qui orbitent autour de Jupiter. Trois de ces satellites, Ganymède, Callisto et Europe, hébergent potentiellement un océan liquide sous leur couche de glace, et des geysers similaires à ceux observés pour Encelade viennent d’être détectés à la surface d’Europe par le télescope spatial Hubble. L’ESA et la NASA ont chacune programmé, au début des années 2010, une mission pour étudier les lunes de Jupiter. Elles partiront toutes les deux dans la première partie de la décennie 2020. Leur arrivée et leur mise en orbite pour la fin des années 2020 et le début des années 2030 apporteront peut-être de nouveaux éléments de réflexion sur le cas d’Encelade, bien que ces trois lunes soient différentes par bien des aspects, notamment leurs tailles significativement plus importantes. On peut même espérer des découvertes du même ordre pour Europe ou l’un des deux autres satellites galiléens même si l’on ne peut que regretter l’impossibilité d’envoyer l’une de ces deux missions prévues depuis le début des années 2010 vers Saturne et Encelade plutôt que vers Jupiter. Ainsi en va-t-il actuellement de la cinétique des missions spatiales, s’étalant sur plusieurs décennies sans permettre d’ajustement, ou tellement peu qu’elles alternent pics de résultats exaltants et trop longues attentes frustrantes pour atteindre la prochaine marche.
CHAPITRE 4
Le défi des exoplanètes
Il faut monter au site d’observation de l’European Southern Observatory (ESO) à Paranal, dans le désert de l’Atacama au Chili, pour saisir toute la prouesse technologique à l’œuvre et les moyens engagés dans cette quête scientifique que représente la caractérisation des exoplanètes aujourd’hui. Étudier les exoplanètes veut tout d’abord dire les observer, mesurer leurs propriétés physiques et tenter d’en déduire leur nature sur la base d’un ensemble de paramètres assez incomplet. Alors que nous supposions depuis des siècles une certaine généricité dans les étapes amenant à la formation du système solaire, et donc de la probable existence d’autres systèmes comparables au nôtre, il n’en restait pas moins nécessaire de confronter cette vision à l’observation objective d’autres systèmes planétaires. Réaliser ces observations n’a pas été une mince affaire. L’attente fut longue, l’effort, soutenu, mais la récolte obtenue depuis vingt-cinq ans s’avère tout aussi riche en découvertes surprenantes qu’en détections inattendues. Rejoindre l’observatoire de l’ESO à Paranal signifie se lever au petit matin après quinze heures de vol pour rejoindre Santiago et enchaîner pour une liaison intérieure qui vous amène à Astofangasta. L’avion remonte vers le nord, en longeant pendant deux heures la cordillère des Andes d’un côté et la côte pacifique de l’autre, pour atteindre la ville minière traversée par le tropique du Capricorne et située à 1 100 kilomètres au nord de Santiago. En bordure du désert de l’Atacama, Astofangasta se trouve légèrement au sud de la région qui a vu, il y a presque sept mille ans, les Indiens Chinchorro développer trois procédés de momification maintenant décrits par trois couleurs, précédant ainsi de plus de trois mille ans l’émergence de ce même rituel chez les Égyptiens. Toujours animés par la recherche d’une meilleure compréhension de ce qui nous entoure et de ce qui se passe au-delà de notre perception quotidienne, sept mille ans plus tard, c’est dans ce même endroit et dans la ville la plus aride au monde que nous rejoignons le point de ralliement pour prendre le bus de l’ESO.
Après un parcours de plus de 100 kilomètres dans un désert minéral, où l’on ne perçoit aucune forme de vie, animale ou végétale, le bus nous amène dans le temple de l’astronomie observationnelle du XXIe siècle. Ce centre illustre le meilleur de la construction européenne, une communauté de pays qui contribuent à l’unisson à cette quête ultime de la connaissance. Elle se décline ici de manière unique en un ensemble de quatre télescopes de 8 mètres de diamètre, équipés de plus d’une douzaine d’instruments et d’un bâtiment hors norme primé à plusieurs reprises. C’est sans aucun doute cette dernière touche qui donne une signature culturelle bien européenne à cette aventure technologique hors norme. Construite au début des années 2000, et s’inscrivant dans une volonté assumée de construire un ensemble architectural d’ampleur pour l’ESO, la Residencia à Paranal surpasse ses consœurs du quartier général à Garching tant par le caractère insolite de son architecture que par le désir de créer une oasis de repos au milieu de cet environnement naturel très hostile. Au-delà du caractère romantique que représente le fait d’être à Paranal, un séjour d’observation reste tout de même une épreuve physique. Une session d’observation représente douze heures d’activité soutenue avec la responsabilité de ne pas gaspiller ce temps d’observation précieux obtenu après une compétition souvent difficile. La pression n’est pas négligeable car le temps d’observation représente souvent l’effort d’une équipe ou d’un consortium et un investissement financier assez important autour d’un instrument. Les résultats d’une campagne qui consistent en plusieurs nuits réparties en trois ou quatre segments de une à deux nuits, parfois même une demi-nuit, conditionnent bien souvent les temps d’observation futurs, le futur des équipes, des financements, et assez souvent l’avenir professionnel de collègues plus ou moins jeunes. Ces quelques nuits s’enchaînent dans un état un peu second, où les sens sont toujours embués en raison du long périple effectué depuis l’Europe et au cours duquel le corps perd assez facilement les repères qui sont les siens pour dormir et travailler. Conçue pour offrir aux astronomes un peu de repos dans cette période de quelques jours très dense, partagée entre observation et préparation, la Residencia est une oasis dans tous les sens du terme. Situé à 3 kilomètres en dessous du site d’observation, il s’agit un bâtiment semi-enfoui, épousant parfaitement le paysage de par ses matériaux et ses couleurs, et qui se fond dans les couleurs rouges du désert de l’Atacama. Construite sur quatre étages et abritant sous 10 000 mètres carrés une centaine de chambres et un jardin exotique avec piscine sous verrière, la Residencia vous fait oublier pendant quelques heures les conditions extrêmes qui règnent au dehors. Du fait de ses dimensions et de sa piscine très bleue, avec des chambres donnant sur un plateau désertique ressemblant à Mars et surplombant une mer de nuages permanente, on y vit en fait comme sur un bateau. L’activité est continue, s’étalant sur vingt-quatre heures. Les équipes s’enchaînent tout au long de la journée et de la nuit, montent et descendent du site, en partent et y arrivent. Les quelques heures passées assis près de la piscine ou dans le jardin aux palmiers font écho à notre culture européenne. L’importance d’un environnement de vie agréable, de sa beauté et de son esthétique a été partie prenante de la réflexion menée pour créer un environnement de
travail hors norme pour une des plus belles réussites européennes de ces deux dernières décennies. James Bond ne s’y est d’ailleurs pas trompé en venant inscrire ses exploits dans ce magnifique bâtiment durant l’épisode Quantum of Solace. La Residencia n’est d’ailleurs pas sans évoquer ce que pourrait être une colonie installée sur Mars. L’environnement est des plus hostiles pour la vie, minéral, et rappelle sans équivoque la surface rougeâtre du sol martien telle que rapportée par les multiples sondes. La région a d’ailleurs été utilisée à de nombreuses reprises par la NASA pour valider les mesures qui y seront effectuées ou les robots qui y seront envoyés. De nombreuses scènes de films se déroulant sur Mars ont également été tournées dans ce secteur. Ce site a si souvent été utilisé par le cinéma qu’en regardant l’horizon de sa chambre on ne peut s’empêcher de se demander lequel des deux a le plus marqué l’imaginaire collectif tellement ils se confondent. Au-delà de ce dilemme sur le pouvoir des images, la Residencia rappelle aussi la logistique nécessaire pour maintenir, dans un espace de 10 000 mètres carrés, un écosystème aussi contrasté avec l’environnement extérieur – plus rude encore sera le contraste écologique qu’il faudra affronter sur la Lune ou sur Mars pour établir une colonie d’une dizaine de personnes. Ainsi, la construction est doublée d’une série de hangars et d’un personnel de plusieurs dizaines de personnes chargé de maintenir, entretenir, construire, stocker le matériel, les vivres et l’eau. Et nous ne sommes qu’à deux heures de la ville la plus proche, avec une atmosphère respirable et des températures supportables ! Cette installation, époustouflante à tous les niveaux, fait toucher du doigt le challenge qui se présenterait si nous devions envoyer tout cet équipement sur une autre planète, avec des voyages aller d’une durée de plusieurs années. À l’est, juste au coin de la Residencia, s’étire le star walk, la promenade des étoiles, qui mène à pied aux quatre télescopes installés sur le sommet. Au bout de ce chemin d’une cinquantaine de minutes, doublé d’une route à deux voies parfaitement goudronnée pour les allers-retours nombreux des personnels entre le site et le sommet, ces quatre monstres technologiques se rapprochent peu à peu, au fur et à mesure que le chemin devient plus raide et s’enroule autour de la montagne. En partant au bon moment de la Residencia, alors que les lumières du Soleil commencent à rougir, les quatre tourelles ouvertes pour mettre les optiques à la température de la nuit montante se rapprochent lentement. Dans sa dernière longueur, alors que la lumière baisse rapidement dans l’ombre de la montagne, le chemin vous mène sur une crête plein ouest, face à une mer de nuages embrasée par le Soleil couchant qui illumine de ses derniers rayons les quatre coupoles métalliques aux formes cylindriques. Le timing est important pour cet exercice et reste le luxe du visiteur très occasionnel que je suis, qui apprécie à chaque moment toute la chance qui lui est donnée de pouvoir accéder à cet endroit incroyable. L’observatoire est composé de quatre télescopes de 8,20 mètres de diamètre, complétés par quatre télescopes auxiliaires de 1,80 mètre. Après cette longue montée vers le sommet, ce qui surprend le plus le nouvel arrivant sur le plateau de cette montagne écrêtée est l’arrangement saugrenu des huit télescopes. Les quatre grands télescopes, qui prennent le nom d’objets
astronomiques dans le langage indigène chilien Mapuche, sont tassés d’un côté du plateau. Les trois premiers, Antu (le Soleil), Kueyen (la Lune), Melipal (la Croix du Sud), sont sur le bord ouest du plateau, presque alignés mais pas tout à fait, tandis que Yepun (l’Étoile du soir) est posé seul sur le côté sud du plateau. Les quatre télescopes auxiliaires, eux, sont sur des rails et peuvent se déplacer sur plusieurs dizaines de mètres et atteindre une bonne partie du plateau. Bien que cela ne soit pas leur mode de fonctionnement standard, les huit télescopes sont en fait disposés très précisément pour fonctionner en mode interférométrique et permettre des observations avec une très haute résolution angulaire. La résolution angulaire, ou la capacité d’un télescope à séparer deux objets dans le ciel, est directement proportionnelle au diamètre de son miroir primaire. Comme on s’y attend, plus le miroir est gros, et plus la résolution est importante. Le problème en astronomie est que la résolution demandée pour étudier des objets assez standard demande assez rapidement des tailles de télescopes impossibles à fabriquer. Pour voir, par exemple, une autre terre à 20 années-lumière, il faut un télescope de 28 kilomètres de diamètre. L’observation de la surface d’une étoile assez proche demande, elle, un télescope de 2 kilomètres de diamètre. Sans parler de la distance à laquelle il faudrait placer le miroir secondaire pour faire de ce miroir un instrument d’observation, la réalisation d’un tel télescope n’est bien sûr pas envisageable. Depuis plus d’un siècle, les astronomes s’appuient donc sur le principe de l’interférométrie optique pour contourner cette loi physique et augmenter la résolution de leurs télescopes de manière artificielle. L’interférométrie consiste à utiliser un ensemble de télescopes pointant vers le même objet et à reconstruire un signal à haute résolution en combinant la lumière reçue par chaque instrument. Sans entrer dans des détails techniques assez abstraits, ce principe combine deux à deux les signaux provenant des différents télescopes et définit pour chaque couple un télescope fictif dont la taille du miroir primaire correspond à la distance entre les deux télescopes. Cette technique ne fournit cependant pas une image complète. L’analogie fréquemment utilisée est celle du déchiffrement d’une symphonie de Mozart en écoutant la seule note donnée par un couple de télescopes. La distance des télescopes permettant de varier la note, on arrive ainsi à reconstruire une image partielle à partir des ensembles de couples de télescopes disponibles. Les huit télescopes sont donc disposés de manière très précise, avec les quatre télescopes auxiliaires amovibles, pour ajuster au mieux l’ensemble de notes pour l’objet que l’on cherche à observer. Cette configuration mettant en jeu plusieurs des télescopes est, par exemple, actuellement utilisée pour observer le centre galactique et caractériser le trou noir central à l’aide de l’instrument Gravity. Le mode interférométrique n’est pas le mode le plus utilisé, bien que plusieurs programmes soient en cours afin de l’utiliser pour l’étude des exoplanètes. Les quatre grands télescopes fonctionnent, la plupart du temps, de manière indépendante, avec, chacun, un ensemble d’instruments de mesure adaptés aux nombreuses questions scientifiques auxquelles cet observatoire s’attelle depuis maintenant presque vingt ans. L’observatoire de Paranal est
actuellement le deuxième instrument le plus productif en termes de publications scientifiques, se plaçant seulement derrière le télescope spatial Hubble. Cette merveilleuse usine à découvertes scientifiques touche toutes les branches de l’astrophysique et de l’astronomie. Les découvertes s’y succèdent à un rythme d’une publication scientifique par jour. Elles concernent la planétologie, la physique stellaire, l’étude du système solaire, la cosmologie, l’étude de la dynamique des galaxies ou du milieu interstellaire pour n’en citer que quelques-unes, et bien sûr les exoplanètes.
Figure 8. Image composée de 2M1207b montrant en rouge la première exoplanète détectée au VLT en 2004 (© ESO).
L’observatoire de Paranal est actuellement l’un des hauts lieux de l’étude des exoplanètes grâce à l’instrument d’optique adaptative Sphere installé sur Melipal depuis 2014. Cet instrument produit des images d’exoplanètes jeunes et massives et de disques protoplanétaires entourant les étoiles et soupçonnés d’être les régions où celles-ci se forment. L’observatoire de Paranal est ainsi l’observatoire d’où nous sont parvenues en 2005, avec l’instrument d’optique adaptative NACO alors installé sur le télescope Yepun, les premières images d’une exoplanète, 2M1207b. Située à 230 années-lumière de la Terre, 2M1207b est une planète de plus de 5 fois la masse de Jupiter. Elle orbite à 2 fois la distance de Neptune au Soleil, soit 55 fois la distance Terre-Soleil. La distance à l’étoile hôte est tellement importante qu’il a fallu presque une année après la première détection de cette planète pour démontrer qu’elle était gravitationnellement liée à son étoile. On sait maintenant qu’il y a un continuum entre les planètes de plusieurs fois à plusieurs dizaines de fois la masse de Jupiter et des objets trop petits pour devenir une étoile, les naines brunes. Cette première observation directe d’une exoplanète se trouve dans cette zone floue entre une planète et un petit objet stellaire mais appartient plutôt à la dernière catégorie.
Figure 9. Image composée de Bêta Pictoris b avec son disque d’accrétion (© ESO/A.-M. Lagrange et al.).
L’observatoire a aussi observé, en 2003, sur ce même instrument, une planète plus proche de ce que nous connaissons dans le système solaire, Bêta Pictoris b. Même si celle-ci ne fut annoncée qu’en 2008, soit cinq années après l’observation, elle peut être considérée, comme l’une des, si ce n’est la première, observations directes d’une exoplanète. Identifiée par l’équipe d’Anne-Marie Lagrange de l’université de Grenoble grâce à une nouvelle méthode d’analyse appliquée à des images prises cinq ans plus tôt, Bêta Pictoris b se situe à 8 fois la distance TerreSoleil de son étoile hôte. Avec une masse de près de 13 fois celle de Jupiter, Bêta Pictoris b est une planète très jeune, très chaude et donc très lumineuse dont l’âge est estimé à moins de 20 millions d’années. Le système est si jeune que le disque d’accrétion autour de l’étoile hôte est encore visible. Ces deux observations illustrent les possibilités actuelles d’observation grâce à cette technique dite de l’imagerie directe. Les techniques se sont améliorées depuis dix ans, mais nous
voyons immédiatement que nous avons affaire à des objets assez éloignés de leur étoile, très massifs, plus de 10 fois la masse de Jupiter et plusieurs milliers de fois celle de la Terre, et de surcroît très jeunes. Cette situation est directement liée aux défis technologiques à surmonter pour observer des systèmes planétaires situés à plusieurs années-lumière de la Terre. Ce challenge peut être résumé en deux mots : contraste et résolution. Pour observer une planète, on doit en effet être capable de produire un instrument ayant une résolution angulaire suffisante pour séparer la planète de l’étoile. Plus le système est éloigné, et plus il est difficile de construire un instrument ayant un miroir primaire d’une taille suffisante pour obtenir la résolution requise comme nous venons de le voir pour le principe d’interférométrie. Avec les instruments actuels, tels que ceux disponibles avec les télescopes de 8 mètres à l’observatoire de Paranal, nous pouvons ainsi détecter des objets se situant sur une orbite équivalente ou supérieure à celle de Saturne. Il faut de plus être capable de distinguer la lumière réfléchie de la planète noyée dans celle dominante de l’étoile. Cette dernière étant plusieurs milliers de fois supérieure à la première, l’instrument utilisé doit être capable d’obtenir un très bon contraste, c’est-à-dire rendre la différence de luminosité permettant de distinguer les deux objets. Pour avoir une idée du challenge technologique à surmonter pour observer une exoplanète, imaginez un touriste allumant un briquet à un mètre de la lanterne du phare du Créac’h à Ouessant et que l’on tenterait d’observer depuis Moscou… Les deux exoplanètes mentionnées précédemment illustrent le fait que la situation la plus favorable pour l’imagerie directe correspond à des objets jeunes, c’est-à-dire très brillants et éloignés de leur étoile. Les caractéristiques des télescopes actuels, d’une taille inférieure à 10 mètres, ont permis de détecter de cette manière une centaine d’exoplanètes sur les plus de 4 000 identifiées. Si la moisson a été aussi abondante depuis vingt ans, c’est grâce au développement de deux autres méthodes, qui ne cherchent pas à prendre directement une photographie de l’objet mais déduisent sa présence et ses caractéristiques en considérant l’influence de la planète ou du système planétaire sur son étoile hôte.
La première planète détectée La première image d’une exoplanète est en fait arrivée presque dix ans après la confirmation de la première détection en 1995 par Michel Mayor et son étudiant Didier Queloz. Cette détection a été faite à l’observatoire de Haute-Provence dans le sud de la France. Spécialiste des étoiles doubles, Michel Mayor étudie alors depuis plusieurs dizaines d’années le mouvement des étoiles par spectroscopie. Le principe de la spectroscopie doppler consiste à mesurer le déplacement individuel d’une étoile en mesurant la variation que ce déplacement induit sur son
spectre par effet doppler. La lumière d’une étoile est caractérisée par un spectre qui ressemble à un arc-en-ciel dans le visible avec des longueurs d’onde manquantes, c’est-à-dire des couleurs absentes. La composition de cette étoile étant fixe, au moins à l’échelle du temps d’observation disponible sur une vie humaine, les astronomes, comme les physiciens dans d’autres situations, utilisent ainsi les manques dans ces arcs-en-ciel, comme les signatures des éléments constituant l’atmosphère de l’étoile observée. Une étoile présente donc un même spectre caractérisé par un ensemble de longueurs d’onde d’absorption, c’est-à-dire manquantes, caractéristique de sa composition. Lorsqu’une étoile a un compagnon, stellaire ou planétaire, celle-ci se déplace autour du centre de masse du système formé par les deux corps. Le déplacement est proportionnel à la masse du compagnon suivant le même principe qui régit le mouvement d’un athlète lanceur de poids. Lorsqu’il tourne sur lui-même, celui-ci est entraîné plus fortement lorsque le poids à lancer devient plus important. De la même façon, si le compagnon stellaire est de taille significative, l’étoile se déplace fortement autour de ce centre de masse. Lorsque vous observez le spectre de cette étoile, entraînée autour du centre de masse par le compagnon, le spectre de l’étoile, c’est-à-dire les raies d’absorption, va se déplacer vers le rouge, autrement dit les longueurs d’onde basses lorsque celle-ci vient vers vous. Lorsqu’elle s’éloigne, l’effet inverse se produit, et le spectre de l’étoile se décale alors vers le bleu. Il s’agit ici de l’effet doppler bien connu, que l’on illustre souvent en évoquant la variation du son produit par un véhicule qui se dirige vers vous et vous dépasse. En mesurant la fluctuation du spectre d’une étoile dans le temps, on arrive ainsi à déduire la masse du ou des compagnons, si bien sûr ces déplacements ne se font pas trop loin de l’axe de visée entre l’observateur et l’étoile. Comme plus de la moitié des étoiles ont un compagnon stellaire, c’est-à-dire une autre étoile, Michel Mayor, de l’Université de Genève, comme d’autres astronomes dans les années 1980 et 1990, s’est occupé de caractériser ces compagnons. L’ambition allait au-delà de la simple statistique stellaire qui s’intéressait et s’intéresse toujours à la question de la structure de notre Univers proche et de la galaxie. Grâce à la précision croissante des techniques spectroscopiques qui devenaient capables de détecter des fluctuations de plus en plus fines dans les spectres, l’ambition était de détecter des objets de plus en plus petits, voire inférieurs à la masse critique nécessaire pour devenir une étoile. Bien que les spectromètres approchaient doucement la précision nécessaire pour mesurer les déplacements stellaires causés par des compagnons allant jusqu’à la masse de Jupiter, la limite de détection pour une planète se situait alors, dans tous les esprits, autour du temps d’observation nécessaire. Avec l’architecture du système solaire en tête, constitué de deux planètes géantes sur des orbites de douze et vingt-neuf ans, et les modèles de formation planétaires des années 1990 qui plaçaient ces dernières sur des orbites comparables, voire plus larges que ce que l’on connaît dans le système solaire, personne ne s’attendait à détecter des planètes grâce à cette méthode. Le temps d’observation nécessaire pour confirmer la présence d’une planète demandant plusieurs
oscillations de l’étoile, c’est-à-dire un temps correspondant à plusieurs périodes de celle-ci, un calcul simple prédisait sur ces bases le besoin d’un temps d’observation compris entre trente et cinquante ans pour détecter Jupiter, approchant le siècle pour Saturne. Difficile de convaincre l’étudiant en thèse, si motivé soit-il, de se lancer dans une telle aventure. Peut-être plus dramatique encore, il était tout aussi difficile de convaincre un comité de sélection, que cela soit pour obtenir du temps d’observation ou un financement, du bien-fondé de l’opération pour détecter une exoplanète. Sans la maturation technologique acquise au fils des années sous couvert de l’étude du mouvement des étoiles proches pour mieux contraindre nos connaissances sur la Voie lactée, nous serions peut-être toujours en train de chercher des exoplanètes au mauvais endroit, guidés de manière erronée par notre intuition basée sur le système solaire. Le Big Bang intellectuel causé par la découverte de la première exoplanète n’a pas été d’en trouver une, car tout le monde suspectait alors qu’elles étaient bien là, mais de les trouver si proches de leur étoile. En 1994, soit une année avant l’annonce de sa découverte, Michel Mayor et son étudiant détectent dans le spectre de l’étoile Peg51 des oscillations qui correspondraient à une planète ayant une masse 2 fois plus petite que Jupiter et une période de moins de cinq jours. La période de 4,2 jours, soit une planète de type Jupiter à l’intérieur de l’orbite de Mercure, est la donnée la plus surprenante. Mayor, en véritable gentleman comme on aimerait en voir plus souvent dans les circuits académiques, passa le reste de l’été 1994 à collecter méticuleusement ces données. Face à l’ampleur du résultat et malgré le risque non nul que d’autres équipes s’en emparent, on ne peut qu’admirer le sang-froid dont il a fait preuve et la manière avec laquelle il a déployé une stratégie de validation. Il attendit donc patiemment l’été suivant pour mener une seconde série d’observations et confirmer ce résultat des plus surprenants. On peut également se demander comment Mayor et son étudiant ont réussi à garder secret un tel résultat, quand on sait que la nouvelle de pareilles découvertes se propage en général comme une traînée de poudre dans le monde scientifique. La découverte d’une planète si grosse et si proche de son étoile, dans un système du même âge que le système solaire et autour d’une étoile assez similaire au Soleil, se plaçait en complète opposition avec la compréhension élémentaire que nous avions de la formation des systèmes planétaires. Mayor et son étudiant avancent donc prudemment dans leur publication de 1995 où l’on devine en filigrane les différentes hypothèses que Didier Queloz a dû tester durant cet hiver, sous le regard inquisiteur de son mentor qui jouait sa réputation académique avec une telle publication. Plutôt que d’annoncer en fanfare la découverte de la première exoplanète, ils choisirent de la présenter plus simplement comme un compagnon. Les deux scientifiques suggérèrent également qu’il pourrait tout autant s’agir d’une naine brune, donc d’un compagnon substellaire, se trouvant en orbite proche et ayant ainsi perdu une partie importante de sa masse par évaporation.
Cette situation est assez bien documentée pour les étoiles doubles, et plusieurs publications faisaient déjà référence à la détection possible d’un compagnon substellaire autour de HD114762. On imagine en effet que, avec une population assez large d’étoiles doubles confirmée, on puisse avoir des systèmes avec non pas deux étoiles mais une étoile et un objet d’une masse légèrement inférieure au seuil nécessaire à l’allumage. Ce compagnon tombe alors dans la catégorie des naines brunes de plusieurs dizaines de fois la masse de Jupiter, se formant non pas comme une planète, mais comme une étoile. Même si la masse obtenue pour Peg51b n’appartient pas à cette catégorie et pointe assez clairement vers une planète, la double hypothèse n’est pas anodine car elle leur permet ainsi d’avancer de façon moins brutale, présentant au mieux le résultat sans froisser les rapporteurs potentiels, collègues et compétiteurs, désignés par le journal pour autoriser la publication. La note de bas de page, ajoutée à la publication et après la soumission de l’article au comité de lecture, est plus triomphante, avec l’annonce de la confirmation de la détection de Peg51b par deux autres observatoires durant le mois d’octobre 1995, c’est-à-dire quelques semaines après l’annonce faite à la communauté scientifique. Durant ce même mois d’octobre 1995, un nouveau scénario de formation pour les planètes géantes expliquant la position de Peg51b était soumis pour publication à la même revue. Ce travail introduit la notion de migration planétaire, c’est-à-dire de l’occurrence d’un déplacement significatif entre le lieu de la formation et la localisation ultérieure dans le disque planétaire. Cette publication confirmait au passage la masse et la nature planétaire du compagnon détecté. La découverte de Peg51b changea radicalement la recherche des exoplanètes. Elle pointa les télescopes et les esprits dans une direction radicalement nouvelle, vers des objets en orbite proche qui produisent des variations temporelles pour l’étoile hôte de plusieurs ordres de grandeurs inférieurs à ce qu’indiquait l’architecture du système solaire.
Une avalanche d’exoplanètes Alors que la nature de Peg51b était âprement discutée, pas moins de sept nouveaux compagnons ont été identifiés dans l’année qui suivit. À présent que les astronomes s’étaient libérés de l’emprise du système solaire et savaient où chercher ces objets, il suffit de quelques années pour que ce nombre passe la centaine. Vingt-cinq ans après la première détection, il atteint aujourd’hui 4 100 planètes confirmées dont 665 systèmes planétaires multiples, c’est-àdire comptant plusieurs planètes. À l’heure actuelle, la méthode des vitesses radiales, qui permit la détection de la première exoplanète, n’est pas la méthode grâce à laquelle nous avons détecté le plus grand nombre
d’objets. La difficulté d’attribuer le statut de planète à Peg51b a également résidé dans le fait que cette méthode ne donne qu’une masse approximative de l’objet observé. Cette incertitude est, entre autres, liée à l’indétermination du plan de révolution de l’objet par rapport à l’observateur terrestre et à la précision avec laquelle on connaît la masse de l’étoile hôte. Ces limitations ont immédiatement poussé les astronomes à développer une autre méthode, complémentaire de celle des vitesses radiales, dite méthode des transits. Celle-ci est beaucoup plus simple conceptuellement puisqu’elle consiste à observer une étoile de manière continue et à mesurer la baisse de luminosité due au passage de l’objet devant son étoile. Cette petite éclipse permet, d’une part, de déduire le rayon et d’apporter, d’autre part, une contrainte supplémentaire sur le plan d’inclinaison de l’orbite planétaire. Cette méthode simple, utilisée depuis des siècles pour caractériser les planètes du système solaire lors de leur passage devant le Soleil, était subitement envisageable une fois que la courte période de Peg51b était intégrée dans notre perception de ce que pouvait être un système planétaire. Se lancer pour détecter le passage d’une Jupiter qui a une période de dix ou vingt ans demandait une foi certaine. Espérer en revanche un bon alignement pour détecter une planète sur une orbite de quelques jours à quelques semaines devenait soudainement envisageable. Durant l’été 1995, cherchant à confirmer que le compagnon de Peg51b était bien une planète, Michel Mayor et Gilbert Burki tentèrent de détecter Peg51b par transit mais sans succès. Le plan d’inclinaison est tel que Peg51b ne transite pas devant son étoile hôte. Il fallut attendre quatre ans, alors que le nombre de planètes détectées par la méthode des vitesses radiales commençait à dépasser la vingtaine, pour que la première exoplanète soit détectée par transit. Même si on a désormais intégré la courte période possible des exoplanètes, avec plusieurs objets confirmés, il faut tout de même une configuration assez particulière pour détecter la baisse de luminosité provoquée par l’éclipse planétaire. Pour le comprendre, il suffit d’imaginer qu’une planète tourne autour de son étoile avec une trajectoire formant une ellipse qui définit un plan passant par le centre de l’étoile. Vu depuis la Terre, ce plan est a priori orienté dans toutes les directions possibles puisque les systèmes planétaires ne sont pas rangés exprès pour favoriser une observation depuis la Terre. On comprend ainsi assez facilement que les chances d’observer un transit sont au maximum lorsque le plan est parfaitement aligné avec l’axe de visée depuis la Terre. Dans cette configuration, la planète passe devant l’équateur de l’étoile hôte et provoque la baisse de luminosité la plus importante et la plus longue possible. Dès que le plan de rotation n’est plus aligné, la planète, vue depuis la Terre, va parcourir une distance plus petite à la surface de l’étoile hôte. Cette distance sera d’autant plus petite que le plan d’inclinaison est important. Il faut en fait que le plan de rotation de la planète reste avec une inclinaison inférieure à 7-8 degrés pour que le transit demeure visible depuis la Terre. Il ne suffit donc pas d’avoir détecté une planète par la méthode des vitesses radiales pour observer son transit.
Figure 10. Passage de la planète Bêta Pictoris b devant son étoile hôte obtenu par l’instrument Sphere (© ESO/Lagrange/Sphere Consortium).
C’est avec un télescope amateur de 10 centimètres de diamètre construit par Timothy Brown dans son garage, et équipé d’une caméra CCD très performante, que son étudiant David Charbonneau a détecté le premier transit d’une exoplanète en 1999. La petite taille du télescope installé aux îles Canaries et construit à partir de pièces disponibles par des astronomes amateurs ne doit pas masquer la prouesse technologique accomplie. Celle-ci réside non pas dans la taille du télescope, mais dans l’analyse et le traitement du signal détecté. Le transit correspondant à une variation d’une fraction de pourcent de la lumière reçue de l’étoile, il faut donc accumuler cette information durant plusieurs transits afin de soustraire le bruit correspondant à la variabilité de l’étoile et aux perturbations atmosphériques. Cela permet d’extraire avec précision l’amplitude de cette baisse de luminosité ainsi que sa durée. On déduit alors le rayon et le plan d’inclinaison de la planète. En combinant les mesures de vitesses radiales qui donnent la masse avec celles du transit, on obtient ainsi la densité de la planète. Ce travail, réalisé par Brown et
Charbonneau, était effectué en étroite collaboration avec l’équipe de Mayor. Cette dernière continuait à détecter des planètes par vitesses radiales et pouvait ainsi fournir des candidats potentiels pour une détection par transit. Cette première mesure de transit pour HD209458b confirma sans ambiguïté la faible densité des premières exoplanètes détectées en orbite proche d’étoiles très similaires au Soleil, et confirma une composition proche de celles de Jupiter et de Saturne. Comme on le supposait alors pour Peg51b, HD209458b n’a pas non plus d’équivalent dans le système solaire puisqu’il s’agit d’une planète de type géante très près de son étoile. Cette première mesure de la densité d’une exoplanète annonce le démarrage d’une nouvelle ère pour la planétologie avec la découverte d’objets bien plus divers que ceux que nous connaissons dans notre système. Il marque aussi le démarrage d’une explosion du nombre de planètes détectées. Le scepticisme qui accueillit les premières découvertes laissait maintenant la place à une quasieuphorie généralisée. Cela se traduisit par du temps d’observation plus facile à obtenir pour les équipes impliquées et de nouveaux investissements permettant de construire des instruments dédiés au sol et dans l’espace. Ce changement radical est assez logique puisque la technologie liée à la taille des télescopes, à la précision des spectromètres et à la sensibilité des caméras CCD était mûre pour détecter des planètes de type Jupiter et que la démonstration était faite qu’il suffisait de les suivre sur quelques semaines pour étendre de manière significative cet inventaire de planètes extrasolaires. Cette situation est le mieux illustrée en considérant que la première détection par transit d’une exoplanète depuis l’espace n’eut lieu que sept ans plus tard avec le télescope spatial Corot. Alors qu’il faut en général une bonne dizaine d’années entre la conception et la mise en orbite d’un satellite, le temps record entre la première détection au sol et celle depuis l’espace montre que les instruments en cours d’élaboration pouvaient se joindre assez facilement à la détection de nouvelles exoplanètes. La mission Corot, dont la conception démarra avant la découverte de la première exoplanète, intégra ainsi à son programme d’observations, principalement dédié aux propriétés stellaires, une campagne d’observation de transit. Après la découverte de la première exoplanète faite à l’observatoire de Haute-Provence, c’est donc la mission Corot, née d’une initiative française et réalisée par le CNES sous la responsabilité scientifique de l’observatoire de Paris, qui détecte le transit d’une exoplanète similaire à Peg51b et à HD209458b. Si on y ajoute la première détection par imagerie directe, il est à souligner que la contribution française a été particulièrement prolifique dans cette première décennie suivant la détection de la première exoplanète. Alors que les instruments au sol dédiés à la détection des exoplanètes se multiplient et se perfectionnent, la mission Kepler de la NASA, entièrement dévolue à la détection des exoplanètes par transit, amène une avalanche de détections dans la décennie suivante. En suivant près de 150 000 étoiles de manière quasi continue, Kepler, lancé en 2009, va détecter près de 2 500 objets dont plusieurs dizaines avec des tailles comparables à celle de la Terre. La mission
Kepler a transformé le domaine des exoplanètes en révélant un quasi-continuum de planètes allant d’objets comparables en taille à celle de la Terre à plusieurs fois la masse de Jupiter et dans des configurations aussi variées qu’il est possible de l’imaginer. C’est probablement la révélation la plus saisissante de la mission Kepler qui a égrainé ses résultats de manière continue au cours de ces dix dernières années et nous a révélé une nouvelle vision de notre environnement proche. Alors que, depuis de longues années, nous levions la tête au ciel en spéculant sur le nombre de planètes existant au-delà du système solaire, sur le nombre de planètes pouvant ressembler à la Terre, la mission Kepler apporte une première réponse, incomplète mais quantitative à cette question fondamentale. La prochaine fois que vous regarderez le ciel étoilé, vous pourrez vous dire que nous savons maintenant que la quasi-totalité des étoiles visibles ont au moins une planète et qu’il y a sûrement plus de planètes que d’étoiles dans notre environnement galactique proche. Les planètes de type terrestre semblent de plus assez nombreuses et assez communes.
Figure 11. Disques protoplanétaires dans la nébuleuse d’Orion prise par le télescope spatial Hubble (© NASA M. J. McCaughrean [MPIA] et C. R. O’Dell [Rice University]).
La statistique est encore incomplète car chacune des méthodes de détection ne permet d’accéder qu’à une fraction des planètes pour chaque système planétaire, et que, même si elles sont prises de manière complémentaire, nous ne sommes toujours pas en mesure de détecter un système planétaire comparable au système solaire avec des géantes à longue période de plusieurs dizaines d’années et des planètes telluriques assez petites comme Mercure. Mais la voie est ouverte. Nous en sommes maintenant, après la mission Kepler et grâce aux détections continues sur les différentes installations au sol, à plus de 4 100 exoplanètes actuellement détectées. La diversité de ces planètes est tellement plus importante que dans le système solaire que nous commençons seulement maintenant à esquisser des stratégies pour comprendre ce que cet ensemble de données nous révèle.
Des planètes mais aussi des disques Alors que nous finissons de parcourir les grandes étapes de la découverte des exoplanètes et que nous nous apprêtons à quitter la Residencia, il faut mentionner une autre avancée complémentaire faite ces dernières années dans l’observation et la caractérisation des disques protoplanétaires. La formation d’un disque est une conséquence directe de la conservation du moment angulaire lorsque de la matière s’effondre sur elle-même pour former une étoile. Partie intégrante du processus de formation des étoiles, les disques sont observés dans l’infrarouge et à l’aide des radiotélescopes depuis plusieurs décennies pour contraindre les modèles de formation stellaire en établissant des cartes de la répartition de la matière autour des étoiles jeunes. À partir des années 1990, plusieurs campagnes d’observations au sol et dans l’espace ont permis d’établir que ces disques contenaient suffisamment de matière pour produire un cortège de planètes. On a pu de plus montrer qu’ils étaient aplatis et en rotation, suggérant que notre compréhension de la formation stellaire et peut-être même des planètes était sur la bonne voie.
Figure 12. Images à haute résolution de disques protoplanétaires proches obtenues avec ALMA Projet (DSHARP) (© ALMA [ESO/NAOJ/NRAO], S. Andrews et al., N. Lira).
Le télescope spatial Hubble obtient les premières images de disques protoplanétaires autour d’étoiles jeunes de la nébuleuse d’Orion au milieu des années 1990. Ces images ont confirmé, sans équivoque, l’existence des disques protoplanétaires et ont lancé plusieurs campagnes d’observations et le développement de nouveaux équipements pour les caractériser de manière systématique autour d’étoiles de différents types. Après vingt-cinq ans d’observations, nous avons maintenant une collection d’images aussi impressionnantes les unes que les autres. Elles nous révèlent des structures diverses et variées, uniques à chaque étoile et montrant, pour la plupart, des variations de luminosité qui suggèrent des sillons peut-être creusés par des planètes en formation. Deux instruments complémentaires, l’un utilisant l’interférométrie et travaillant dans l’infrarouge, ALMA (Atacama large millimeter/submillimeter array), et l’autre que nous avons déjà mentionné, Sphere, produisent actuellement des images de disques d’une résolution permettant d’entrevoir la complexité des phénomènes dont ils sont le siège. Berceaux probables des planètes, ces disques sont maintenant observés et caractérisés en détail pour comprendre comment la matière s’y déplace, comment les éléments s’y répartissent en fonction de leur distance à l’étoile et pour éclaircir l’origine de la structure en bandes observée pour plusieurs d’entre eux. Ces propriétés, et d’autres, sont de toute première importance pour comprendre l’architecture des systèmes planétaires et la répartition des planètes qui en découlent. Avec la découverte des exoplanètes en nombre, la caractérisation des disques protoplanétaires qui se déroule en ce moment va offrir une opportunité unique de mieux appréhender l’origine de cette diversité planétaire saisissante.
CHAPITRE 5
L’histoire du système solaire chamboulée
Alors que la découverte des exoplanètes semble, à première vue, une question bien éloignée de nos préoccupations quotidiennes, elle est en passe de révolutionner l’histoire du système solaire et, par voie de conséquence, l’histoire de la Terre sur 4,5 milliards d’années. La découverte de la première exoplanète, une planète géante comparable à Jupiter à l’intérieur de l’orbite de Mercure et les milliers d’autres qui suivirent sans équivalent dans le système solaire, nous conduit naturellement à nous poser la question des événements qui ont amené les planètes du système solaire dans cette configuration si particulière et les exoplanètes dans une répartition beaucoup plus anarchique. La distribution quasi aléatoire des planètes géantes dans les systèmes exoplanétaires a surpris. Elle a naturellement mis à mal les modèles de formation et d’évolution des systèmes planétaires développés sur un ensemble de données restreint, celles du système solaire avec une planète géante à cinq unités astronomiques (5 fois la distance Terre-Soleil). Cette découverte est aussi venue en résonance avec un autre questionnement, bien plus ancien celui-ci, et concernant la stabilité du système solaire. Cette stabilité se rapporte sur Terre au rythme des années, des saisons, des jours et de leur régularité depuis la naissance du système solaire. Il se rattache également au mouvement de la Lune, des planètes et des autres objets qui le composent et pose naturellement la question de savoir si des collisions ou des changements brusques ont eu lieu ou sont possibles dans un avenir proche. La Terre tourne actuellement sur elle-même en à peu près 24 heures, autour du Soleil en un peu plus de 365 jours sur une orbite elliptique avec un axe de rotation incliné de 23° 26’. En a-t-il toujours été ainsi et en sera-t-il toujours de même ? L’étude de cette stabilité et de sa déclinaison dans le rythme astronomique de la Terre est la fonction première de l’astronomie. C’est une préoccupation majeure depuis la nuit des temps que l’on retrouve dans les cultures les plus anciennes. La découverte de systèmes planétaires bien différents du nôtre, avec une répartition des planètes qui ne ressemble en rien au
système solaire, montre qu’il peut en être bien autrement. Les événements qui amènent à ces situations si différentes bouleversent notre perception du mouvement des planètes que l’on voulait immuable, stable, sans danger et prédictible sur le très long terme. Il n’en est rien. On découvre qu’un système planétaire est dynamique, chaotique et parfois instable. C’est une révolution conceptuelle qui nous éloigne du déterminisme auquel nous sommes attachés pour décrire le monde qui nous entoure depuis la science grecque. Nos ancêtres les Gaulois, dont nous sourions allègrement depuis l’école primaire, incarnés qu’ils sont sous les traits d’Astérix, n’avaient peut-être pas complètement tort d’intégrer dans leur mythologie celtique la crainte que le ciel pourrait leur tomber sur la tête. Le problème ne concerne bien sûr pas tant l’existence des grandes colonnes druidiques soutenant la voûte céleste qui peuvent rompre à tous moments, mais il conduit à s’interroger sur la course des planètes, dont la Terre fait partie, sur la nature de leur mouvement et le degré de prédictibilité de leur trajectoire dans le futur comme dans le passé. Cette question de stabilité ou d’absence de stabilité est directement liée à celle de savoir si l’architecture planétaire que nous connaissons est générique et reproductible, si elle peut se retrouver autour d’autres étoiles et à quelle fréquence. Si le système est instable et dynamique, il devient le produit d’événements plus aléatoires alors qu’il se trouve plus générique dans le cas contraire. Avec la découverte des exoplanètes et une meilleure connaissance du système solaire grâce à l’exploration spatiale, c’est avant tout grâce à une troisième révolution que ces questions ont finalement trouvé une réponse. Il s’agit de la révolution numérique et de la possibilité de simuler le mouvement des systèmes planétaires sur des temps longs.
Laplace et notre besoin de stabilité : un premier scénario de formation du système solaire Depuis le XVIIIe siècle, le cadre théorique principal décrivant la formation du système solaire repose sur la formulation de Kant-Laplace. Ce modèle place la formation du système solaire dans le contexte de la formation stellaire en postulant que les planètes se sont formées à partir de la même nébuleuse qui a donné naissance au Soleil. Ce modèle de formation se déroule en quatre étapes, démarrant avec une nébuleuse de gaz et de poussières qui s’effondre sur elle-même tout en se mettant en rotation. Cette nébuleuse peut initialement s’étendre sur plusieurs centaines d’unités astronomiques. La majeure partie de la matière se concentre progressivement au centre tandis que, sous l’effet de la rotation, le disque s’aplatit pour former une couronne. En se contractant, la rotation s’accélère par conservation du moment angulaire comme une patineuse qui tourne sur elle-même et qui referme les bras. La densité et la température augmentent au
centre du nuage. Lorsque la pression et la température atteintes sont suffisamment importantes pour déclencher les réactions nucléaires, l’étoile s’allume et commence à rayonner.
Figure 13. Formation du système solaire dans le cadre du modèle de Kant-Laplace (planètes : © NASA, légendes : © Y. Gominet/IMCCE).
Pendant ce temps, le pourcent de matière restant coagule progressivement pour former les planètes alors que le disque se refroidit. Les planètes rocheuses se forment près du centre de la nébuleuse où la température du disque initiale et le rayonnement de l’étoile sont tels que l’eau ou les autres éléments légers comme le méthane ou l’ammoniac ne se trouvent pas à l’état de glace. Dans cette région de la nébuleuse proche de l’étoile, seuls le fer et les silicates qui ont une température de fusion plus élevée peuvent condenser, c’est-à-dire se retrouver à l’état solide. Cette séparation entre la région du disque où l’eau est à l’état gazeux et celle où elle se trouve à l’état solide est la ligne des glaces. Au-delà de cette ligne, que nous avons évoquée précédemment, à une distance suffisamment éloignée du centre du disque et de l’étoile naissante, les planètes sont alors également formées de matériaux plus légers qui condensent à des
températures plus basses, comme les glaces d’eau, de méthane ou d’ammoniac. L’ensemble du processus prend quelques centaines de millions d’années et place les planètes à l’endroit de leur formation avec des débris qui s’étendent jusqu’à la ceinture de Kuiper. Ce modèle initial de la formation du système solaire a le mérite de donner une explication pour plusieurs faits observationnels. Le Soleil et les planètes tournent dans le même sens, ce qui suggère qu’ils sont issus du même disque d’accrétion. Les planètes se déplacent également sur des orbites quasi circulaires, dans le même plan, qui correspond aussi au plan équatorial de rotation du Soleil. La composition des planètes varie en fonction de la distance au Soleil et en accord avec les phases de condensation des différents éléments constituant le disque. On en déduit ainsi qu’il est naturel de trouver des planètes telluriques, constituées principalement de fer et de silicates près du Soleil. Il s’agit de Mercure, de Vénus, de la Terre et de Mars. On trouve, en accord avec ce modèle, des planètes plus massives, Jupiter, Saturne, Uranus et Neptune, qui peuvent se former non seulement à partir du fer et des silicates, mais aussi d’un mélange de glaces présentes sous formes solides aux distances plus larges. Ce modèle de formation explique aussi l’existence des planètes externes dont la masse décroît en fonction de la distance au Soleil. On conçoit même assez naturellement l’existence de Pluton et de la ceinture de Kuiper comme des protoplanètes et des planétésimaux de tailles diverses allant jusqu’aux noyaux de comètes, n’ayant pas eu suffisamment de matière pour constituer des planètes à part entière car situés en bordure du disque. Cette version simplifiée de la formation du système solaire laisse bien entendu dans l’ombre plusieurs éléments et chaque étape a fait, et fait encore aujourd’hui, débat. Ce modèle n’est pas non plus arrivé depuis le XVIIIe siècle sans encombre. Il était en fait rejeté au début du XXe siècle en raison d’une considération physique simple. On observe en effet que les planètes qui tournent possèdent 99 % du moment cinétique du système alors que le Soleil possède, lui, 99 % de la masse. Il y a donc un découplage entre la rotation du Soleil et le mouvement des planètes, d’une part, et entre la répartition des masses entre la masse du Soleil et celle des planètes, d’autre part. Combinées, ces deux observations ne peuvent pas s’expliquer dans le cadre de l’effondrement simple d’une nébuleuse comme décrit plus haut. Cet abandon du modèle de la nébuleuse solaire durant la première partie du XXe siècle a eu des conséquences sérieuses sur notre estimation du nombre de planètes et d’exoplanètes existant dans l’Univers. Le modèle de la nébuleuse planétaire suggère en effet que la formation des planètes est une conséquence naturelle de la formation stellaire et donc, en toute logique, que la totalité des étoiles ont des planètes. Le système solaire est, dans ce cadre, un système banal, comme il en existe autour de toutes les étoiles, et son architecture est la norme pour anticiper la distribution des planètes dans d’autres systèmes. L’abandon de la théorie de la nébuleuse solaire au début du XXe siècle pour résoudre le paradoxe du moment angulaire du système solaire a donné lieu à plus de cinquante ans d’égarement à la recherche d’une théorie alternative viable. L’idée sous-jacente à ces différentes
théories est simplement de découpler la formation du Soleil de celle des planètes et ainsi de faire disparaître le problème du moment angulaire. Cette vision se retrouve dans sa forme la plus aboutie avec le modèle de Jeans, apparu durant la Première Guerre mondiale. Celui-ci postule l’existence d’un filament de matière éjectée par un Soleil très actif. Ce filament de matière est ensuite morcelé par les effets de marée causés par le passage d’une étoile massive dans le voisinage du Soleil. Ce nouveau paradigme et les développements théoriques qui suivirent jusqu’après la Seconde Guerre mondiale éliminent le problème du moment angulaire du système solaire. Ce modèle ne parvient en revanche pas à donner une explication pour le mouvement, la distribution et la formation des planètes du système solaire. Il n’explique pas non plus le cortège de satellites qui accompagnent ces planètes. Une théorie de la formation du système solaire doit, bien entendu, prendre en compte l’observation irréfutable que les planètes ont des cortèges de satellites qui peuvent être importants, comme nous l’avons vu pour les planètes du système externe. Il est intéressant de constater que, durant la plus grande partie du XXe siècle, l’abandon du modèle de la nébuleuse solaire entraîne également une baisse dramatique de notre estimation du nombre de planètes dans l’Univers. Alors que le modèle de la nébuleuse solaire offre un cadre générique pour imaginer la formation de planètes autour de toutes les étoiles, le modèle de Jeans, qui se base sur le passage d’une étoile de masse suffisamment importante près du Soleil pour créer les planètes par effet de marée, s’appuie sur la probabilité faible d’un tel événement. On peut en effet regarder la densité d’étoiles autour du Soleil et rapidement se rendre compte que celle-ci est extrêmement faible. Comme nous l’avons vu précédemment, l’étoile la plus proche du Soleil se trouve à 4,3 années-lumière, et la densité d’étoiles est estimée aux alentours de 0,004 étoile pour un cube d’une année-lumière de côté. Ces quelques données, déjà acquises dans la première moitié du XXe siècle, amènent assez rapidement à la conclusion que le cortège planétaire du système solaire, s’il résulte d’un effet de marée dû au passage assez proche d’une étoile massive, est nécessairement un événement rare, avec une faible probabilité de se produire pour un autre système. Il faut en effet que, lors de cette rencontre rare, l’étoile soit suffisamment massive et passe assez près de l’étoile pour générer l’effet de marée nécessaire. Nous sommes ainsi passés de la vision d’un Univers peuplé de systèmes planétaires comparables au système solaire à l’idée, pendant la plus grande partie du XXe siècle, que la formation d’un système planétaire était un événement rare. L’estimation du nombre de planètes existantes dans l’Univers est ainsi tombée de plusieurs milliards, si l’on s’appuie sur le nombre d’étoiles recensées, à quasiment zéro. Cette réalisation a semé le doute pour ce modèle de formation du système solaire dès les années 1930 mais il faudra attendre les années 1970 et des avancées dans la théorie de la formation stellaire pour abandonner définitivement l’idée d’une formation indépendante entre le Soleil et le cortège planétaire. Après plusieurs décennies d’errements nous sommes ainsi revenus à la théorie de la nébuleuse solaire.
Dans cette version moderne du modèle de la nébuleuse solaire de Kant-Laplace, le problème du moment angulaire est résolu en considérant que le Soleil est passé par une phase dite T-Tauri très active. Cette phase, portant le nom de l’étoile pour laquelle ce nouveau fait a été observé, est maintenant bien caractérisée pour un grand nombre d’étoiles jeunes. La phase T-Tauri correspond à des étoiles n’ayant pas encore atteint leur régime de croisière où elles brûlent de manière stable leur réservoir d’hydrogène. Durant la première centaine de millions d’années, ces étoiles commencent leur allumage en produisant des vents stellaires très violents tout en éjectant une quantité de matière très importante. La découverte remarquable dans le cas qui nous occupe est que cette phase s’accompagne d’un ralentissement important de la rotation de l’étoile jusqu’à ce qu’elle atteigne la séquence principale, c’est-à-dire le régime où elle est stable pour plusieurs milliards d’années, comme le Soleil aujourd’hui. Lorsque nous regardons le Soleil tourner, sa rotation n’est donc plus une relique de la rotation initiale du disque à partir duquel il s’est formé, mais une rotation ralentie par la phase T-Tauri active par laquelle il est passé. La meilleure compréhension de la naissance des étoiles comme le Soleil dans la seconde partie du XXe siècle est ainsi venue résoudre le problème du moment cinétique qui paralysait la théorie de la nébuleuse solaire depuis le début du siècle. Après soixante-dix années d’errements, le modèle de la nébuleuse planétaire redevient le cadre de travail de la théorie de formation du système solaire, où les planètes se forment à partir de la matière résiduelle de la nébuleuse primitive. La théorie de Kant-Laplace, sous sa forme moderne, remet donc l’existence de systèmes planétaires autour de chaque étoile comme la norme et repousse ainsi le nombre de planètes possibles dans l’Univers proche à plusieurs milliards. Les années 1970 voient aussi une forme plus aboutie de la théorie de formation des planètes qui s’appuie sur les phases de condensation des différents éléments disponibles dans la nébuleuse, comme nous l’avons vu précédemment. Dans ce prolongement, l’histoire du système solaire en cette fin du XXe siècle place donc les planètes à l’endroit où elles se sont formées après quelques centaines de millions d’années. Elles sont, de fait, composées des matériaux disponibles dans le disque au voisinage du lieu de formation. Cette version moderne de la nébuleuse planétaire confirme donc la répartition du type de planètes en fonction de la distance au Soleil avec les planètes de type terrestre composées de matériaux comme le fer et les silicates aux températures de fusion très élevées près du Soleil et celles constituées des glaces aux températures de fusion plus basses loin de celui-ci. Elle postule également une formation suffisamment rapide pour que l’ensemble se soit formé en quelques centaines de millions d’années. Dans ce cadre, le système solaire, avec son architecture de planètes, est la norme pour l’ensemble des systèmes planétaires. De plus, on considère qu’il est resté en l’état depuis plus de 4,5 milliards d’années. Dans ce cadre de travail retrouvé, il reste encore de nombreux problèmes à résoudre pour expliquer l’architecture du système solaire dans son ensemble. Pour n’en citer que quelques-uns, ce modèle doit en effet encore expliquer la présence de la ceinture d’astéroïdes, de l’eau sur
Terre, de la variation de la taille des planètes telluriques en fonction de leur distance au Soleil, de la formation des satellites et, plus particulièrement, de la taille de la Lune qui apparaît comme anormale. Les étapes précises de la formation des planètes où il faut passer de grains de poussières de quelques micromètres à des objets de taille de plusieurs milliers de kilomètres sont également l’objet de discussions. C’est au milieu de cette réflexion et dans un cadre conceptuel à peine consolidé que la découverte d’une exoplanète de la taille de Jupiter à l’intérieur de l’orbite de Mercure est venue une nouvelle fois jeter un trouble de taille sur l’histoire du système solaire racontée dans le cadre du modèle de la nébuleuse solaire. La version moderne du modèle de la nébuleuse solaire postule que les planètes se sont formées à l’endroit où on les trouve aujourd’hui, et à partir des matériaux du disque disponibles dans leur voisinage. L’argument principal est, comme nous l’avons vu, directement lié aux phases de condensation, c’est-à-dire à la capacité des différents éléments de se trouver dans une phase solide en fonction de la distance à l’étoile. Les modèles de formation d’une planète comme Jupiter, qui représente près de 300 fois la masse de la Terre, supposent une première étape de formation rapide d’un noyau de plusieurs dizaines de fois la masse de la Terre afin d’accréter rapidement la quantité d’hydrogène et d’hélium constituant l’enveloppe. Cela ne semble envisageable qu’au-delà de la ligne des glaces, c’est-à-dire au-delà de la distance à partir de laquelle l’eau et les autres éléments comme l’ammoniac ou le méthane peuvent se trouver sous la forme de glaces et ainsi participer à la formation plus rapide du noyau. La présence d’une planète géante proche de son étoile hôte n’était donc pas du tout imaginée par ces modèles de formation planétaire. L’annonce de la découverte d’une exoplanète dans cette configuration, suivie par plusieurs autres à la fin des années 1990 et au début des années 2000, est donc venue à nouveau mettre en question les fondements du modèle de la nébuleuse solaire. La résolution de ce problème va s’appuyer sur l’essor d’une nouvelle branche de l’astrophysique qui émerge à cette époque avec l’arrivée de supercalculateurs. La puissance de calcul formidable mise à disposition va ainsi permettre la résolution d’un problème très ancien grâce à l’astrophysique numérique. Le modèle de la nébuleuse solaire va donc se trouver une nouvelle fois remanié et augmenté par deux concepts fondamentaux jusqu’ici mis de côté. Il s’agit des effets de la dynamique et de la migration qui balaient d’un trait le concept simple et rassurant d’un système solaire où le mouvement des planètes est stable et immuable depuis sa formation, c’est-à-dire depuis plus de 4,5 milliards d’années.
Le système solaire est en fait chaotique
La question de la stabilité du système solaire est l’une des grandes questions scientifiques qui a agité les plus grands astronomes depuis la Renaissance. Dès l’énoncé de la loi de la gravitation, Newton s’est tout de suite rendu compte que se posait la question de la stabilité du système solaire, c’est-à-dire de l’aptitude de ce dernier à maintenir sa configuration actuelle. Dans le cadre de la théorie de la formation du système solaire suivant le modèle de la nébuleuse solaire, la seule chose qui reste à faire aux planètes une fois formées est de continuer à tourner inlassablement autour du Soleil. La régularité de ce mouvement dans la durée, similaire à celui d’une horloge, est d’ailleurs l’une des images qui nous vient droit du XIXe siècle sous la forme des planétaires. Il s’agit d’horloges décrivant le mouvement des planètes et suggérant, comme le faisaient les Grecs, le caractère immuable de celui-ci. Se poser la question de la stabilité du système solaire revient donc à s’interroger sur la précision d’une telle horloge décrivant le mouvement des planètes. En formulant la théorie de la gravité, qui, comme nous l’avons vu, consiste à définir une force d’attraction entre deux corps célestes proportionnelle à leurs masses et inversement proportionnelle à leur distance, Newton pose les bases mathématiques d’un problème formellement insoluble pour le système solaire. Reprenant la maxime anglaise bien connue « Two is company, three is a crowd 1 », nous nous trouvons dans la situation où l’interaction entre trois corps se décrit pour chaque corps comme la superposition des interactions dues aux deux autres corps. C’est un problème fondamental en physique, que l’on retrouve pour la gravitation mais aussi entre les particules de même charge puisque l’interaction coulombienne entre particules chargées suit le même type de loi à deux corps que la loi de la gravitation. Pour le système solaire, cela traduit tout simplement que, si nous n’avions qu’une seule planète autour du Soleil, celle-ci suivrait les lois de Kepler que nous avons vues précédemment. Si nous avons maintenant deux planètes qui tournent autour du Soleil, chaque planète va donc perturber le mouvement képlérien de l’autre et être à son tour perturbée par celle-ci. Ces deux planètes ne vont donc a priori pas suivre leur mouvement en ellipse sur le long terme. Comme nous n’avons pas deux planètes, mais huit auxquelles s’ajoutent une multitude d’objets de différentes tailles comme les comètes dont la masse n’était pas connue au XVIIe siècle, le problème de la stabilité de l’ensemble du système solaire s’est posé dès que la loi de la gravitation a été établie. Il se traduit par une question des plus simples, énoncée par Newton qui doutait déjà de cette stabilité. Combien de temps faut-il pour que les planètes changent leurs orbites de manière significative alors qu’elles tournent à des vitesses différentes autour du Soleil en se perturbant mutuellement ? Les planètes ayant des masses bien moindres que le Soleil, ces perturbations étaient perçues dès le début comme faibles. Leur accumulation sur des temps longs a, par contre, tout de suite posé question. Au XVIIIe siècle, cette interrogation entrait de plus en résonance avec un fait astronomique bien connu indiquant qu’il existait un décalage des positions de Saturne et de Jupiter depuis celles mesurées par Ptolémée et celles obtenues par Tycho Brahe (vers 1600). Ce décalage montrait que Jupiter semblait s’approcher du Soleil tandis que Saturne apparaissait,
au contraire, comme s’en éloignant. Il suggérait de plus que les mouvements de ces deux planètes n’étaient pas réguliers. Le questionnement à cette époque était alors double. Il portait sur la stabilité du système solaire mais également sur le bien-fondé de la théorie de la gravitation de Newton et sa capacité à décrire le système solaire dans son ensemble. L’Académie des sciences établit à partir de cette date plusieurs prix pour résoudre ce problème sur lequel les plus grands mathématiciens et astronomes tels qu’Euler, Halley, Lalande, Lagrange, Laplace, Poincaré, Le Verrier, etc., se sont penchés pendant presque deux siècles avec, une fois encore, des résultats fluctuants dans leurs conclusions. On doit une première série de réponses à Lagrange et à Laplace qui déterminent, à la fin du e XVIII siècle, et contrairement aux travaux effectués précédemment par Euler et Halley, que le demi-grand axe de l’orbite elliptique de Jupiter, c’est-à-dire le plus grand rayon de l’ellipse représentant son orbite, est un invariant, si l’on considère seulement le mouvement de Saturne. En d’autres termes, ils établissent tous les deux que ce n’est pas l’influence mutuelle des deux planètes géantes seule qui peut expliquer les irrégularités observées. Cette conclusion, qui vient directement contredire les observations, est obtenue après un échange intéressant entre les deux hommes qui, à bien des égards, révèle ce qui serait aujourd’hui considéré comme un manque d’éthique de la part de Lagrange. Il s’empressa, en effet, de publier dans les cahiers de l’Académie des sciences de Paris les premiers résultats – certes, quelque peu développés – que Laplace lui avait envoyés pour avis. Tout en donnant crédit à Laplace, Lagrange s’arrangea tout de même pour que les travaux de ce dernier, bien qu’antérieurs aux siens, ne soient publiés que près de cinq ans plus tard : une éternité dans un monde où les communications, entre deux pays de surcroît, étaient quasiment inexistantes. Au-delà de l’anecdote, qui rappelle que les scientifiques, si grande soit l’admiration que leur portent leurs successeurs, n’en restent pas moins très humains dans la perspective de leurs contemporains, ces premiers travaux de Lagrange et de Laplace vont lancer les bases d’une science prédictive de haute précision pour décrire le mouvement des planètes, ce que l’on appelle aujourd’hui la mécanique céleste. Au cours des deux siècles suivants, on verra se développer les théories mathématiques les plus avancées et les plus abouties sur la dynamique des systèmes. Ces deux précurseurs parvinrent encore à montrer, quelques années plus tard, que le retard observé sur le mouvement de Jupiter et de Saturne est bien le résultat de l’action mutuelle des deux planètes. En revanche, celui-ci ne se traduit pas par un changement de la longueur du demigrand axe de chacune des orbites qui amènerait le système dans un régime d’instabilité. Ils expliquent cette observation par la variation périodique de la rotation du plan de l’orbite dans le plan de rotation et de la rotation du plan de l’orbite dans l’espace. Grâce à ces développements, Laplace et Lagrange arrivent à des résultats concordant avec une précision remarquable avec les observations effectuées pendant plusieurs siècles depuis Ptolémée et, de surcroît, en s’appuyant seulement sur la théorie de la gravitation comme énoncée par Newton. Ils permettent ainsi d’établir que celle-ci suffit à décrire les mouvements des
planètes du système solaire, que celui-ci est stable sur des temps suffisamment longs bien que la masse des planètes internes ne soient pas déterminées avec une très grande précision. Ils montrent également que les comètes, un moment soupçonnées d’être à l’origine des irrégularités observées dans les mouvements des deux planètes géantes en raison de l’incertitude portant sur leurs masses exactes, sont, en fait, de petits objets n’entraînant pas de fortes perturbations sur le mouvement des planètes. Il était donc prouvé dès le début du XIXe siècle que le système solaire était stable mais que le mouvement des planètes ne formait pas simplement des ellipses parfaites comme le prédisait Kepler, mais que celles-ci étaient animées de mouvements périodiques provenant de l’influence mutuelle des autres planètes. C’est plusieurs décennies plus tard, sous les auspices de Le Verrier qui n’avait pas encore découvert Neptune à partir des irrégularités observées sur Uranus et qui perfectionnait les calculs de Lagrange et de Laplace pour corriger les effets dus aux planètes internes dont les masses n’étaient pas connues avec une très grande précision, qu’il apparaît que les calculs de Lagrange et de Laplace appartenaient à une série non convergente. Une des méthodes les plus courantes en physique pour résoudre un problème qui n’a pas de solution mathématique exacte est de l’approcher de manière perturbative. Pour ce qui concerne le problème des orbites planétaires, cela revient à considérer les orbites elliptiques de Kepler comme l’approximation première et l’effet des autres planètes comme une suite de perturbations dont l’ampleur va en ordre décroissant. On approche de cette manière la solution en y ajoutant des perturbations de plus en plus petites jusqu’à la précision demandée. L’hypothèse sous-jacente à toutes les approches perturbatives réside dans la décroissance de ces perturbations. Le travail de Lagrange et de Laplace a consisté à trouver une formulation mathématique représentant les trajectoires des deux planètes géantes permettant d’approcher celles-ci de manière perturbative. Le Verrier se rend alors compte, et notamment pour le mouvement des planètes internes, que cette série de perturbations, utilisée par Lagrange et Laplace au premier ordre, n’est pas convergente. En d’autres termes, les perturbations d’ordre plus élevé ne sont pas plus petites mais plus grandes pour certaines valeurs de masse des planètes internes. C’est une situation assez répandue en physique où l’on a tendance à momentanément arrêter les méthodes perturbatives à l’ordre de grandeur permettant de retrouver un ensemble restreint de résultats expérimentaux ou observationnels. Ces méthodes sont souvent reprises par la suite, quand de nouvelles observations viennent demander une précision plus grande ou lorsqu’elles mettent en défaut les résultats partiels obtenus. Ce problème a été ainsi reformulé une nouvelle fois d’un point de vue mathématique par Poincaré, près d’un siècle après Laplace et Lagrange, avec l’ambition d’établir les propriétés générales de la série de perturbations. Poincaré arrive alors à la conclusion que cette série est probablement formellement divergente, c’est-à-dire que, sur un temps infiniment long, le système solaire est probablement instable mais qu’il reste stable sur l’intervalle de temps écoulé depuis sa formation.
Ce travail se poursuit par plusieurs développements mathématiques jusqu’aux années 1990, dans la mesure où il ne concerne pas uniquement la stabilité du système solaire dans son ensemble, mais aussi le mouvement sur le long terme de plusieurs petits objets du système solaire, comme les astéroïdes suffisamment proches de l’orbite terrestre pour venir la croiser. Il a de plus été augmenté par les résultats de la relativité générale dans la première partie du e XX siècle mais sans changement majeur pour ce qui est de la question de la stabilité du système solaire. Jusqu’à très récemment, c’est-à-dire une vingtaine d’années, la situation était donc que l’on considérait le système solaire comme étant formellement instable, mais stable sur une durée correspondant à son âge. Il est important de noter que cette conclusion, qui puise ses fondements dans une formulation très formelle et mathématique du problème, pouvait être considérée comme satisfaisante parce que nous n’avons pas de données observationnelles précises sur la position des planètes allant au-delà des observations de Ptolémée, c’est-à-dire sur au plus deux millénaires. Cette situation est souvent jugée satisfaisante par les physiciens et astronomes – qui, comme on le voit dans ce cas précis, se distinguent souvent des mathématiciens s’agissant de l’objectif de leurs travaux. Ces deux siècles de travail analytique, se basant sur des développements mathématiques de plus en plus formels pour trouver des solutions au problème de la gravitation à plusieurs corps, va prendre un nouvel élan avec l’arrivée et la démocratisation de la puissance de calcul offerte par l’essor des supercalculateurs à partir des années 1990. Comme pour la quasi-totalité des disciplines scientifiques, cette puissance de calcul va permettre de revisiter bon nombre de problèmes, seulement approchés de manière perturbative, en calculant de manière explicite et sans approximation ses solutions. Pour ce qui est du problème de la stabilité du système solaire, cela revient simplement à calculer les trajectoires des différentes planètes sans se soucier de la forme mathématique de la solution, puisque celles-ci sont obtenues sans approximation sur des temps longs en avançant méthodiquement leurs positions en fonction des interactions des autres planètes. Ces interactions sont, dans ce cas, simplement prises en compte de manière directe comme la somme des interactions exercées par les autres planètes. Le travail n’en reste pas moins titanesque puisque le pas d’intégration, c’est-à-dire l’intervalle de temps maximal que l’on peut utiliser pour calculer la prochaine position des planètes, est limité par la vitesse de la planète qui se déplace le plus vite. Pour le système solaire, cela se traduit par un pas de temps d’une demi-journée, si l’on prend en compte le système solaire en entier avec le mouvement de Mercure et de la Lune, ou d’une dizaine de jours si on se limite au système externe de Jupiter à Pluton. Ces deux valeurs donnent une idée de la difficulté qui reste tout de même à surmonter pour tester la stabilité du système solaire par calcul direct. Pour remonter jusqu’à son origine à 4,5 milliards d’années, il faut ainsi évaluer les forces exercées sur chaque planète et les positions induites par celles-ci près de 3 000 milliards de fois. Les ordinateurs montent en puissance à la fin des années 1980 et au début des années 1990, mais pas suffisamment pour tacler ce problème de manière frontale. Le calcul parallèle,
qui consiste à utiliser plusieurs centaines, voire plusieurs milliers de processeurs pour résoudre un problème, n’offre qu’une aide partielle dans ce cas. Il permet formellement de calculer plus rapidement l’influence des autres planètes, c’est-à-dire les forces exercées, de raffiner celles-ci et de prendre en compte plus de planètes. Ce n’est pas forcément suffisant dans le cas du système solaire avec son nombre fini de planètes. L’accélération offerte par le calcul parallèle est limitée par la nécessité d’avancer simultanément, et sur toutes les machines impliquées, la position des planètes au pas de temps suivant. Cette dernière étape doit être effectuée sur tous les processeurs à la fois, ce qui empêche d’aller plus vite qu’un seul processeur. La puissance de calcul disponible à partir des années 1990 permet d’aller plus vite, mais pas encore assez pour résoudre le problème de la stabilité du système solaire en simulant le mouvement des planètes sur un temps correspondant à l’âge du système solaire. Alors que les différentes tentatives pour résoudre le problème de manière directe atteignent difficilement les quelques millions d’années, Jacques Laskar, alors jeune chargé de recherche au CNRS, présente à l’observatoire de Paris une solution pour repousser la limite temporelle alors accessible par simulation. Pour ce faire, il s’inspire des travaux de ses prédécesseurs, Lagrange et Laplace, pour décrire non pas directement le mouvement de chacune des planètes comme le faisaient ses contemporains, mais à la place celui des propriétés de leurs trajectoires elliptiques perturbées mutuellement les unes par les autres. L’algèbre nécessaire pour ce faire se trouvait désormais accessible grâce à la puissance numérique. Cette transformation mathématique des équations à résoudre autorisait ainsi un pas d’intégration non pas d’une demi-journée, mais de 500 jours. Ce bond quantitatif lui permit de simuler pour la première fois le système solaire sur plus de 200 millions d’années. Au-delà de la prouesse informatique et mathématique permettant de prédire l’évolution des orbites planétaires sur des échelles de temps jusqu’ici jamais atteintes, étirant ainsi cet horizon temporel posé par les observations grecques de plusieurs ordres de grandeurs, ce calcul démontre surtout de manière retentissante que le système solaire est non seulement instable, mais formellement chaotique. Deux siècles de travaux intensifs, initiés par Lagrange et Laplace et poursuivis par les plus grands mathématiciens et astronomes pour établir la stabilité du système solaire, s’effondraient avec ce résultat. Les implications sont à la fois pratiques et conceptuelles et vont bien au-delà de la simple constatation d’une instabilité relative sur des temps approchant l’âge du système solaire, dont relève, par exemple, la position de Poincaré. Le chaos pour les systèmes dynamiques, c’est-à-dire pour un système avec plusieurs corps interagissant comme pour le système solaire, implique que nous ne pouvons plus prédire l’évolution temporelle du système de manière déterministe. En d’autres termes, partant de conditions initiales voisines, l’évolution temporelle d’un système chaotique va produire des positions finales très différentes. Pour le système solaire, cela implique que nous ne sommes pas capables de prédire précisément la position des différentes planètes sur un temps dépassant environ 80 millions d’années. Cette situation existe, que l’on considère l’évolution temporelle
positive, c’est-à-dire dans le futur, ou, de manière tout aussi importante, voire plus importante, que l’on cherche à remonter dans le passé. Au-delà de ce temps relativement court à l’échelle de l’âge du système solaire, nous devons ainsi abandonner l’espoir d’obtenir une description déterministe de l’évolution des planètes pour le système solaire. Nous ne pouvons plus parler que de probabilités de réalisations constituées de manière pratique par l’ensemble des simulations réalisées et des trajectoires obtenues. Les conséquences de ce résultat sont multiples. Les propriétés chaotiques du système solaire s’exprimant surtout pour les planètes internes, Mercure, Vénus, la Terre et Mars, nous avons une probabilité non nulle que l’excentricité de Mercure change suffisamment pour entrer en collision avec Vénus d’ici quelques milliards d’années. Une possibilité, faible mais non nulle, existe aussi que le système interne dans son ensemble se déstabilise, ce qui pourrait conduire à des collisions entre planètes, voire à l’éjection de certaines d’entre elles, sur des temps comparables. Le caractère chaotique du mouvement des planètes internes va aussi se propager pour l’inclinaison de l’axe de rotation pour les différentes planètes. Cela a donné lieu à des variations climatiques sur le long terme pour la Terre mais aussi pour Mars. Cet effet n’est pas seulement théorique puisqu’il a déjà entraîné sur Terre plusieurs bouleversements dramatiques avec des cycles de glaciation majeurs. Le caractère chaotique du système interne et par conséquent du mouvement de la Terre dans son ensemble va donc rendre difficile, voire impossible, de remonter systématiquement le climat sur Terre au-delà d’une centaine de millions d’années. De manière réciproque, il montre aussi que l’influence de la Lune a pour effet de stabiliser l’axe de rotation de la Terre qui serait bien plus aléatoire si ce satellite n’était pas si massif. Avec ce résultat, nous perdons aussi formellement la possibilité de remonter aux origines du système solaire avec certitude en intégrant méthodiquement les équations du mouvement des planètes. L’origine devient donc inatteignable du point de vue formel et seulement probabiliste. Au-delà de l’aspect chaotique qui affecte principalement le système interne, il faut retenir que, de manière générale, l’histoire du système solaire doit être approchée de manière dynamique comme celle d’un système de plusieurs planètes s’influençant mutuellement de manière parfois spectaculaire. Cet aspect dynamique devient donc la norme pour considérer l’histoire du système solaire ou les nouveaux systèmes planétaires découverts avec l’arrivée des exoplanètes. Ceux-ci peuvent se trouver dans des configurations où ces effets sont plus dramatiques encore. La puissance de calcul maintenant disponible permet non seulement d’évaluer ces interactions de manière très précise et de remonter le temps bien au-delà des observations disponibles, mais aussi, de façon réciproque, de simuler l’histoire du système solaire dès le début et de tester les différents scénarios permettant d’arriver à la configuration planétaire actuelle. La révolution conceptuelle que va connaître l’histoire du système solaire se produit avec l’ouverture de ce nouveau front de recherche par plusieurs groupes de scientifiques à travers le monde à partir des années 1990.
Le modèle de Nice et le grand virement de bord Si l’on se replace dans le cadre du modèle de la nébuleuse solaire qui postule la croissance des planètes à partir de l’agrégation progressive de corps plus petits, les interactions mutuelles des différentes planètes qui ne se sont pas forcément formées en même temps et dont la masse croît et interagit avec une collection d’objets plus petits vont gouverner l’évolution du système. Nous sommes, une nouvelle fois, en présence d’un système dynamique, plus complexe que le système solaire actuel, mais que l’on peut maintenant simuler de manière assez précise grâce à la puissance de calcul disponible. On peut ainsi imaginer retracer l’histoire du système solaire et valider le modèle de la nébuleuse solaire et les différents scénarios en simulant directement l’ensemble des phénomènes qui ont eu lieu, les interactions sur des temps longs entre les planètes et les autres objets plus petits avec, comme validation, la configuration et les particularités observées dans le système solaire actuel. La constatation selon laquelle le système solaire actuel ne ressemblait en rien aux systèmes exoplanétaires observés, qui semblent posséder de manière assez fréquente des planètes géantes très près de leur étoile et des configurations planétaires très diverses, suggère dès le début des années 2000 que le modèle de la nébuleuse solaire doit être modifié pour intégrer une évolution très dynamique dès les premiers moments de la formation. Deux phénomènes sont alors fréquemment invoqués pour expliquer cette diversité, l’instabilité dynamique et la migration. La migration est le premier mécanisme mis en avant pour expliquer qu’une planète géante puisse se retrouver en dehors de sa région de formation et près d’une étoile. Cet effet, anticipé bien avant la découverte de la première exoplanète mais qui reçoit une très forte attention dès sa découverte, se produit très tôt alors que la nébuleuse planétaire est encore constituée de gaz et de petits corps qui s’accumulent pour former les planètes. Le frottement entre la planète, ces petits corps et le gaz entraîne un changement d’orbite progressif qui va déplacer la planète sur d’assez grandes distances. Ce déplacement dépend de la densité du gaz et des petits corps constituant le disque. La découverte de la première exoplanète, suivie de plusieurs autres semblables, suggère de fait que ce mécanisme est générique pour tous les systèmes planétaires. Il enterre définitivement l’idée que les planètes se forment là où nous les trouvons aujourd’hui comme le pensaient initialement Laplace et Kant. Les planètes se déplacent donc durant toute la période où le disque de gaz est assez ténu et les débris présents, assez denses. Une fois acceptée l’idée que les planètes se déplacent de manière significative au début de la formation des systèmes planétaires, alors que le disque est encore présent, nous devons immédiatement prendre en compte un autre aspect des systèmes dynamiques dont nous n’avons pas parlé jusqu’à présent : les orbites résonnantes. Depuis Laplace, on a identifié des positions relatives particulières de deux planètes, qui correspondent à des perturbations régulières produites lorsque le rapport des périodes orbitales correspond à un petit nombre entier. Dans ces configurations particulières, les orbites sont quelquefois instables et peuvent connaître des
modifications spectaculaires. À l’inverse, il arrive aussi qu’elles soient stables et deviennent, dans ce cas, des lieux privilégiés où les planètes ou d’autres objets vont se trouver préférentiellement. L’ensemble de ces régions particulières qui dépendent de l’architecture planétaire à un moment donné peut être imaginé comme un green de golf avec des trous et des pentes multiples qui changent de manière dramatique au fur et à mesure que le système se construit et que les planètes se déplacent. Ces orbites particulières et résonnantes sont étudiées depuis les débuts de la mécanique céleste car elles dessinent l’architecture d’ensemble d’un système planétaire, que cela soit pour la répartition des planètes ou des divers autres corps présents, tels que les satellites ou les astéroïdes. La répartition des corps dans un système planétaire doit donc suivre ce relief au moment de l’observation. Il doit aussi garder quelque peu la mémoire de cette histoire de migration comme les vestiges d’un passé correspondant à une configuration planétaire différente de celle observée. Nous verrons un peu plus loin que c’est sur la base de ces arguments que nous cherchons à reconstruire l’histoire de la ceinture d’astéroïdes que l’on trouve entre Mars et Jupiter. Avec ces deux effets que sont la migration dans le disque et l’instabilité orbitale, on parvient à ajouter suffisamment de degrés de liberté dans le modèle de la nébuleuse solaire pour qu’il puisse être conservé comme base de l’histoire de la formation du système solaire, tout en offrant les principes nécessaires pour expliquer la grande diversité des systèmes exoplanétaires observés. Inversement, ce modèle augmenté de ces deux effets permet d’envisager la description de la grande diversité des systèmes planétaires observés mais pose désormais la question de leur importance respective pour notre système solaire. Nous avions en effet développé durant trois cents ans le modèle de la nébuleuse solaire et l’histoire du système solaire sans inclure ces effets, simplement parce que l’architecture planétaire du système solaire actuel dans ses grands traits, c’est-à-dire la répartition de ses planètes, n’en garde pas la mémoire. Deux options se présentent alors : ou bien le système solaire serait différent de tous les autres systèmes connus, ou bien nous étions simplement sur la mauvaise voie en imaginant que les planètes du système solaire se sont formées à l’endroit où nous les trouvons aujourd’hui.
Figure 14. Évolution temporelle des orbites des quatre planètes géantes et des particules constituant le disque dans le modèle de Nice. L’orbite de Jupiter est représentée en rouge, celle de Saturne en jaune, celle d’Uranus en bleu, tandis que celle de Neptune est représentée en violet (© A. Morbidelli).
C’est bien sûr cette seconde option qui s’est imposée, en prenant notamment en compte le fait qu’une instabilité orbitale a pu avoir lieu sans que le mouvement actuel des planètes n’en garde la mémoire. C’est ici un autre aspect du caractère dynamique du système solaire et des systèmes planétaires au sens large. Il est en effet impossible de prédire a posteriori qu’une instabilité orbitale a eu lieu puisque, étant donné le caractère chaotique du système, un nombre incommensurable de configurations planétaires sont possibles à la suite de cette instabilité. Par ailleurs, on avait déjà identifié plusieurs caractéristiques du système solaire qui venaient mettre en défaut l’hypothèse d’une formation par le modèle classique de la nébuleuse solaire. Les plus spectaculaires sont la faible densité d’objets dans la ceinture de Kuiper – qui, comme nous l’avons vu, rassemble des objets de taille variable au-delà de l’orbite de Pluton – et les traces d’un bombardement intense de météorites ayant eu lieu après la formation de la Lune. L’idée qu’une période durant laquelle le système solaire était l’objet d’un bombardement intense de météorites vient notamment des surfaces de la Lune et de Mercure qui sont toutes deux fortement cratérisées. La faible densité d’objets dans la ceinture de Kuiper, quant à elle, est en contradiction avec un système solaire dans cette configuration depuis sa formation puisqu’un plus grand nombre d’objets, reliques du disque primordial, devraient être détectés. En partant de ces deux constatations et des excentricités particulières des planètes géantes, Alessandro Morbidelli de l’observatoire de Nice et plusieurs de ses collaborateurs proposèrent en 2005 un scénario alternatif pour l’histoire du système solaire. Se basant sur des simulations numériques intensives, ils produisirent ainsi l’architecture actuelle du système solaire en partant d’une configuration initiale dans laquelle les quatre planètes géantes sont sur des orbites circulaires, bien plus proches du Soleil qu’elles ne le sont actuellement, entourées d’un disque de petits objets. Cette configuration est cohérente avec le scénario envisagé dans le modèle de la nébuleuse solaire. Dans cette configuration initiale, Jupiter et Saturne sont positionnées à proximité d’une instabilité orbitale tandis que les orbites d’Uranus et de Neptune sont inversées par rapport à celles que nous connaissons dans la configuration actuelle. Comme nous pouvons maintenant l’anticiper après avoir évoqué la stabilité du système solaire, les planètes vont donc mutuellement se perturber et, doucement mais sûrement, modifier les paramètres de leurs orbites autour du Soleil. Ces perturbations orbitales vont être plus importantes que pour le système solaire actuel puisque les planètes sont plus proches les unes des autres. Elles subissent également l’influence des nombreux petits objets formant le disque externe et représentant environ 35 masses terrestres dans ces simulations initiales. L’évolution temporelle de ce système sur plusieurs centaines de millions d’années montre que les orbites des
planètes commencent graduellement par se déformer avec un changement d’excentricité notable pour Uranus et Neptune. Au bout de 882 millions d’années, Jupiter et Saturne se retrouvent dans une configuration orbitale résonnante instable. L’ensemble du système est alors brusquement déstabilisé, les orbites de Neptune et d’Uranus se retrouvent inversées tandis que l’ensemble des petits corps formant le disque se retrouvent très fortement éparpillés vers le système interne comme vers le système externe. Le disque de débris perd sa densité initiale pour venir former un nuage d’objets moins dense et plus éloigné du Soleil qui pourrait être apparenté à la ceinture de Kuiper. Cette éjection de petits corps dans toutes les directions fournit également une explication pour l’occurrence d’une période de grands bombardements d’astéroïdes dans l’histoire du système solaire, et pour la cratérisation observée pour la Lune et Mercure. Ce résultat fut un électrochoc bien au-delà de la communauté astrophysique intéressée par l’histoire du système solaire car il mettait en lumière de manière spectaculaire le caractère chaotique et probablement violent de sa genèse, dissimulé jusqu’alors par le mouvement des planètes qui semblait pendant longtemps quasi perpétuel à l’échelle humaine. Ce résultat, rendu possible grâce aux supercalculateurs qui permettent depuis une quinzaine d’années de simuler des systèmes comprenant plusieurs centaines d’objets représentant les planètes, les protoplanètes et les astéroïdes, ne peut bien sûr pas être obtenu de manière analytique et mathématique. Ce type de calculs numériques amenant à des solutions pour des problèmes fortement non linéaires, qui ne peuvent pas être approchés de manière perturbative, a ouvert en planétologie, comme dans quasiment tous les autres domaines scientifiques, un nouvel horizon de la connaissance qui n’a cessé de s’étendre jusqu’à aujourd’hui.
Figure 15. Scénario cohérent de l’histoire du système solaire obtenue en combinant le Grand Tack et le modèle de Nice (© adapté de Demeo-Carry, Nature, 2014, 505 [7485], p. 629-634).
Ce modèle s’appuie sur l’occurrence d’une instabilité des planètes géantes pour expliquer plusieurs particularités du système solaire comme la possibilité d’un grand bombardement. Il retrouve aussi l’excentricité et l’inclinaison particulières des orbites des planètes externes qui restaient difficiles à expliquer avec le modèle de la nébuleuse solaire. Sa popularité ne vient pas seulement du jeu de mots que son intitulé permet en anglais. Le modèle de Nice, the Nice model, montre aussi que nous faisions fausse route depuis des siècles en nous basant sur une vision
statique de l’histoire du système solaire. Il ne remplace pas le modèle de la nébuleuse planétaire, il le complète en y ajoutant la dynamique des corps composant celle-ci, alors que les planètes se forment et s’influencent mutuellement. Il va se trouver rapidement complété par l’autre effet que nous avons évoqué mais pas encore utilisé dans l’histoire du système solaire, celui de la migration des planètes. Ce grand nombre de planètes géantes découvertes à des orbites comparables à celle de Mercure va ainsi motiver un retournement de situation pour le système solaire. Pour prendre en compte ce nouveau fait observationnel, au cours des dix dernières années, nos représentations ont évolué : plutôt que d’admettre comme un fait établi que les planètes géantes comme Saturne et Jupiter se formaient sur des orbites étendues au-delà de la ligne des glaces, nous nous demandons aujourd'hui comment il est possible que les deux planètes géantes du système solaire n’aient pas connu la même destinée que les exoplanètes géantes qui semblent avoir envahi leur système interne. En effet, les planètes géantes semblent se former suffisamment tôt pour être présentes alors que les disques constitués de gaz et de débris ne se sont pas encore dissipés. Cette formation rapide entraîne une réduction graduelle de l’orbite de celles-ci. Notre question vient alors en résonance avec deux autres anomalies du système solaire interne. Nous avons d’une part deux petites planètes aux abords du système interne, Mercure et Mars, et deux planètes de taille similaire, la Terre et Vénus, au milieu. Nous avons d’autre part une ceinture d’astéroïdes représentant au total tout au plus quelques pourcents de la masse de la Lune. Si nous reprenons l’évolution de notre disque de matière interne dans le cadre de la nébuleuse solaire, supposé uniforme en densité, il est alors difficile de reproduire cette répartition de la matière assez particulière. Une formation dans le cadre de la nébuleuse planétaire devrait naturellement mener à une planète Mars ayant une masse beaucoup plus importante. C’est en s’inspirant de cette anomalie de la taille de Mars, de l’architecture particulière du système interne et de la propriété de migration des planètes géantes que le groupe d’Alessandro Morbidelli a récemment proposé un nouveau ballet planétaire pour développer une histoire cohérente du système solaire, le modèle du Grand Tack. L’acrobatie est ici tout aussi spectaculaire que l’instabilité du modèle de Nice mais se déroule bien avant, c’est-à-dire durant les premières centaines de milliers d’années. L’instabilité du modèle de Nice se produit, elle, au bout de plusieurs centaines de millions d’années. Il démarre bien après la dissipation du disque, suppose les quatre planètes géantes formées et les dispose dans une configuration proche de la résonance instable pour Jupiter et Saturne. Cet arrangement est raisonnable mais est établi de manière arbitraire pour obtenir l’instabilité voulue. Le Grand Tack déroule l’histoire des premières centaines de milliers d’années avec la formation de Jupiter à plusieurs unités astronomiques suivie d’une migration de celle-ci qui l’entraîne sur des orbites de plus en plus petites en raison de l’interaction avec le disque. La magie se produit avec l’arrivée de Saturne qui migre plus rapidement que Jupiter et empêche la migration des deux en raison du rapport particulier proche d’un tiers entre les masses des deux
planètes. Cette configuration singulière entraîne alors les deux planètes vers l’extérieur du disque jusqu’à ce que l’instabilité orbitale du modèle de Nice change à nouveau leurs positions. Cet aller-retour de Jupiter et de Saturne donne une explication qualitative des particularités du système solaire interne, notamment de la forte disparité entre les masses de Vénus, de la Terre et de Mars. Cette incursion de Jupiter, suivie par Saturne, dans le système interne a probablement pu par effet de chasse-neige pousser les innombrables débris se trouvant sur la partie externe du disque vers l’intérieur. L’élégance de ce modèle est qu’il vient ainsi donner une explication qualitative pour la présence et la faible masse de la ceinture d’astéroïdes. Le Grand Tack, qui prend son nom du grand virement de bord effectué par les deux planètes géantes très tôt dans l’histoire du système solaire, comme deux voiliers dégageant une bouée lors d’une régate, est actuellement vivement débattu au sein de la communauté scientifique. Ce modèle a l’avantage de donner une vision cohérente de cette histoire en s’appuyant sur l’ensemble des observables connues pour le système solaire et les exoplanètes. Il prend également en compte les effets attenants comme la migration et les instabilités dynamiques. Ce scénario révèle un passé chaotique avec l’effet d’une multitude de coïncidences comme le rapport particulier entre les masses de Jupiter et de Saturne ou les propriétés de densité du disque permettant les deux phases de migration au bon rythme, que ce soit pour la phase de rapprochement vers le Soleil ou celle qui aurait permis de revenir à une configuration proche de l’instabilité orbitale entre les deux planètes géantes. Avec la montée en puissance des moyens de calculs et la démocratisation de leur utilisation pour simuler les premiers instants de la formation et l’évolution sur des temps longs des systèmes planétaires, la prise en compte de ces effets comme les approximations faites pour les décrire sont constamment raffinées, ajustées et améliorées. Ces ajustements amènent ainsi à plusieurs scénarios alternatifs qui touchent à la chronologie de la formation du système interne et de ses particularités comme la nature de l’instabilité orbitale qui a pu avoir lieu. Certains modèles suggèrent en effet que celle-ci a pu se dérouler avec une planète supplémentaire qui aurait été éjectée du système. D’autres simulations laissent penser également que la migration des planètes géantes aurait pu être moins importante. Les caractéristiques du système interne, notamment la répartition des masses entre les planètes, pourraient alors venir d’un disque protoplanétaire plus structuré et ayant un déficit de matière dans la région correspondant à Mars et à la ceinture d’astéroïdes. D’autres simulations suggèrent enfin que le système solaire était dans un régime chaotique non seulement dans sa configuration actuelle, comme nous l’avons vu précédemment, mais également dans ces premiers moments, alors que les planètes étaient encore enfouies dans le disque protoplanétaire. Cet énoncé des hypothèses en cours pourrait paraître comme une cacophonie d’annonces diverses concernant la révision de l’histoire du système solaire. Il faut retenir que nous avons effectué un pas conceptuel radical en moins de vingt ans en établissant que le système solaire dans sa configuration actuelle est chaotique sur le long terme. Son architecture contemporaine est
le résultat d’instabilités orbitales qui ont effacé sa configuration initiale et que les événements qui ont eu lieu aux premiers instants doivent être perçus comme le résultat d’une situation très dynamique où non seulement la matière du disque mais également les planètes ont pu largement se déplacer par rapport à leur configuration actuelle. L’ensemble de ces modèles doivent être vus comme différents scénarios possibles et acceptables compte tenu des données observationnelles actuellement disponibles. Ce qui est en revanche particulièrement enthousiasmant et convaincant d’un point de vue scientifique est que l’on perçoive la possibilité d’obtenir assez rapidement des données observationnelles supplémentaires pour départager ces différents scénarios, confirmer ou invalider le Grand Tack et le modèle de Nice, et ainsi élaborer une histoire plus contrainte de notre système solaire.
Les grandes missions d’observation à venir Les simulations numériques, qui permettent maintenant de représenter le système solaire depuis ses premiers instants et de manière de plus en plus précise, offrent un cadre théorique unique pour prendre en compte l’ensemble des données observationnelles. Ces données sont de deux types. Il y a d’un côté les observations concernant les systèmes exoplanétaires où le nombre de planètes, leur nature et leur répartition sont de mieux en mieux caractérisés. Il y a de l’autre côté les observations du système solaire qui concernent une meilleure caractérisation des objets le constituant et qui s’intéressent à l’étude de leur composition, à leur mouvement dynamique et à leur répartition spatiale. Ces deux types d’informations sont complémentaires et c’est en s’attachant à ce que les simulations numériques reproduisent ces deux ensembles de contraintes que nous parviendrons à une meilleure compréhension de l’histoire du système solaire et des facteurs qui ont été déterminants pour rendre la Terre habitable. Pour ce qui concerne le système solaire, un premier volet d’observations concerne la caractérisation des météorites au moyen d’instruments de plus en plus performants. Cette méthode est à l’œuvre depuis plusieurs décennies mais continue de livrer des informations précieuses sur les conditions qui ont régné dans différentes régions du disque au début de la formation du système solaire. La caractérisation isotopique de plusieurs espèces devient de plus en plus précise : c’est un domaine en plein essor. Cette approche permet de spécifier des contraintes dans les simulations en pointant l’apparition, dans le disque, de plusieurs réservoirs qui peuvent être associés à différentes étapes de formation des planètes. Des résultats très récents utilisant cette technique montrent, par exemple, que Jupiter s’est formée très rapidement et a divisé le disque en deux réservoirs de matière très tôt dans l’histoire du système solaire.
Comme nous l’avons vu en évoquant le Grand Tack et le modèle de Nice, la ceinture d’astéroïdes est un lieu privilégié pour obtenir des contraintes supplémentaires et départager les différents scénarios de formation du système solaire. La détection de plus en plus précise des astéroïdes et de leurs propriétés orbitales est une autre voie explorée pour contraindre les simulations. Ces dernières sont désormais en mesure de prendre en compte un nombre de plus en plus important de particules, et donc d’objets de taille de plus en plus petite, et reproduire les propriétés orbitales des objets constituant la ceinture d’astéroïdes : elles peuvent ainsi éclairer à terme les grandes étapes de l’histoire du système solaire. La caractérisation de leurs propriétés physiques, tout comme leur composition, présentent une autre classe de contraintes. Le nombre d’objets étant de l’ordre de plusieurs dizaines de milliers, il s’agit ici d’un travail minutieux, systématique et qui ne fait que très rarement la une des médias scientifiques ou grand public – tandis que les missions spatiales associées à ce travail reçoivent, de leur côté, une attention médiatique de premier ordre. Ce travail plus discret est néanmoins indispensable pour obtenir un scénario cohérent pour la formation du système solaire. Alors que la première partie de l’ère spatiale s’est concentrée sur l’exploration des planètes du système solaire, une nouvelle vague de sondes est actuellement en cours d’élaboration, ou sont déjà déployées, pour obtenir des informations directement en lien avec l’histoire du système solaire et les grandes étapes de sa formation. La mission Dawn de la NASA, lancée en 2008, a visité Cérès et Vesta, la plus grosse protoplanète et l’astéroïde géant qui résident dans la ceinture d’astéroïdes. L’objectif de cette mission est d’obtenir une meilleure caractérisation de leur composition, notamment leur teneur en eau, afin d’éclaircir la manière dont ces deux objets situés dans la même région du système solaire sont arrivés à deux compositions différentes. Vesta est un astéroïde géant avec une densité proche de celle de Mercure, c’est-à-dire ayant une composition qui suggère une formation à l’intérieur de la ligne des glaces. La densité de Cérès est, au contraire, bien plus faible, avec une forte teneur en eau qui suggère une formation au-delà de la ligne des glaces. Nous obtenons grâce à ces missions des informations difficilement accessibles par des observations menées depuis le sol, et qui permettent directement d’introduire des contraintes nouvelles dans des modèles tels que le Grand Tack et le modèle de Nice, à condition qu’elles s’étendent à suffisamment d’objets de la ceinture d’astéroïdes. Dans cette même lignée, deux missions sont actuellement en cours, OSIRIS-REx et Hayabusa2 de la NASA et de l’agence japonaise JAXA. Ces missions font un pas supplémentaire en cherchant non seulement à survoler, mais directement à rapporter sur Terre des échantillons prélevés à la surface de deux astéroïdes. Pour des raisons techniques, ces deux astéroïdes sont deux géocroiseurs, c’est-à-dire des astéroïdes proches de l’orbite terrestre. L’exploit technique n’en est pas moins grand car il s’agit de se poser sur un objet très petit, d’un rayon de quelques centaines de mètres. Ryugu a déjà été visité par la sonde Hayabusa2 en 2019 tandis que la sonde OSIRIS-REx tentera une approche de Bennu en 2020. Les échantillons prélevés seront rapportés sur Terre à la fin de l’année 2020 et en 2023. Il faut noter qu’il s’agit
déjà du second succès japonais pour ce type de mission puisque des poussières de l’astéroïde Itokawa ont déjà été rapportées sur Terre en 2010. Le retour d’échantillons est une opportunité unique pour une caractérisation poussée grâce à un ensemble d’instruments qui ne peuvent pas être envoyés dans l’espace. Cela permet aussi d’étudier des objets comme les météorites carbonées, qui contiennent a priori une plus grande quantité d’éléments légers mais se retrouvent très fortement altérés par leur entrée dans l’atmosphère terrestre. L’ambition est d’obtenir la composition précise, qu’elle soit chimique ou isotopique, de ces objets que l’on pense être les briques élémentaires qui se sont assemblées pour former les planètes du système interne il y a plus de 4,5 milliards d’années. Des premiers résultats nous arrivent déjà puisque le survol d’Itokawa en 2005 a permis de montrer que cet astéroïde en forme de cacahouète est composé de deux blocs de densité très différente, suggérant l’assemblage entre un objet dont la composition est principalement de glace tandis que l’autre, bien plus dense, se rapproche des silicates. Il s’agit d’une information importante car elle conforte le schéma d’agrégation actuellement utilisé pour expliquer la formation des planètes à partir de l’accumulation progressive de briques bien plus petites. Alors qu’Itokawa a une origine plus incertaine et pourrait même être assez récente, Bennu et Ryugu s’approchent plus directement des objets constituant la ceinture d’astéroïdes. De par leurs trajectoires, on pense que les deux géocroiseurs sont des fragments de la ceinture d’astéroïdes retombés près de l’orbite terrestre. En attendant les retours d’échantillons sur Terre qui vont certainement produire leur lot de surprises, les mises en orbites révèlent déjà des surfaces complètement inattendues, Ryugu semblant être beaucoup moins riche en eau que Bennu. La mise en orbite autour de Bennu montre de plus qu’il s’agit d’un astéroïde actif. Il se comporte presque comme une comète et éjecte de la matière de manière intermittente. On a identifié depuis une dizaine d’années plusieurs astéroïdes exhibant ce phénomène, mais son intensité sur Bennu est inattendue, tout comme sa surface, beaucoup plus accidentée qu’on ne l’avait anticipé. Cette diversité des objets de la ceinture d’astéroïdes renforce une nouvelle fois le caractère dynamique du jeune système solaire avec un mélange de matière important entre les systèmes externe et interne. Les astéroïdes carbonés riches en éléments légers et pour certains, comme Bennu, en eau vont peut-être aussi montrer une complexité chimique qui s’apparente à ce que l’on détecte sur les comètes. Les observations vont, pour l’instant, dans ce sens avec des surfaces qui semblent très sombres, accidentées, parsemées de roches et comme recouvertes de bitume. Ryugu ressemble à du café soluble peu compressé avec de ce fait une densité faible et beaucoup de vide. L’exploration du système solaire, même proche, n’a donc pas fini de nous surprendre. Elle continue à nous apporter des informations indispensables pour confirmer ou non nos scénarios de formation et contraindre les étapes de son évolution. Il s’agit de ce travail itératif entre nouvelles observations et modélisations qui nous amène de manière progressive à mieux saisir les subtilités de notre environnement et à construire un scénario de formation du système solaire robuste et contraint par l’ensemble des données observationnelles possibles. Nous pouvons maintenant
envisager de mener ce travail au degré de précision requis grâce à la montée en puissance des modèles numériques qui permettent d’appréhender sous un angle radicalement nouveau le caractère très dynamique et très chaotique du système solaire et de son histoire. Même si le détail des étapes est appelé à varier, ce dernier point constitue désormais un acquis scientifique, une révolution conceptuelle sur laquelle nous ne pourrons plus faire machine arrière.
1. « Être deux, c’est être accompagné ; être trois, c’est être dans la foule. »
CHAPITRE 6
Ce que nous apprennent les exoplanètes détectées
Si l’on doit retenir une leçon de la découverte de la première exoplanète Peg51b, c’est que notre compréhension de la formation d’un système planétaire était alors tellement prisonnière de notre vision d’un système solaire stable sur le long terme que nous n’arrivions pas à imaginer que d’autres configurations planétaires puissent être possibles. Cette remarque s’applique non seulement aux cortèges planétaires entourant chaque étoile, mais tout autant à la nature des planètes qui les constituent. Peg51b n’est en effet pas seulement une planète de type géante ressemblant à Jupiter et proche de l’orbite de Mercure, c’est-à-dire très éloignée de ce que l’on pensait être sa distance de formation. Elle appartient, de plus, à une catégorie de planètes qui n’a pas d’équivalent dans le système solaire, les Jupiters chauds. Si Peg51b avait été la seule planète géante observée dans cette configuration, elle serait alors entrée dans la panoplie des objets bizarres tels que l’on en rencontre souvent en astrophysique. L’histoire se serait arrêtée là, celle de notre système solaire serait peut-être restée inchangée et cette bizarrerie n’intéresserait que quelques chercheurs. Tel est par exemple le cas pour les objets associés à des planètes que l’on a détectées autour des pulsars, des étoiles à neutrons qui sont des objets résiduels marquant la fin du parcours stellaire. Comme les méthodes des vitesses radiales ou des transits sont particulièrement efficaces pour ces objets massifs et proches de leur étoile, c’est-à-dire affectant le mouvement de celle-ci de manière plus marquée ou ayant une période de rotation très courte permettant une accumulation de données rapide, la découverte de Peg51b a été suivie par plusieurs autres du même type. En raison de ce biais instrumental très marqué, ces objets ont même dominé le nombre de détections dans les premières années. Nous comptons aujourd’hui plusieurs centaines de planètes de ce type. Cette diversité d’objets s’est largement étendue grâce à un plus grand nombre d’instruments dédiés. Nous avons maintenant identifié non seulement des planètes
géantes à l’intérieur de l’orbite de Mercure, mais aussi des planètes avec la même densité que la Terre mais 10 fois plus massives, des planètes océans peut-être recouvertes d’eau sur plusieurs kilomètres et d’autres que l’on pense être habitables. Compte tenu des programmes d’observation en cours, nous anticipons 2 à 3 fois plus de planètes que les 4 100 déjà repérées. Ces planètes sont souvent bien différentes de celles rencontrées dans le système solaire mais les données pour les caractériser sont assez maigres par rapport aux planètes du système solaire. Nous sommes donc en train de vivre un changement de paradigme important dans le domaine de la planétologie. Alors que nous étudiions jusqu’à présent quelques objets de manière méticuleuse comme nous l’avons fait sur près de trois siècles pour les huit planètes du système solaire, nous pouvons avec les exoplanètes au mieux détecter quelques propriétés. Certaines d’entre elles sont en revanche disponibles sur plusieurs dizaines, centaines, voire milliers d’objets. L’enjeu est donc maintenant de développer une stratégie d’observation ou de validation des scénarios de formation du système solaire ou de formation de certaines planètes en s’appuyant sur une approche statistique des propriétés des exoplanètes détectées.
La question de l’origine des Jupiters chauds après vingt-cinq ans d’observations Les Jupiters chauds comme Peg51b sont étudiés depuis maintenant vingt-cinq ans, et on compte désormais quelques centaines d’objets de ce type. Les premières détections ont, comme nous l’avons vu, radicalement changé nos modèles de formation des systèmes planétaires en introduisant la notion de migration pour les planètes. Cette notion est importante dans les scénarios de formation du système solaire, et la question s’est immédiatement posée de savoir si ce mécanisme explique véritablement la population de Jupiters chauds observés. Ce problème de l’origine et de la formation des Jupiters chauds est particulièrement intéressant car leur plus grande facilité de caractérisation avec les méthodes actuelles donne également un aperçu du type d’observables que l’on anticipe pour les quelques décennies à venir et qui pourront être appliquées aux planètes habitables. Les Jupiters chauds sont définis de manière approximative par une masse proche de celle de Jupiter et une période de moins de dix jours. En raison de ces conditions très proches de leur étoile hôte, les Jupiters chauds exhibent des propriétés bien différentes de celles de nos deux géantes gazeuses qui sont, elles, très éloignées de leur étoile et connaissent des températures de surface de l’ordre d’une centaine de degrés Kelvin (entre - 100 et - 200 °C). En combinant les mesures obtenues par la méthode des vitesses radiales, qui nous fournissent une borne supérieure pour la masse et l’inclinaison, et celles des transits, qui nous donnent le rayon, nous pouvons en
déduire la densité de la planète. Cette mesure de densité est possible dans les cas les plus favorables, c’est-à-dire lorsque l’orbite de la planète est alignée de façon à permettre ces deux types de mesure. Ces premières mesures de densité ont tout de suite montré une différence notable avec les planètes géantes du système solaire. Il a en effet été confirmé assez rapidement qu’un bon nombre de Jupiters chauds possédaient des densités beaucoup plus faibles que Jupiter et Saturne, c’est-à-dire un rayon beaucoup plus important pour la masse détectée. Un premier élément de réponse pour expliquer cette anomalie consiste à considérer qu’une planète qui se trouve très près de son étoile subit de manière plus radicale l’influence de celle-ci. Cette influence va être due au rayonnement de l’étoile d’une part. Celui-ci va tout simplement chauffer la planète et donner des températures de surface et intérieures plus élevées. Elle est due d’autre part à l’influence gravitationnelle de l’étoile, qui, en raison de sa distance proche, va chauffer par déformation lorsque la planète tourne sur elle-même comme pour les marées terrestres. Si l’orbite n’est pas circulaire, à ces deux effets va s’ajouter un deuxième effet de marée, qui vient, lui, chauffer la planète lorsqu’elle se retrouve à des distances proches de l’étoile. On peut se représenter que la planète respire à chaque passage proche de l’étoile pour dissiper l’énergie produite par les effets de marée. Cela va de manière réciproque entraîner une réduction de son orbite et la rendre progressivement plus circulaire et plus proche de son étoile. Ces trois effets peuvent être à l’origine d’une planète géante « chauffée » qui se retrouve avec un rayon bien supérieur à celui des planètes géantes du système solaire en raison de sa distance à l’étoile particulièrement petite durant une partie ou la totalité de son histoire. En revanche, ces trois effets n’agissent pas de la même façon au cours de la vie de la planète et leur influence dépend du scénario de formation et d’évolution. Dans ce contexte, on peut espérer déterminer si la planète s’est formée à l’endroit où on la trouve actuellement ou si, au contraire, elle s’est formée au-delà de la ligne des glaces pour migrer ensuite jusqu’à sa position actuelle. Le nombre significatif de Jupiters chauds détectés permet ainsi d’envisager la confirmation de cette notion de migration de manière quantitative, bien au-delà de la simple évocation de cette hypothèse. C’est la grande différence avec les études que nous faisions jusqu’à présent pour le système solaire, qui restaient limitées à quelques objets très différents les uns des autres et auxquels divers scénarios de formation pouvaient être appliqués. Pour les Jupiters chauds, nous avons jusqu’à présent obtenu une assez bonne caractérisation des densités, qui, comme nous l’avons vu, sont plus faibles que celles des géantes du système solaire. Nous avons aussi pu obtenir une meilleure caractérisation des propriétés de leurs orbites, qui se révèlent pour un bon nombre non circulaires et très excentriques. La forte excentricité de plusieurs Jupiters chauds a, ces dernières années, suggéré que ces planètes ne migraient peut-être pas toujours très tôt à cause du frottement avec le disque mais plus tard avec des orbites qui deviennent progressivement circulaires alors que la planète perd de l’énergie par effet de marée en se déformant lorsqu’elle se rapproche de l’étoile. Selon ce troisième scénario, la planète acquiert initialement sa forte excentricité en raison du caractère dynamique du système avec
plusieurs planètes en interaction. Nous sommes donc en présence non pas de deux mais de trois scénarios possibles permettant d’expliquer l’origine des Jupiters chauds. Une formation dite in situ sans migration et à l’endroit où on les trouve aujourd’hui, ou une formation au-delà de la ligne des glaces, avec soit une migration dans le disque, c’est-à-dire très tôt et avant sa dissipation, soit une migration plus tardive en raison des effets dynamiques qui amènent cette planète sur une orbite très elliptique avant qu’elle ne réduise son orbite en raison des effets de marée. Ce qui est vraiment une révolution en planétologie, c’est que le nombre de planètes disponibles ainsi que les moyens instrumentaux dont on peut faire usage ont ainsi permis d’en sélectionner quelques-unes pour tester presque immédiatement ce troisième scénario. C’est ce qui a été fait grâce au télescope spatial Spitzer en 2016. Ce télescope qui observe dans l’infrarouge a été lancé en 2003 pour étudier les galaxies jeunes et les étoiles en formation. Il a été reconverti, presque dix ans après la fin de sa mission nominale, pour étudier les exoplanètes. Il a notamment observé comment se réchauffait la planète HD80606b, un Jupiter chaud, lorsqu’elle passait près de son étoile. Avec une période de 111 jours, on peut assez facilement suivre cette planète à différentes positions sur son orbite très elliptique et vérifier si elle se déforme bien comme le prédit la théorie pour expliquer la décroissance de son orbite par effet de marée. De manière alternative, plusieurs Jupiters chauds, avec des périodes de l’ordre de quelques jours, ont aussi été suivis grâce à des télescopes au sol pour établir si l’on détectait une réduction de leurs orbites. Même si aucune observation ne vient pour l’instant confirmer ce troisième scénario pour expliquer l’origine des Jupiters chauds, cet épisode démontre a minima que la simple transposition des modèles de planètes géantes du système solaire n’est sûrement pas suffisante pour aborder ce problème. Les effets de marée dépendent pour beaucoup de la structure interne de l’étoile comme de celle de la planète, et ceux-ci ne se transposent pas de manière aussi générique que nous le souhaiterions pour valider cette hypothèse. Cela pousse donc les recherches vers une meilleure modélisation de ces objets et donc au-delà de ce qui est connu pour le système solaire. Les avancées dans cette direction doivent ainsi venir d’une meilleure compréhension de la structure des étoiles qui ne ressemblent pas au Soleil, mais aussi de ces Jupiters chauds qui dissipent de manière apparemment différente les effets de marée, peut-être en raison de la forte circulation atmosphérique qui règne dans ces conditions de températures élevées. Ce dernier aspect fait actuellement l’objet de plusieurs études théoriques et campagnes d’observations, et nous montre comment nous cherchons à obtenir une meilleure caractérisation intrinsèque de ces objets afin de valider les modèles de formation des Jupiters chauds et, de manière plus large, la notion de migration pour les planètes. Pour distinguer ces trois scénarios de formation et dans le prolongement du problème précédent, un autre front s’est également ouvert autour de la caractérisation de leurs atmosphères par spectroscopie de transit. Cette dernière méthode, dont nous n’avons pas encore parlé,
consiste à observer le transit devant l’étoile à plusieurs longueurs d’onde, c’est-à-dire pour différentes couleurs, pour en déduire celles de la planète. Lorsque la planète passe devant l’étoile, la lumière de cette dernière passe tout d’abord à travers son atmosphère. Elle est ensuite partiellement bloquée par la planète dans sa totalité. On passe ensuite d’une baisse de luminosité de la planète avec son atmosphère à celle de son atmosphère seule avant de retrouver la lumière complète de l’étoile. Cette variation de luminosité va donc être décalée suivant les longueurs d’onde absorbées par l’atmosphère, et le transit va dépendre de la longueur d’onde. Cette variation va permettre d’en déduire la réponse de l’atmosphère à différentes longueurs d’onde et de remonter ainsi à sa composition. Cette variation est, bien entendu, très subtile à détecter et reste, pour le moment, le domaine privilégié de l’observation spatiale, bien que plusieurs succès aient été rapportés et confirmés ces dernières années avec des instruments au sol, comme le VLT. On a ainsi réussi à mesurer par cette méthode la composition atmosphérique de plusieurs de ces Jupiters chauds à l’aide du télescope spatial Hubble et du télescope Spitzer dont nous venons de parler. On ne présente plus le télescope Hubble qui inonde de manière régulière les médias avec un flot ininterrompu d’images de divers objets astrophysiques aussi spectaculaires les unes que les autres. L’utilisation de la spectroscopie de transit pour le problème des Jupiters chauds a notamment été mise en avant pour tenter de valider le mécanisme de formation de ces planètes à partir de leur composition atmosphérique. Si nous reprenons nos trois scénarios, nous pouvons en effet imaginer que la composition d’une planète va dépendre de l’endroit où celle-ci se forme dans le disque. Un Jupiter chaud qui se forme au-delà de la ligne des glaces, c’est-à-dire à la distance de l’étoile où l’on trouve de l’eau et d’autres composés comme le méthane ou l’ammoniac à l’état solide, va avoir une composition atmosphérique différente de celle qu’elle aurait si elle se formait à l’endroit où on l’observe actuellement, c’est-à-dire très proche de l’étoile. Dans ce modèle simplifié, les planètes gardent en mémoire à travers la composition de leur atmosphère les conditions qu’elles ont connues dans le disque au moment de leur formation. On retrouve ici la même logique évoquée précédemment dans le cadre de la nébuleuse solaire. Pour rappel, celle-ci utilise les phases de condensation des différents éléments présents dans le disque, c’est-à-dire les distances à partir desquelles le fer, les silicates, l’eau, le méthane, le CO2 passent de la phase gazeuse à la phase solide. Dans cette logique, le rapport des concentrations entre le carbone et l’oxygène est considéré comme un marqueur assez discriminant pour distinguer les différentes régions du disque protoplanétaire. L’idée originale est de distinguer les différents modes de formation des Jupiters chauds en suivant ce rapport. Pour cette approche, les Jupiters chauds formés près de l’étoile ont un rapport C/O correspondant à très peu de glaces. Ceux formés très loin de l’étoile et qui atteignent leurs orbites proches par effets de marée auraient un rapport qui correspond aux régions éloignées du disque où le CO2 et le CO sont solides. Enfin, les Jupiters chauds qui migrent ont un rapport C/O intermédiaire, puisqu’ils se sont formés au-delà de la ligne des glaces mais qu’ils ont accrété d’autres éléments en migrant vers l’étoile.
Malheureusement, les mesures spectroscopiques de ces Jupiters chauds qui représentent une première série de caractérisations de la composition atmosphérique des exoplanètes montrent, pour l’instant, une bien plus grande diversité qu’attendu initialement. D’autres effets que ceux évoqués sont aussi probablement à l’œuvre. La nature du disque initial comme son caractère dynamique, qui concerne notamment la position des différentes lignes de condensation au cours de la vie du disque, ne sont pas encore si bien contraints. Ce rapport de concentration reste aussi difficile à mesurer avec la précision des instruments d’observation actuels puisqu’il n’est pas mesuré directement mais dépend de la présence d’autres espèces. Ce rapport des concentrations dépend aussi de la dynamique de l’atmosphère, c’est-à-dire de la répartition des éléments en fonction de l’altitude, qui n’est pas très bien modélisée pour ces nouvelles planètes qui n’existent pas dans le système solaire. Finalement, il y a aussi une certaine dégénérescence. Nous sommes dans une situation où des scénarios différents donnent les mêmes compositions de l’atmosphère. Ce phénomène est amplifié par la grande incertitude qui existe actuellement entre les différents modèles théoriques comme, par exemple, pour l’effet de l’accrétion de matériaux sur l’atmosphère lors de la migration. Cette approche par caractérisation spectroscopique des atmosphères n’a pour l’instant pas encore livré les éléments permettant de distinguer les différents mécanismes à l’origine des Jupiters chauds. Cette situation peut paraître décevante à première vue, mais elle montre la manière avec laquelle nous sommes appelés à progresser sur cette question particulière dans les années à venir. Cette réflexion, comme d’autres du même type, alimente la construction des prochains instruments et l’utilisation de ceux actuellement en service. Cet échange entre ce qu’il est possible de mesurer et l’impact potentiel des observations pour certaines questions comme l’origine des Jupiters chauds est typiquement ce que doivent juger les différents comités de sélection, que cela soit pour financer de nouvelles missions spatiales, de nouveaux instruments au sol, d’attribuer les temps d’observation ou les soutiens financiers aux équipes de recherche. Ces conclusions sont, comme on peut l’imaginer, l’objet de débats très animés. Pour revenir à notre problème de caractérisation par spectroscopie des atmosphères de Jupiters chauds, ce domaine est appelé à progresser fortement dans les prochaines années grâce à plusieurs campagnes d’observations en cours et à l’arrivée d’une nouvelle génération d’instruments. Pour ne citer que quelques exemples, le télescope ALMA évoqué au chapitre précédent continue à préciser la répartition des éléments dans le disque en fonction du temps et de la nature des disques, notamment celle de la ligne des glaces pour l’eau, le CO2 et le CO. Mise en concert avec les simulations numériques des disques qui sont de plus en plus précises, une meilleure contrainte sur l’évolution des disques et de leur impact sur les atmosphères suivant les différents scénarios d’origine des Jupiters chauds peut-être envisagée. Le successeur du télescope spatial Hubble, le JWST (James Webb Space Telescope), qui sera lancé prochainement, va également permettre d’améliorer la précision des spectres obtenue qui ne sont pour l’instant pas suffisamment contraignants pour les modèles d’atmosphères. Nous pouvons à l’heure actuelle
obtenir plusieurs compositions atmosphériques théoriques qui reproduisent les observations. Une meilleure précision des spectres des Jupiters chauds va ainsi permettre de mieux contraindre la structure atmosphérique. Cela concerne les éléments présents mais aussi la densité de nuages et la circulation atmosphérique pour ces objets qui subissent de très fortes différences de température entre la partie éclairée par l’étoile et celle qui ne l’est pas. La mission spatiale ARIEL, sélectionnée récemment par l’ESA et qui sera lancée à partir de 2026, va se consacrer exclusivement à la spectroscopie de transit. Les instruments au sol ne sont pas en reste. Des mesures ont déjà été effectuées sur le VLT et d’autres sont à venir, utilisant d’autres techniques spectroscopiques, grâce à la prochaine génération des très grands télescopes comme l’ELT, le télescope de près de 40 mètres de diamètre construit par l’Europe au Chili. Cela devrait compléter de manière sensible les observations actuelles en nombre d’objets caractérisés comme en précision des spectres obtenus. Nous ne sommes donc qu’au début de l’acquisition de l’ensemble de données nécessaires à la caractérisation des Jupiters chauds. La caractérisation des atmosphères exoplanétaires par spectroscopie au sens large est un domaine en plein essor. Celui-ci représente actuellement l’investissement le plus important dans le domaine des exoplanètes et celui nourrissant le plus d’attentes pour un bon quantitatif de notre compréhension de ces objets. Ces observations ne vont bien sûr pas se limiter aux Jupiters chauds mais vont être étendues à des objets plus petits, plus loin de leurs étoiles et se rapprochant de ceux ressemblant à la Terre. Pour le cas des Jupiters chauds qui nous intéresse ici, cet effort permettra également de mieux contraindre la nature de leurs compagnons planétaires. Il y a en effet une troisième source d’informations utilisées pour distinguer les trois scénarios de formation des Jupiters chauds. Celle-ci consiste à utiliser les propriétés des systèmes planétaires auxquels ils appartiennent, c’est-à-dire la configuration globale du système qui comprend le type d’étoile, son âge, ainsi que le cortège planétaire qui les accompagne. Si l’on connaît l’âge du système de manière assez précise, on peut en effet imaginer distinguer les trois scénarios de formation des Jupiters chauds. S’ils se forment près de l’étoile ou par migration, ces Jupiters chauds sont présents dans des systèmes très jeunes et dès l’apparition du système planétaire. S’ils se forment par effet de marée après excitation dynamique du système, les Jupiters chauds apparaissent alors sur des temps plus longs, bien après la disparition du disque et sur un temps suffisamment long pour que l’interaction dynamique entre les planètes du système externe amène l’excentricité de l’orbite nécessaire. Cette excitation dynamique peut formellement se passer tout au long de la vie du système planétaire avec, comme on le voit pour le système solaire, une prédominance dans le premier milliard d’années lorsque le système s’établit. Il faut donc quand même regarder des systèmes assez jeunes pour distinguer ces différents scénarios. On s’attend, dans ce cas de création par excitation dynamique et de marée, à détecter moins de Jupiters chauds dans les systèmes plus jeunes que dans les plus anciens. Cette tendance peut être dégagée si l’on a un ensemble d’étoiles suffisamment important car notre environnement stellaire est majoritairement constitué d’étoiles assez anciennes. Il faut donc
d’une part augmenter le nombre d’étoiles observées pour dégager un échantillon d’étoiles jeunes en nombre assez important et améliorer d’autre part notre estimation de l’âge de ces étoiles dans son ensemble. C’est ce qui est actuellement en cours avec la mission Gaia, qui surveille et caractérise près d’un milliard d’étoiles de la Voie lactée. Ces nouvelles observations stellaires vont être complétées par les observations qui seront faites par la mission PLATO, lancée à partir de 2028. L’objectif principal de cette mission est de caractériser une Terre autour d’une étoile de type solaire mais aussi d’obtenir une meilleure contrainte sur l’âge des étoiles en utilisant l’astéroséismologie. Cette méthode consiste à surveiller les pulsations de l’étoile pour permettre une meilleure contrainte sur sa structure interne. En attendant les résultats de ces études, les analyses actuelles s’appuient sur le fait que les trois scénarios pour l’origine des Jupiters chauds prédisent chacun un cortège planétaire différent. Si ces planètes se forment près de l’étoile et à l’endroit où on les observe aujourd’hui, elles sont accompagnées d’autres planètes dans le voisinage en raison de la forte densité de matière requise pour leur formation. Le scénario de formation près, ou au-delà, de la ligne des glaces suivie d’une migration tend, au contraire, à prédire des compagnons planétaires de type planètes géantes ou plus petits sur des orbites résonnantes, c’est-à-dire dont le rapport des périodes suit des nombres entiers. Pour le troisième scénario, postulant la diminution de l’orbite de la planète par effet de marée après une formation au-delà de la ligne des glaces, il faut un ou des compagnons très tôt pour produire une orbite très elliptique, c’est-à-dire avec une très forte excentricité. On peut s’attendre à ce que ces compagnons soient toujours présents dans le système avec les caractéristiques requises pour amener cette excitation. Ce quatrième front de recherche nécessite donc formellement de connaître de manière assez détaillée l’ensemble des objets qui constituent ces systèmes particuliers possédant des Jupiters chauds, c’est-à-dire la répartition des planètes dans chacun des systèmes, la taille de celles-ci, ainsi que leurs propriétés orbitales. Une comparaison avec les propriétés connues de manière aussi poussée des systèmes ne possédant pas de Jupiters chauds apparaît dans ce contexte comme une valeur ajoutée certaine puisque nous avons affaire ici à des systèmes dynamiques dont la configuration finale observée est la résultante d’interactions multiples entre les différentes planètes ayant parfois des effets dramatiques, comme nous l’avons vu pour le système solaire. Nous avons donc besoin du plus grand ensemble de données possible sur l’ensemble des systèmes planétaires, ayant ou non un Jupiter chaud. Depuis la découverte de Peg51b, la première exoplanète et de surcroît un Jupiter chaud, l’accumulation des données a été fulgurante puisque nous avons actuellement plus de 4 100 exoplanètes recensées. Un bond significatif a été effectué avec la mission Kepler qui a détecté par transit près de la moitié de ces objets. Ces planètes ont des masses allant de celle de la Terre à plusieurs fois celle de Jupiter mais sont des objets avec des périodes assez courtes et de l’ordre d’une centaine de jours. Les planètes ayant une plus grande période sont détectées avec la méthode des vitesses radiales. Depuis la découverte de Peg51b, nous avons accumulé des
données sur des temps suffisamment longs pour détecter un nombre significatif de Jupiters avec des périodes de quelques années. Il reste par contre toujours un fort biais instrumental puisque les objets de période plus longue ne sont pas accessibles par ces deux méthodes. L’imagerie directe permet d’accéder à des objets plus éloignés de leurs étoiles mais seulement s’ils sont assez massifs et suffisamment jeunes. Cette limite observationnelle empêche donc pour l’instant une caractérisation complète de la population d’objets ayant des périodes de plusieurs dizaines d’années comme Saturne, Uranus et Neptune. À ces limites s’en ajoutent deux autres importantes pour le problème de l’origine des Jupiters chauds. La première concerne la difficulté à détecter et à caractériser les propriétés des compagnons avec chacune de ces deux méthodes de détection. Pour la méthode des transits, il s’agit d’observer plusieurs diminutions de luminosité et leurs périodes qui peuvent être l’une comme l’autre très éloignées et d’intensité différente mais aussi le détail de ces variations dont on peut également tirer l’excentricité et les paramètres orbitaux de ces objets. Pour la méthode des vitesses radiales, il s’agit de retrouver la déformation due à la superposition de plusieurs sinusoïdes. Pour ces deux méthodes, l’accumulation sur des temps longs tout comme la précision sont deux aspects nécessaires pour arriver au niveau requis pour compléter l’architecture des systèmes planétaires. Bien que les données s’accumulent à une grande vitesse, elles sont encore insuffisantes pour statuer de manière définitive sur les scénarios de formation privilégiés en s’intéressant aux propriétés des systèmes auxquels appartiennent les Jupiters chauds. Des grandes tendances commencent par contre à se dégager. Il n’y a pas d’évidences fortes qui viennent étayer le modèle de formation in situ puisque des compagnons proches ne sont pas détectés de manière systématique. Il n’y a pour l’instant pas non plus de compagnons sur des orbites résonnantes qui viennent confirmer qu’une formation au-delà de la ligne des glaces suivie d’une migration dans le disque a lieu. Le scénario privilégié est celui d’une formation au-delà de la ligne des glaces suivie d’une excitation dynamique et d’une réduction de l’orbite par effet de marée. On trouve suffisamment de compagnons à longue période pouvant entraîner cet effet dynamique. La possibilité que ceux-ci soient produits par un compagnon stellaire a, en revanche, été éliminée tandis que l’effet de compagnons de masse plus faible reste à établir. La caractérisation plus complète des objets constituant ces systèmes et de leurs propriétés orbitales, qui va être obtenue grâce à des suivis au sol ou par la mission PLATO, va continuer à apporter une meilleure contrainte pour ce problème dans les prochaines années. Maintenant que nous avons passé en revue les différentes approches utilisées pour contraindre les scénarios de formation des Jupiters chauds, on s’aperçoit que cette question conduit naturellement à une approche statistique du problème. On ne parlera plus du scénario à l’origine des Jupiters chauds mais plutôt des différentes voies possibles auxquelles on associe différentes probabilités. Deux points importants apparaissent immédiatement une fois ce pas conceptuel franchi. Celui qui consiste à considérer que l’ensemble des solutions sont possibles et
à reconnaître qu’un système aux propriétés très particulières peut exister parmi d’autres plus probables. Le second est le besoin d’accumuler suffisamment de données sur l’ensemble des systèmes pour que cette première assertion puisse être quantifiée de manière précise. En d’autres termes, vous avez besoin d’un échantillon de référence suffisamment important pour pouvoir quantifier cette probabilité. Une analogie utile qui reprend ces notions est celle du galet et de la plage de galets. Lorsque vous ramassez un galet sur une plage et que vous considérez sa forme, sa couleur ou ses rainurages colorés, c’est-à-dire les différentes propriétés qui le définissent en particulier, vous ne pouvez distinguer les propriétés génériques de celles qui sont particulières qu’en les comparant avec les autres galets de la plage. Il vous faut bien sûr suffisamment de galets pour cela. Le problème de l’origine des Jupiters chauds procède exactement de la même façon. On cherche une meilleure caractérisation à la fois de ces objets et de leur environnement pour progresser sur la connaissance que nous avons des mécanismes de leur formation. Comme nous venons de le voir, plusieurs fronts de recherche y participent et on s’attend à des progrès significatifs dans les prochaines années en raison du grand nombre d’instruments, de missions en opération ou en développement qui bientôt fourniront les données supplémentaires pour compléter cet ensemble statistique. Ces instruments sont construits pour combler certaines lacunes dans les observations jugées critiques pour confirmer un modèle particulier. Cette interaction continue entre les outils d’observation développés en réponse à des questions scientifiques particulières posées est le propre de la démarche scientifique et se retrouve dans bien des domaines. Il est particulièrement important d’en saisir la portée dans le domaine émergent des exoplanètes. L’extrême réactivité qui existe actuellement en raison de l’investissement massif autour des moyens d’observation au sol, dans l’espace ou humains permet d’aller de l’hypothèse à la vérification de certains aspects critiques de la formation des systèmes planétaires ou des objets qui les composent en seulement quelques années. La durée de vie des hypothèses émises en planétologie s’est rétrécie de manière vertigineuse depuis vingt-cinq ans. Nous sommes bien loin de la longévité des théories formulées par nos éminents prédécesseurs qui pouvait atteindre des décennies, voire des siècles. Les données étant en cours d’acquisition non seulement pour les Jupiters chauds mais aussi pour un grand nombre de problèmes comme celui des planètes habitables ou de la formation du système solaire, les hypothèses sont revues et corrigées de manière assez fréquente et à un rythme de quelques années ou, au plus, d’une décennie. C’est ce qui fait tout l’attrait de ce domaine de recherche et illustre ce que l’on appelle aujourd’hui la planétologie quantitative.
Une trop grande diversité de planètes détectées
Comprendre la nature de la première exoplanète ainsi que les mécanismes qui ont donné lieu à sa formation n’est bien entendu pas la seule préoccupation ou la seule question à laquelle on cherche à répondre avec la collection de planètes extrasolaires découvertes. Nous avons vu qu’après vingt-cinq ans d’observations nous n’avions pas seulement une planète du type de Peg51b mais une famille complète constituée de quelques centaines d’objets avec les mêmes caractéristiques. Grâce à des techniques de plus en plus sensibles et de plus en plus perfectionnées, ce n’est pas une nouvelle famille de planètes comme les Jupiters chauds mais plusieurs grandes classes de planètes qui se dégagent. Avec les Jupiters chauds, des temps d’accumulation suffisamment longs ont assez rapidement permis de détecter des Jupiters tièdes puis des Jupiters plus froids. Il s’agit dans ce cas de planètes du type géante gazeuse comme Jupiter et Saturne mais qui demeurent soumises à l’influence de plus en plus faible de l’étoile hôte alors que nous nous éloignons à des distances toujours plus grandes. Comme nous l’avons vu, les temps d’accumulation ne permettent pas encore d’atteindre des objets dont la période dépasse quelques années en utilisant la méthode des vitesses radiales. Il y a donc une limite de détection au-delà d’environ cinq unités astronomiques (1 u.a = 1 distance Terre-Soleil). Ces planètes existent donc probablement mais restent inaccessibles aux moyens de détection actuels. Dans cette région, on ne détecte que quelques planètes assez massives et jeunes par une autre méthode, l’imagerie directe qui, comme nous l’avons vu, consiste à prendre directement une image de la planète en cachant celle de l’étoile.
Figure 16. Les grandes familles d’exoplanètes (image : © NASA ; légendes : © Y. Gominet/IMCCE).
L’ambition des télescopes au sol de plus grande taille comme l’ELT (Extremely Large Telescope) européen et son équivalent américain le TMT (Thirty Meters Telescope) vise à combler cette lacune dans les prochaines années. Ces nouveaux instruments vont permettre d’atteindre une résolution plus satisfaisante et un meilleur contraste, et permettre ainsi de détecter ces objets d’une luminosité plus faible et à des distances plus proches de leur étoile hôte. Comme on peut s’y attendre, la taille de ces géantes gazeuses varie, par contre, de manière quasi uniforme, avec des objets plus massifs comme d’autres de masse moins importante. On relie ainsi sans difficulté des objets de 10 fois la masse de Jupiter à une fraction de la masse de Saturne et de manière continue, suggérant qu’il n’y a pas de taille ou de masse critiques pour les géantes gazeuses. Avec les Jupiters chauds, nous avons donc une deuxième grande famille que sont les géantes gazeuses froides ressemblant à Jupiter et à Saturne par leur composition et leur distance à l’étoile hôte. Ces deux grandes familles ne sont pas nettement séparées et il existe beaucoup de planètes de tailles intermédiaires et à des distances moyennes de leur étoile. Les deux grandes familles de planètes géantes, les Jupiters chauds et les géantes froides, doivent donc être vues comme des grandes catégories aux contours lâches. On a, en revanche, détecté maintenant suffisamment de planètes pour penser que les planètes géantes apparaissent dans environ 10 % des systèmes planétaires, mais avec les Jupiters chauds qui ne représentent que
1 % des cas. On voit donc qu’avec Peg51b on a découvert une planète qui n’est pas unique mais dont le nombre est statistiquement faible en comparaison des autres planètes recensées. Alors que la détection de ces planètes géantes a dominé les quinze premières années qui ont suivi la détection de Peg51b, la situation a radicalement changé avec la mission de transit Kepler à partir du début des années 2010. En observant de manière continue une partie du ciel, la mission Kepler a révélé, dans un cône qui s’étend à près de 3 000 années-lumière, plusieurs milliers de planètes allant de la masse de la Terre et un peu en dessous à quelques dizaines de fois celle-ci. Ces planètes ont, dans ce cas, des masses comparables à celles de Neptune et d’Uranus. Dans ce conglomérat de quelques milliers de planètes dont la densité varie de manière assez uniforme, on définit quelques sous-familles remarquables par comparaison avec les planètes du système solaire. Pour les plus hautes densités, on distingue ainsi les Terres et SuperTerres dont les densités sont assez proches de celle de la Terre mais dont les masses peuvent atteindre une dizaine de fois celle-ci. Ces planètes sont composées d’un noyau de fer et d’un manteau de silicates similaires à ceux de la Terre. La teneur en eau y est faible ou nulle. En partant des planètes géantes qui sont les plus massives mais qui ont les densités les plus faibles car composées principalement d’hydrogène et d’hélium, les deux éléments les plus légers de l’Univers, et en allant vers les densités croissantes, on trouve, comme dans le système solaire, des planètes dont la densité s’approche de celle des géantes glacées, Neptune et Uranus. Composées également d’hydrogène et d’hélium pour les plus légères mais aussi largement d’eau et d’un cœur de silice pour les plus denses, ces planètes forment la limite supérieure de ce conglomérat d’objets détectés par Kepler. Il existe des planètes qui ont des masses et des densités qui se situent entre celles des géantes et des géantes glacées mais elles semblent à l’heure actuelle moins nombreuses. Cependant, le nombre de planètes détectées est assez uniforme, en première approximation, entre les géantes glacées et les Terres et les Super-Terres. Il y a semblet-il une gradation entre les planètes de type terrestre, composées de silicates et de fer, et celles constituées majoritairement d’eau avec un cœur de silicates, voire de silicates et de fer. Comme nous n’avons que la densité pour ces objets, c’est-à-dire lorsque l’on peut appliquer la méthode à la fois des transits et des vitesses radiales, une certaine incertitude règne quant à la composition exacte de ces objets appartenant à ce conglomérat défini par les Terres et les SuperTerres d’une part, et les géantes glacées d’autre part. Nous sommes dans une situation où les compositions sont dites dégénérées comme nous avons plusieurs compositions possibles contenant différentes fractions de fer, de silice ou d’eau qui peuvent amener à la densité mesurée. Cette base de composition est d’ailleurs directement inspirée de celle des planètes du système solaire et rien n’interdit de penser que d’autres éléments comme le carbone sont présents. Ce jeu de compositions possibles est d’ailleurs souvent utilisé pour sortir quelques planètes remarquables de cette longue litanie d’objets qui est somme toute assez monotone lorsqu’on la parcourt de manière statistique.
On voit ainsi apparaître à intervalles réguliers dans les médias grand public des annonces qui tentent de casser cette monotonie en rapportant la découverte de planètes faites de diamants comme 55Cancri-e ou même de saphirs et de rubis comme HD219134b. Bien que ces annonces soient anecdotiques et sujettes à modifications comme dans le cas de 55Cancri-e, elles rappellent utilement le fait que nous avons sûrement un préjugé sur la nature même de ces objets qui est amplifiée par la classification de ces exoplanètes par rapport aux planètes du système solaire. Il faut garder à l’esprit que, lorsque l’on parle, par exemple, de Terres et de Super-Terres, cela ne signifie pas que les surfaces de ces planètes ressemblent à ce que l’on voit sur Terre. Les minéraux qui se trouvent à la surface étant fortement dépendants des impuretés présentes, cellesci peuvent varier en quantité non négligeable d’une planète à l’autre et revêtir ainsi des apparences très différentes, ou au moins aussi variées que ce que l’on voit sur Terre. L’optimiste y verra une amplification possible de ce qui titille notre imaginaire rêveur, à l’image des rivières de diamants et des plages de saphirs, tandis que d’autres, plus pessimistes, percevront là des coulées de charbon et des plages d’oxyde d’aluminium. Cette version pessimiste pour les planètes telluriques fait probablement écho à la vision nouvelle que nous avons du système solaire et de notre déception face à la découverte de la surface de Mars. Elle ne doit pourtant pas s’étendre aux exoplanètes car les planètes telluriques du système solaire se sont formées à partir d’un disque d’une composition particulière et relativement loin de leur étoile comparées aux exoplanètes de type terrestre détectées jusqu’à présent. Mars, la Terre et Vénus ont, tout de même, connu un processus de formation assez similaire, avec des températures comparables pour ce qui concerne la formation de leurs parties solides et des ingrédients primordiaux en proportion très similaires. Il est donc raisonnable d’imaginer qu’une plus grande diversité minéralogique existe sur les exoplanètes de type terrestre qui se sont formées à partir de disques protoplanétaires dont la composition est peut-être différente de celle de la nébuleuse primordiale du système solaire. Il est également possible que les processus de formation ne soient pas non plus aussi convolués que ceux pressentis pour le système solaire où, comme nous l’avons vu, la formation des planètes géantes et leur migration semblent avoir joué un rôle primordial. Cela est d’autant plus vrai que nous trouvons ces planètes dans des configurations très différentes de celles du système solaire. De même qu’elle a permis de trouver des planètes géantes du même type que Jupiter et Saturne sur des orbites très proches de leur étoile et à l’intérieur de l’orbite de Mercure, les Jupiters chauds, l’augmentation de la sensibilité des méthodes de transit a assez rapidement mis en évidence des Terres et des Super-Terres également sur des orbites très proches et tournant autour de leur étoile hôte en quelques heures pour les plus rapides. Dans ces configurations très proches de l’étoile, les températures de surface atteignent plusieurs milliers de degrés et sont suffisamment élevées pour que les silicates ou l’aluminium entrent en fusion. Si ces températures de surface sont aussi élevées, c’est à cause du flux de chaleur reçu de l’étoile mais également en raison des effets de marée très importants qui s’exercent. Io, le satellite le plus proche de Jupiter,
est un exemple de système illustrant ce phénomène de manière spectaculaire avec une surface recouverte de volcans et de coulées magmatiques en raison des effets de marée exercés par Jupiter. Cette classe de planètes, que l’on dénomme les Terres et Super-Terres magmatiques, sont le nouvel eldorado des planétologues car, comme les Jupiters chauds, elles sont particulièrement adaptées aux moyens d’observation actuels. En raison de leurs positions très proches de leur étoile, elles permettent une accumulation de données assez rapide puisqu’un transit a lieu en quelques jours. Comme pour les Jupiters chauds, une caractérisation systématique de leurs atmosphères par spectroscopie semble également envisageable à court terme avec, en outre, la mise en service du JWST (James Webb Space Telescope) dans les prochaines années et le lancement de la mission ARIEL de l’ESA. Des premiers résultats allant en ce sens commencent d’ailleurs à être obtenus avec, par exemple, une première caractérisation de la température de surface pour 55Cancri-e qui semble suggérer une activité magmatique importante à la surface. Ces résultats sont très préliminaires et encore susceptibles d’évoluer alors que la caractérisation atmosphérique progresse pour ces objets dont on commence à connaître non seulement le rayon mesuré par transit, mais aussi la masse, en ajoutant des mesures par vitesses radiales lorsque c’est possible. Une étude de ces Terres et Super-Terres magmatiques suivant la même ligne de progression que pour les Jupiters chauds est particulièrement intéressante car ces objets peuvent fournir le chaînon manquant entre Vénus, Mars et la Terre qui ont connu une histoire géophysique différente avec des phases de volcanisme et de tectonique apparemment dissemblables. Comme nous l’avons vu précédemment, cette distinction entre Vénus, qui semble avoir été le lieu d’un volcanisme intense, et la Terre, dont on pense plutôt qu’elle a connu un volcanisme plus modéré et une tectonique des plaques, touche aux questions d’habitabilité de ces planètes au cours de leur histoire. Une meilleure modélisation des contraintes régissant l’atmosphère des Terres et des Super-Terres magmatiques va donc vraisemblablement nous donner de meilleures estimations concernant la fréquence et l’intensité de l’activité volcanique et des processus géophysiques associés. Cette caractérisation atmosphérique va également nous renseigner sur le lien entre l’atmosphère créée par les océans de lave en fusion et l’activité volcanique. Lorsque la roche est en fusion, elle libère les éléments plus légers prisonniers comme l’eau, l’hydrogène ou le CO2. Comme on pense que ce phénomène est à l’œuvre pour produire l’atmosphère primitive d’une planète de type terrestre, et notamment l’atmosphère primitive de la Terre juste après sa formation, ces observations vont donc fournir des indications quant à sa composition initiale. L’histoire très particulière du système solaire amène naturellement à se questionner sur la généricité de son architecture particulière et, par voie de conséquence, des ingrédients primordiaux qui font que la Terre est habitable. Les conditions très inhospitalières qui règnent à la surface des Terres et des Super-Terres magmatiques sont, de manière surprenante, une opportunité pour comprendre non seulement les premières étapes de formation de l’atmosphère
terrestre, mais de manière plus générale les conditions qui mènent à l’habitabilité d’une planète. La nature de l’atmosphère produite est en fait un indicateur direct de la composition interne en éléments légers qui dépend à son tour du processus de formation et de la façon dont ces éléments sont distribués dans le disque primordial et accumulés par la planète lors de sa formation. Nous reprendrons cette discussion dans les pages suivantes. Notons toutefois une dernière catégorie de planètes détectées qui n’a pas non plus d’équivalent dans le système solaire, les planètes océans. Ces planètes sont des candidats viables pour la détection d’activité biologique. Dans le conglomérat de planètes détectées par Kepler, la limite des densités plus basses correspond aux planètes s’approchant de la composition de Neptune et d’Uranus. Ces densités sont telles que ces planètes contiennent une fraction d’eau importante. Les planètes océans représentent une sous-famille de planètes dont les masses sont inférieures à une dizaine de masses terrestres. Les densités correspondent à un cœur de la même composition que la Terre, contenant du fer et des silicates entourés d’une large fraction d’eau de l’ordre de 10 à 50 %. Cette estimation de la quantité d’eau demeure assez approximative comme la densité et la masse des planètes détectées varient de manière quasiment continue. Leurs distances à l’étoile hôte varient également de manière continue. Pour les plus éloignées et si leurs atmosphères ne contiennent pas d’hydrogène ou d’hélium, les températures de surface sont telles que ces planètes sont probablement couvertes de glace comme le sont Europe et Encelade. Alors que nous cherchons activement les traces d’une activité biologique sur ces deux satellites de Jupiter et de Saturne, ces planètes glacées leur correspondant ne sont pour l’instant pas des cibles privilégiées pour détecter une activité biologique potentielle. C’est au contraire le cas pour Europe et Encelade car nous entrevoyons comme possible l’analyse de la composition chimique des jets émanant de leurs surfaces. Dans le cas des planètes océans glacées, il faudrait se convaincre de l’existence d’un mécanisme permettant la détection d’une activité biologique se déroulant potentiellement sous la couche de glace de manière similaire aux jets d’Europe et d’Encelade puisque nous n’avons a priori pas d’atmosphère. Nous sommes cependant ici dans le cas où rien ne nous permet d’exclure que cette situation soit favorable au développement d’une activité biologique mais nous nous trouvons dans l’incapacité de la détecter. Il s’agit donc d’une hypothèse ne pouvant pas être validée, avec un poids scientifique moindre, sinon nul. Les choses sont peut-être plus favorables pour les planètes plus proches de leur étoile pour lesquelles les températures de surface permettent que l’eau se trouve à l’état liquide. Cette situation permet en effet d’envisager une caractérisation atmosphérique directe. À des distances suffisantes, mais toutefois supérieures à ce que l’on appelle le « désert des Neptunes », on peut en effet penser que la température de surface est comprise dans un intervalle permettant que l’eau soit à l’état liquide mais sans qu’il y ait une évaporation complète au cours du temps. L’évaporation est la raison pour laquelle nous pensons que, contrairement aux planètes magmatiques et aux Jupiters chauds, il n’existe pas de planète de type Neptune ou même de
planète océan très proches de leurs étoiles. Les caractérisations atmosphériques à venir se pencheront bien entendu sur ces objets qui, comme nous l’avons dit, n’ont pas d’équivalent dans le système solaire et pour lesquels il faut sans doute s’attendre à être surpris. Malgré le biais observationnel très fort que nous avons avec les moyens d’observations actuels, nous avons déjà détecté un nombre impressionnant de planètes dotées d’une diversité de compositions et de distance à l’étoile hôte qui varient de manière quasi continue. En utilisant les planètes du système solaire pour définir les grandes catégories auxquelles ces objets appartiennent, deux nouvelles familles sont venues s’ajouter à celle des Jupiters chauds, les Terres magmatiques, qui recèlent sûrement des indices sur les premiers instants de la Terre, et les planètes océans, qui laissent entrevoir un océan continu, sans port ni attache, sur lequel naviguer sans escale. Ces deux familles de planètes sont ici mises en avant pour la pertinence de l’information qu’elles apportent sur les conditions conduisant à l’existence des planètes habitables. Elles appartiennent à un conglomérat de planètes dont la composition varie de manière continue de celles des Terres et des Super-Terres aux géantes gazeuses, en passant par les géantes glacées. Ce conglomérat va croître avec la prochaine génération d’instruments, mais on peut déjà voir qu’il n’est pas uniforme, que les planètes de type terrestre détectées sont en plus grand nombre que les Jupiters chauds, que la composition des planètes varie de manière continue. Au-delà des particularités intrinsèques de chacune, mises en avant dans cet inventaire des grandes familles d’exoplanètes qui commencent à émerger avec plus de 4 100 objets détectés, une dernière famille intéresse tout particulièrement et reçoit régulièrement une attention médiatique soutenue. Il s’agit des planètes que l’on considère comme potentiellement habitables.
Des candidats qui seraient peut-être habitables Les planètes dont la masse est comparable à celle de la Terre et qui se trouvent à une distance de leur étoile hôte telle que l’on pense que l’eau est à l’état liquide à la surface sont dénommées planètes habitables. Chaque découverte fait la une des médias et ces planètes sont malheureusement trop hâtivement associées à un environnement proche de la Terre, ou même équivalent à celui-ci. Plusieurs distinctions majeures subsistent néanmoins avec le cas de la Terre qu’il est nécessaire de garder à l’esprit. La première, et non des moindres, est le raccourci que font les astrophysiciens entre l’eau et la vie. Cette première approximation part du constat simple que l’eau joue un rôle déterminant pour la vie telle qu’on la connaît sur Terre et apparaît comme l’élément indispensable pour son habitabilité. Cette approximation est somme toute raisonnable et constitue un bon point de départ mais ne fait aucune différence entre un verre d’eau et une souris ou un oiseau. Il faut donc tout d’abord bien garder à l’esprit qu’habitable dans le contexte
des exoplanètes ne signifie pas habitée et se limite à des conditions de surface. Cela ne concerne pas non plus les planètes avec des conditions similaires à ce que nous avons évoquées à l’intérieur des satellites glacés Europe et Encelade. Avec ces restrictions, la définition d’une zone habitable reste tout de même un problème très complexe. La notion de zone habitable s’est développée à partir des années 1950 et a évolué de manière étroite avec la progression de notre compréhension des conditions très différentes qui existent à la surface de Mars, de la Terre et de Vénus. Comme nous l’avons vu dans les chapitres précédents, la conquête spatiale a joué un rôle crucial en déterminant les conditions qui existent à la surface de Mars et de Vénus ainsi que pour analyser la composition de leurs atmosphères. Depuis les années 1950, nous avons ainsi développé une compréhension de l’évolution des conditions de température régnant sur ces trois planètes, basée de manière quasi exclusive sur l’évolution de leur climat sur le long terme. Nous postulons que les conditions initiales ont été très proches, que les trois planètes avaient la même teneur initiale en eau mais qu’elles ont évolué différemment en raison du couplage subtil qui existe entre la composition atmosphérique de la planète et le flux solaire qu’elle reçoit. Cette modélisation du climat sur le long terme prend en compte l’effet de serre des différents composants de l’atmosphère, notamment celui du CO2, et rend compte que, trop près de son étoile, l’atmosphère subit le même sort que Vénus et s’assèche tandis qu’éloignée de celle-ci l’eau ne peut se maintenir à l’état liquide à la surface. En supposant que l’atmosphère d’une planète de type terrestre était de manière générique constituée d’eau, d’azote et de CO2, James Kasting a formalisé au début des années 1990 la notion de zone habitable pour les exoplanètes, généralisant les concepts utilisés pour appréhender le climat de la Terre, de Mars et de Vénus et leurs évolutions sur le long terme. Il y a donc une connexion directe entre notre compréhension de l’histoire de ces trois planètes telluriques et notre conception de ce qui constitue une planète habitable. Comme nous le verrons plus loin pour le cas de la Terre, cette notion est également assez réductrice car elle ne tient pas compte de l’histoire géophysique de celle-ci ou des processus de formation différents qui ont pu avoir eu lieu. En prenant une composition atmosphérique générique composée principalement d’eau, d’azote et de CO2, elle permet, par contre, d’appréhender de manière systématique l’influence de la luminosité de l’étoile hôte sur les conditions supposées à la surface d’une planète. C’est peut-être même ce qui a fait le succès de cette définition car, pour le moment, beaucoup de planètes ne sont pas détectées autour d’étoiles ressemblant au Soleil. Nous avons rapidement décrit les différents types de planètes détectées à ce jour en notant une grande diversité de systèmes planétaires mais en laissant pour un temps de côté la nature des étoiles autour desquelles ces planètes sont détectées. Et l’on sait depuis plusieurs décennies, et bien avant la découverte des exoplanètes, que les étoiles qui nous entourent sont de nature bien différente. Il suffit de regarder une nuit étoilée de manière un peu attentive pour tout de suite s’en rendre compte. Certaines étoiles sont plus brillantes que les autres tandis que d’autres ont un
éclat qui n’est pas tout à fait le même. Certaines ont en effet un éclat plus bleuté tandis que pour d’autres il semble tendre vers le rouge. Si nous nous représentons dans l’espace, avec le Soleil sur les deux tiers d’un bras d’une galaxie spirale, nous nous attendons à ce que les différentes étoiles qui sont à des distances différentes de nous soient plus ou moins brillantes. Cela n’explique qu’en partie la raison pour laquelle certaines étoiles apparaissent plus brillantes que d’autres. Le deuxième effet est directement lié à la nature de l’étoile, son âge et sa masse. La variation de l’éclat des étoiles, visible pour certaines à l’œil nu, correspond en fait aux étoiles en fin de vie, comme la géante rouge Bételgeuse dans la constellation d’Orion, ou, au contraire, à des étoiles juste naissantes, comme les Pléiades et leurs apparences bleutées. Une observation plus précise de la luminosité des étoiles montre que cette différence n’existe en fait pas seulement pour des étoiles à différents stades d’évolution mais de manière tout aussi importante pour des étoiles de masses différentes. Pour comprendre pourquoi la luminosité d’une étoile dépend de sa masse, il faut se rappeler qu’une étoile est composée principalement d’hydrogène avec une teneur plus faible d’hélium et des traces d’autres éléments. Lors de son processus de formation, de manière similaire à celui que nous avons vu pour les planètes, cette masse s’effondre sur elle-même sous l’effet de sa propre gravité jusqu’à ce que les températures et les densités atteintes soient telles que la répulsion entre les atomes et les électrons vienne contrebalancer celle-ci. Alors que les planètes en restent là, les étoiles plus massives atteignent les conditions de température et de densité pour lesquelles les réactions de fusion nucléaire démarrent, et consomment progressivement le carburant en hydrogène. La masse critique à laquelle ces réactions de fusion nucléaire démarrent est d’ailleurs le critère qui distingue les planètes des étoiles. Cette limite se situe aux alentours d’un vingtième de la masse du Soleil. En dessous de cette masse critique, nous avons les naines brunes que nous avons déjà mentionnées. Elles peuvent être considérées comme des étoiles avortées car trop petites. Cette catégorie d’objets s’étend d’une quinzaine de fois la masse de Jupiter à 80 fois celle-ci. Elles peuvent être prises comme des objets de transition entre les planètes et les étoiles. Il y a donc un continuum d’objets dont la masse s’étend de celle de Jupiter aux étoiles les plus petites et pour lesquels il n’y a pas de réactions nucléaires. Ces naines brunes sont les objets qui étaient initialement cherchés par la méthode des vitesses radiales et qui ont amené, comme nous l’avons vu, à la découverte de Peg51b. Cette uniformité d’objets de masse croissante se poursuit bien entendu au-delà de la masse critique d’un vingtième de la masse du Soleil jusqu’à plusieurs fois la masse du Soleil. Ces objets vont avoir une luminosité qui varie en fonction de leur masse puisque les étoiles de masse plus importante demandent des conditions de pression et de température plus élevées pour équilibrer la pression gravitationnelle. Les réactions thermonucléaires vont alors être plus efficaces et produire ainsi plus de photons. Ces étoiles vont apparaître comme plus lumineuses. La classification stellaire est une science en soi qui s’est développée sur près d’un siècle et, sans entrer dans les détails, on retiendra pour notre propos que l’on classe les étoiles en fonction de
leur luminosité et de leur couleur qui correspond en fait à la gamme de longueurs d’onde où elles émettent le plus. Les étoiles les plus petites, d’un vingtième de fois la masse du Soleil, sont les naines rouges car elles ont des luminosités très faibles avec un spectre d’émission majoritairement décalé vers le rouge, comme lors d’un coucher de Soleil. Ces étoiles sont économes, consomment peu d’hydrogène, et sont jusqu’à 10 fois moins lumineuses que le Soleil. Elles vont avoir une durée de vie bien plus importante qui peut s’étendre sur plusieurs dizaines de milliards d’années. Le Soleil est une naine jaune, plus lumineuse, avec une durée de vie estimée à 10 milliards d’années en se basant sur sa réserve d’hydrogène disponible. Viennent ensuite plusieurs types d’étoiles plus massives et plus lumineuses atteignant jusqu’à quelques dizaines de fois la masse du Soleil. Les luminosités peuvent atteindre plusieurs dizaines de milliers de fois celle du Soleil et leurs couleurs vont être décalées vers le bleu. Dans ce contexte où le type des étoiles et donc la luminosité qu’elles émettent varie, on pressent immédiatement que les distances auxquelles la température de surface sera suffisante pour permettre que de l’eau se trouve à l’état liquide à la surface d’une planète vont varier. C’est ce qui est évalué de manière formelle lorsque l’on calcule la zone habitable d’une étoile. On couple la modélisation climatique utilisée pour la Terre, Vénus et Mars, en supposant une atmosphère constituée de CO2, d’azote et d’eau, et en faisant varier la luminosité de l’étoile hôte. On généralise ainsi ce qui est observé pour le système solaire à des étoiles de type et de luminosité différents. On voit ainsi que la zone habitable, qui est étroite pour le système solaire puisqu’elle est supérieure à la distance de Vénus au Soleil et s’étend légèrement au-delà de celle de Mars, va se rapprocher fortement de l’étoile hôte lorsque la masse de celle-ci, c’est-à-dire sa luminosité, diminue.
Figure 17. Variation de la zone habitable en fonction du type de l’étoile (© adapté de CC BY-SA 3.0 ESO/Henrykus [planètes : PHL at UPR Arecibo/NASA/JPL/APL/Arizona] ; légendes : Y. Gominet/IMCCE).
Comme nous avons un biais observationnel assez marqué favorisant la détection de planètes terrestres qui ont des orbites proches de leur étoile, notamment avec les observations faites par le télescope spatial Kepler, les planètes identifiées comme habitables se trouvent en fait pour l’instant autour d’étoiles bien plus petites et moins lumineuses que le Soleil. La planète habitable la plus proche de la Terre, Proxima Centauri b, est située, par exemple, dans la zone habitable d’une naine rouge mais tourne autour de son étoile avec une période de seulement 11 jours. Dans ces conditions particulières, la planète est en rotation synchrone. Comme pour la Lune autour de la Terre, cette planète va ainsi toujours montrer la même face à son étoile. Il n’existe donc pas d’alternance jour-nuit pour cette planète comme nous le connaissons sur Terre. Les conséquences de cette configuration particulière sur l’estimation des conditions d’habitabilité faites en s’appuyant sur un modèle s’appuyant sur les données que nous avons du système solaire sont assez difficiles à quantifier pour l’instant. La rotation de la Terre, par exemple, permet notamment de distribuer la température de manière assez homogène sur toute sa surface. Il est légitime de se demander ce qu’il en est pour une planète en rotation synchrone et si cette définition d’habitabilité qui puise ses fondements en s’appuyant sur des conditions très
différentes est légitime. Il en est de même pour la composition de l’atmosphère de Proxima Centauri b, qui est supposée être la même que celle d’une planète qui s’est formée 10 fois plus loin dans le disque, la Terre. La même question se pose pour sa masse qui est en fait 2 fois plus importante que celle de la Terre. La litanie des interrogations sur cette définition de zone habitable, sur sa généricité comme sur sa pertinence pour une large gamme de planètes de type terrestre et autour de différents types d’étoiles, est tout à fait légitime. C’est d’ailleurs un champ de recherche très actif actuellement. Il l’est d’autant plus que certaines planètes dites dans la zone habitable de leur étoile sont suffisamment proches pour anticiper qu’une caractérisation de leurs atmosphères sera possible avec la prochaine génération d’instruments. C’est par exemple le cas du système Trappist-1, qui pourrait contenir jusqu’à quatre planètes dans la zone habitable d’une naine rouge. Ces observations vont ainsi nous renseigner sur l’étendue de la zone habitable autour de ce type d’étoiles et de la relation qui existe avec celle que nous connaissons dans le système solaire. Le but ici n’est pas de montrer les limites d’une définition pour s’en débarrasser et en choisir une autre mais, au contraire, de mettre évidence le fait qu’il s’agit d’un concept pour l’instant très utile permettant de sélectionner des candidats d’intérêt pour une série d’observations plus approfondies avec la prochaine génération d’instruments. Avec plus de 4 100 planètes désormais détectées, ces planètes cataloguées comme habitables doivent donc être perçues comme des cibles privilégiées pour les prochaines campagnes d’observations plutôt que comme des jumelles de la Terre, ce qu’elles ne sont probablement pas. Elles peuvent en revanche, et de manière tout aussi importante, étendre les conditions favorables au développement de la vie au-delà de la petite zone que l’on connaît dans le système solaire si la modélisation atmosphérique de type terrestre transposée à ces planètes ne se révèle pas trop erronée. La forte occurrence de ces planètes combinée aux conditions favorables d’observation peut étendre de manière significative nos chances de détection de vie au-delà du système solaire. Le deuxième front de recherche qui s’invite, une fois ces considérations faites, consiste à chercher directement une planète ressemblant en tout point à la Terre, et, en l’occurrence, une planète de type terrestre qui soit directement dans la zone habitable d’une naine de type G comme le Soleil. Il s’agit ici du cas de la Terre-bis ou eta-Earth. En suivant cette logique, on se heurte, pour l’instant, à deux limites. La première est instrumentale, car nous devons chercher une petite planète d’une masse terrestre qui orbite autour de son étoile selon une période d’une année. Nous avons vu que nous sommes dans l’angle mort des moyens d’observation actuels, et quasiment aucun candidat n’a été détecté à ce jour. Kepler-62f est un candidat confirmé dans la zone habitable d’une étoile de type K, intermédiaire entre le Soleil et une naine rouge. Sa période est de 262 jours mais se situe à 1 200 années-lumière de notre système solaire. Kepler-452b parcourt, elle, une orbite autour d’une étoile du même type que le Soleil en 384 jours et se trouve à 1 600 années-lumière. Les masses de ces deux planètes ne sont pas contraintes puisqu’une mesure par vitesses radiales n’est pas possible pour des systèmes aussi distants. Nous ne
connaissons donc pas les masses de ces objets qui sont potentiellement plus importantes que celle de la Terre. L’existence même de Kepler-452b est vivement discutée, ce qui souligne la difficulté actuelle à détecter ces objets. La situation pourrait changer d’ici la fin de la décennie avec l’arrivée de la mission PLATO. PLATO est une mission de transit dont l’objectif principal est précisément d’identifier ce type de planètes et de combler ainsi le manque de données dont nous souffrons actuellement pour les planètes de type terrestre dans la zone habitable d’étoile de type G comme le Soleil. On peut ainsi espérer que, pour la fin de la décennie, nous aurons identifié suffisamment de planètes de ce type dans des conditions permettant un suivi au sol avec des instruments comme l’ELT et pouvoir caractériser leurs atmosphères par spectroscopie. La probabilité de succès de cette proposition n’est, par contre, pas complètement établie à ce stade. En d’autres termes, la question de savoir si nous allons détecter suffisamment de planètes de type terrestre dans la zone habitable d’une étoile de type G demeure une question ouverte. Le second élément à prendre en compte pour saisir la difficulté intrinsèque qui existe à chercher une jumelle de la Terre s’appuie sur la densité des étoiles du même type que le Soleil dans l’environnement proche et observable. Nous notons qu’un progrès significatif dans cette direction est accompli en ce moment par la mission Gaia de l’ESA, qui caractérise plus d’un milliard d’étoiles dans notre environnement proche pour préciser le type, la distance et la composition de la population stellaire qui nous entoure. Nous commençons donc à avoir une connaissance assez précise de notre environnement proche. La densité d’étoiles qui nous entoure est assez faible, car nous avons en moyenne 70 étoiles dans un cube de 15 années-lumière de côté et ce, de manière presque uniforme sur un cube qui s’étend sur à peu près 300 annéeslumière de côté. Le chiffre particulièrement important à retenir est que, dans ce cube, nous avons 75 % des étoiles qui sont du type M, c’est-à-dire des naines rouges, 15 % de type K intermédiaire, et seulement 7 % d’étoiles du type G, c’est-à-dire du même type que le Soleil. Même si la loi des grands nombres laisse suffisamment d’étoiles de ce type à échantillonner, cet échantillon demeure cependant 10 fois plus petit que pour les naines rouges. Pour prédire le nombre de planètes d’une masse proche de la Terre que nous allons pouvoir détecter, il faut maintenant prendre en considération l’histoire moderne du système solaire telle que nous la comprenons aujourd’hui. Comme nous l’avons vu au chapitre précédent, l’histoire du système solaire qui se dégage du Grand Tack et du modèle de Nice est celle d’un système très dynamique où l’architecture finale du système interne, et les caractéristiques d’habitabilité de la Terre, dépend de la réalisation conditionnelle de plusieurs événements, comme l’apparition rapide de Jupiter, celle de Saturne avec la bonne masse et l’occurrence d’une instabilité tardive. Mises bout à bout, ces réalisations conditionnelles couplées à la probabilité de détection font plonger le nombre de planètes détectables ressemblant à la Terre dans la zone habitable d’une étoile de type G à seulement quelques individus. Nous nous trouvons donc dans une situation a priori
moins favorable que pour les étoiles de type M si nous suivons ce modèle de formation du système solaire. La question qui se pose immédiatement est donc de s’interroger sur ce que l’ensemble des planètes détectées nous apprend sur l’architecture des systèmes planétaires de manière générale et sur les grandes tendances qui se dégagent. Cette diversité des systèmes planétaires est en fait tout aussi surprenante que celle que nous venons de parcourir pour les planètes. Elle amène une nouvelle perspective sur la question de la généricité du système solaire et de nouvelles contraintes qui se posent sur ses modèles de formation. Par voie de conséquence, elle nous informe également sur la probabilité de détecter une jumelle de la Terre, problème que nous venons d’évoquer.
On cherche toujours un système planétaire qui ressemble au système solaire La révélation la plus saisissante de la mission Kepler et de l’ensemble des observations de ces dernières années est probablement la diversité des cortèges planétaires qui se dégage. Alors que la détection de planètes très proches de leur étoile comme les Jupiters chauds ou les Terres magmatiques pointe vers l’existence de mécanismes qui ont été inhibés ou amplifiés lors de la formation du système solaire, la contemplation des systèmes planétaires qui commencent à se dégager révèle sans aucune ambiguïté que les modèles de formation basés uniquement sur le modèle de la nébuleuse solaire faisaient fausse route. Ils ne se trompaient pas de manière subtile en passant légèrement à côté de la réalité observationnelle mais de manière fondamentale. Nous avons actuellement détecté près de 700 systèmes planétaires multiples, c’est-à-dire des systèmes contenant au moins deux planètes, et aucun n’était prédit par le modèle de la nébuleuse solaire inspiré par le cortège planétaire du système solaire. Pour rappel, celui-ci nous suggère qu’au premier ordre nous devrions trouver de manière générique des géantes gazeuses au-delà de la ligne des glaces et, dans le système interne, quelques planètes proches d’une masse terrestre. Les observations de ces dernières années nous révèlent une tout autre réalité, comme on commençait à l’entrevoir avec la détection des Jupiters chauds.
Figure 18. Comparaison entre le système solaire (en haut à gauche) et les systèmes planétaires identifiés par la mission Kepler jusqu’en 2015. Les orbites relatives entre les différents systèmes sont à l’échelle (© NASA/Fabricky).
Pour saisir tout l’intérêt de ce résultat, peut-être encore plus surprenant que celui des Jupiters chauds, il suffit de représenter en deux dimensions les orbites et les masses de toutes les planètes détectées, de les mettre en mouvement et de les comparer au système solaire. Cet exercice a été fait de manière assez méticuleuse pour l’ensemble des systèmes détectés par la mission Kepler, et plusieurs versions sont facilement accessibles sur Internet sous le nom du planétaire de Kepler (Kepler Orrery). Nous en donnons une version statique plus haut. En s’inspirant des planétaires mécaniques du XIXe siècle décrivant le mouvement des planètes autour du Soleil, cette version augmentée du XXIe siècle compare en deux dimensions l’ensemble des
systèmes planétaires détectés avec le système solaire. Cette représentation est saisissante. Elle montre un système solaire étendu et englué face à une multitude de systèmes aussi frénétiques les uns que les autres, avec une compacité à l’intérieur de l’orbite de Mercure sans limite, et qui se reproduit à de très nombreuses reprises.
Figure 19. Probabilité d’occurrence d’un système ressemblant au système solaire inspiré de S. N. Raymond et al., « Solar system formation in the context of extra-solar planets », 2018 (Soleil : © Solar Orbiter/EUI Team [ESA et NASA], CSL, IAS, MPS, PMOD/WRC, ROB, UCL/MSSL. Jupiter : © NASA, ESA, A. Simon [Goddard Space Flight Center] et M. H. Wong [University of California, Berkeley]. Système Kepler-62 : © NASA Ames/JPL-Caltech. HD 96167 b : © NASA/JPL-Caltech. Système Solaire 3D : images © NASA, légendes © Y. Gominet/IMCCE).
Comme nous pouvions commencer à l’entrevoir avec le conglomérat de planètes de type terrestre détectées, cette représentation aux pouvoirs hypnotiques illustre le fait que nous trouvons de manière fréquente des systèmes planétaires avec un système interne très encombré, comprenant plusieurs planètes dont les masses peuvent atteindre une dizaine de fois celle de Jupiter. Un des exemples spectaculaires qui illustre le mieux cette notion est probablement le système Trappist-1. Ce système présente pas moins de sept planètes de type terrestre, avec une répartition des masses planétaires assez uniforme, autour d’une masse terrestre, et sur des orbites qui s’étendent de 1,5 à 18 jours. Nous sommes ici bien loin de l’architecture du système solaire avec les masses de Mercure et de Mars représentant une fraction de celles de Vénus et de la Terre. Le système solaire interne se distingue aussi par les orbites assez étendues de ces planètes internes comparées aux systèmes exoplanétaires détectés jusqu’à présent. Nous trouvons en effet que la norme, c’est-à-dire qu’entre 30 à 50 % des systèmes détectés, consiste en des planètes dont la masse peut atteindre jusqu’à 10 fois celle de la Terre à l’intérieur de l’orbite de Mercure.
Les systèmes internes sont, contrairement au système solaire, très encombrés avec des planètes dont la masse et le nombre ne ressemblent en rien à ce que nous trouvons dans le système solaire. Ce résultat est amplifié par le biais observationnel qui existe actuellement puisque nous avons tendance à détecter plus facilement des objets massifs près de leur étoile. Il n’en reste pas moins que les modèles de formation planétaire doivent maintenant non seulement expliquer l’architecture particulière du système solaire et de son système interne qui, comme nous l’avons vu dans le chapitre précédent, dépend très largement de la présence de planètes géantes, mais aussi prendre en compte la population importante de Terres et de Super-Terres détectées. Cela ne peut plus être négligé puisque les observations montrent sans ambiguïté que la fréquence de formation de ces planètes est très élevée. En d’autres termes, les modèles d’évolution du système solaire doivent maintenant être capables d’expliquer deux faits observationnels qui semblent être en contradiction, la fréquence des systèmes planétaires ayant un système interne très peuplé et la faible densité de planètes – et, de manière générale, de matière – dans le système interne du système solaire. Une fois cette constatation faite, on s’interroge immédiatement sur ce qu’il en est des planètes géantes telles que Jupiter et Saturne qui semblent si importantes dans l’histoire du système solaire. Les planètes géantes sont de plus le deuxième trait caractéristique du système solaire et une propriété sur laquelle les modèles de Nice et du Grand Tack s’appuient. Ce deuxième critère est plus difficile à évaluer car nous touchons ici à la limite de détection observationnelle actuelle. Il est d’ailleurs bon de rappeler que, malgré les 700 systèmes planétaires détectés, nous ne sommes toujours pas en mesure de caractériser un système planétaire qui ressemble au système solaire avec son cortège de huit planètes. Avec les moyens observationnels actuels, le système solaire placé à une distance optimale nous apparaîtrait actuellement comme étant seulement constitué d’un Jupiter. Les planètes du système interne sont, elles, trop loin de l’étoile et de masses trop faibles pour être détectées par la méthode des transits, tandis que les planètes au-delà de l’orbite de Jupiter sont toujours inaccessibles par la méthode des vitesses radiales. Les prochains programmes d’observations au sol ou dans l’espace ont l’ambition de compléter cet inventaire en observant des objets toujours plus petits et avec des périodes de plus en plus longues comme nous l’avons vu pour le cas de la mission PLATO. En attendant le résultat de ces campagnes qui arriveront vers la fin de la décennie, on peut noter que des tendances se dessinent dès à présent. En considérant le couple Soleil-Jupiter, une comparaison avec les planètes observées à ce jour montre que, pour une étoile du même type que le Soleil, nous trouvons des planètes du type de Jupiter dans seulement 10 % des cas. La plus grande partie de ces Jupiters est, par contre, sur des orbites très excentriques et donc dans des configurations bien différentes de celles que nous avons pour nos planètes géantes. Comme pour les Jupiters chauds, cette large majorité de planètes géantes avec une excentricité importante réaffirme le caractère dynamique du système externe avec plusieurs planètes en interaction. Cette large proportion de planètes avec des orbites
très excentriques – près de 90 % d’entre elles – a cependant des configurations défavorables pour le système interne puisque ces planètes vont y faire des incursions régulières et destructrices. Il ne reste donc qu’environ 10 % de ces planètes géantes qui conservent une configuration ressemblant au système solaire et permettant l’existence d’un système interne stable avec des planètes de type terrestre pouvant évoluer sur plusieurs milliards d’années. Cette analyse, actuellement mise en avant par Alessandro Morbidelli de l’observatoire de Nice et par Sean Raymond de l’université de Bordeaux (Figure 19), suggère que le système solaire tel que nous le connaissons serait donc un événement relativement rare. Cette hypothèse a déjà été évoquée à de nombreuses reprises ces dernières décennies et a été remarquablement synthétisée et déclinée pour le cas de la fréquence de vie complexe dans l’Univers par Peter D. Ward et Donald Brownlee dans leur ouvrage Rare Earth. La nouveauté de cette analyse par Morbidelli et Raymond est que non seulement elle s’appuie sur l’histoire du système solaire reconstruite à l’aide de modèles dynamiques, mettant en œuvre migration et dynamique comme le modèle de Nice et le Grand Tack, mais qu’elle se trouve maintenant étayée par la statistique des architectures planétaires qui commencent à se dessiner. Si l’on veut être plus prudent, en dépit des 4 100 exoplanètes et de près de 700 systèmes multiples détectés, on peut dire à ce stade que cette hypothèse n’est pas contredite par les observations obtenues à ce jour pour les exoplanètes. Nous pouvons maintenant conclure à l’aide de ces résultats l’argumentation développée dans la section précédente. Seules 7 % des étoiles qui nous entourent sont de type solaire ; parmi elles, seules 10 % auraient une planète de type Jupiter et encore seulement 10 % seraient sur une orbite qui n’est pas trop excentrique pour permettre la formation d’un système interne avec des planètes de type terrestre. Sans même parler des mécanismes qui ont rendu la Terre habitable et habitée, nous voyons que nous sommes descendus avec ce raisonnement à une probabilité de l’ordre de 1 pour 10 000 de détecter un système ressemblant au système solaire. La stratégie consistant à chercher une jumelle de la Terre en tous points, le problème de la Terre-bis ou eta-Earth, n’apparaît pas à ce jour comme la meilleure stratégie pour chercher une autre planète habitable. À cette faible probabilité de présence d’un système ressemblant au système solaire dans un environnement suffisamment proche s’ajoute également la nécessité que celui-ci soit aligné de manière favorable pour pouvoir le caractériser par les deux approches observationnelles actuellement utilisées, la méthode des transits et celle des vitesses radiales. En prenant en compte ces considérations, on estime actuellement que la probabilité de détecter une jumelle de la Terre pour la prochaine décennie s’élève à seulement quelques unités. Il en suffit d’une, me direz-vous ! Le problème est en fait un peu plus compliqué. Comme on le voit en comparant la Terre, Mars, Vénus ou même la Lune, il ne suffit pas d’être dans la zone habitable d’une étoile pour être habitée. Il faut, de plus, y ajouter un ensemble d’événements supplémentaires spécifiques à l’histoire de la Terre, lesquels ont probablement contribué à la maintenir habitable sur plus de
4 milliards d’années. Il faut, de plus, se trouver dans une situation où la caractérisation spectroscopique de l’atmosphère est possible pour pouvoir s’assurer que la composition de l’atmosphère ressemble à celle de la Terre et non pas à celle de Mars ou de Vénus. L’ensemble de ces considérations réduisent d’autant la probabilité de détecter une jumelle de la Terre, dans un système planétaire comparable au système solaire et autour d’une étoile ressemblant au Soleil. Dans ce contexte, deux voies se dessinent pour détecter une planète habitable, voire habitée. Chercher une jumelle de la Terre dont la probabilité d’occurrence semble relativement faible sachant que les moyens de caractérisation de son atmosphère ne permettront peut-être pas de confirmer qu’elle est habitable. On a pour l’instant tendance à penser que l’échantillon de planètes sera trop petit pour statuer de manière univoque dans un avenir proche. Une voie alternative consiste à s’appuyer sur le grand nombre de planètes détectées dans la zone habitable d’étoiles différentes du Soleil, dans des systèmes qui ne ressemblent en rien au système solaire, et d’établir des conditions habitables et favorables à l’émergence de la vie. Un premier pas dans cette direction a été fait en introduisant la notion d’habitabilité. Nous avons vu qu’il s’est agi pour l’instant de transposer aux exoplanètes presque directement la modélisation atmosphérique et climatique utilisée pour la Terre et ses voisines du système solaire. Cette notion demande maintenant à être validée pour des étoiles autres que le Soleil et à être étendue pour des planètes différentes de la Terre. Il faut y inclure, entre autres, l’effet de la rotation synchrone, la dépendance aux paramètres planétaires, comme la masse ou la composition initiale de la planète, qui inclut une certaine quantité d’eau, pour établir si ces planètes évoluent de manière similaire à la Terre pour ce qui concerne l’habitabilité. La seconde approche qui se concentre sur une jumelle de la Terre demande, d’un autre côté, que l’évolution de l’atmosphère terrestre soit déterministe, c’est-à-dire qu’elle se reproduise de manière assez systématique. Cette seconde approche tend de plus à sous-entendre que l’évolution sur une autre Terre va être similaire non seulement pour les conditions d’habitabilité, c’est-à-dire avec la présence d’eau liquide à la surface, mais également pour ses conditions d’habitation, c’est-à-dire avec une évolution de l’activité biologique similaire à ce que nous avons vécu sur Terre. Suivant l’une ou l’autre de ces approches qui ne sont pas complètement découplées, l’histoire de la Terre telle que nous la comprenons aujourd’hui est un élément déterminant pour la prochaine étape. Nous devons donc comprendre ce qui est générique ou particulier dans son évolution au cours des 4,5 milliards d’années pour esquisser des stratégies d’observation visant à détecter des planètes habitables, voire habitées. De manière corollaire, cette quête nous amène nécessairement à nous interroger sur les facteurs qui ont fait que la Terre soit restée habitable et habitée durant près de 4 milliards d’années. Or nous sommes bientôt près d’observations qui viendront ou non valider ces hypothèses.
CHAPITRE 7
Une brève histoire de la Terre
Si l’histoire du système solaire s’est trouvée bouleversée ces vingt-cinq dernières années avec la découverte des exoplanètes, celle de la Terre l’a été tout autant. Sous certains aspects elle a même été complètement réécrite. Un changement de perspective a vu le jour du point de vue astrophysique, comme on peut le déduire de la lecture des chapitres précédents s’agissant de son origine et des événements qui ont, depuis sa formation, façonné les conditions existant à sa surface. Cette histoire s’est également largement réécrite à la lumière des avancées faites sur notre meilleure compréhension du système Terre. On le voit avec la notion de réchauffement climatique, au cœur de beaucoup de préoccupations actuelles, avec la découverte de nouveaux sites géologiques ouvrant de nouvelles perspectives sur les conditions bien différentes ayant existé dans notre passé proche et lointain et, de la même façon, par la prise de conscience récente que la vie, apparue il y a presque 4 milliards d’années, est en fait un cataclysme planétaire ayant modifié radicalement la composition de son atmosphère et peut-être même en profondeur ses différents cycles géochimiques. Alors que la conquête spatiale nous apprend que la vie n’est pas aussi répandue dans le système solaire qu’on le pensait initialement en projetant instinctivement notre environnement familier sur d’autres mondes inexplorés, alors que nous attendons toujours la visite d’extraterrestres ailleurs que dans les films de science-fiction ou les récits conspirationnistes qui fleurissent sur Internet, on ne peut qu’être interpellé, assis dans son jardin, un jour ensoleillé de printemps, par le fil des événements peut-être aléatoires qui ont amené la Terre dans les conditions que nous connaissons aujourd’hui. À la question des origines, de celle de la Terre ou de celle de la vie sur Terre, s’ajoute inévitablement celle de la chaîne des événements qui se sont déroulés depuis l’origine. Alors que celle-ci part de l’appréhension de notre environnement actuel à partir duquel nous cherchons à remonter dans le temps, elle se trouve paradoxalement
toujours présentée de manière chronologique en partant de l’origine pour arriver au présent. Cette déformation, qui provient sans doute de l’approche atomistique du monde héritée de la philosophie grecque, ou de notre propre expérience humaine, postule invariablement l’existence d’une ou de plusieurs briques élémentaires qui s’assemblent avec une complexité croissante pour arriver à nos jours. Cette représentation pose deux problèmes. Celui de la causalité, d’une part entre les grands événements qui semblent ainsi s’emboîter à souhait, les uns après les autres, de manière inexorable. Cette représentation sous-tend d’autre part un certain déterministe concernant le produit de cette succession d’événements qui amène naturellement à la vie complexe telle que nous la connaissons de nos jours. Elle induit finalement une fausse impression sur l’état actuel de nos connaissances des événements qui ont fait que la Terre est aujourd’hui telle que nous la percevons dans notre quotidien. Cette approche qui suit celle d’une recette de cuisine laisse l’impression fausse d’une progression achevée où nous nous trouvons actuellement dans le stade de l’aboutissement ultime. Cela contraste avec l’état actuel de nos connaissances, qui se basent sur un principe d’ingénierie inverse, et tendent, au contraire, à partir du système complexe Terre et à en dérouler vers le passé les grands principes ou événements sur lesquels s’appuie notre compréhension contemporaine de son fonctionnement actuel. Cette distinction conceptuelle n’est pas un simple jeu intellectuel. Elle permet d’appréhender l’histoire globale de la Terre comme le point convergent de trois faisceaux majeurs de la connaissance. Cette histoire se nourrit de l’éclairage géophysique, c’est-à-dire de la perception du système Terre comme celui d’une planète recouverte de continents solides et d’océans en interaction avec une atmosphère composée d’oxygène, possédant un cycle hydrologique et une tectonique des plaques caractéristiques. Et de l’éclairage astrophysique, c’est-à-dire de l’histoire de la Terre telle qu’elle s’inscrit dans la nouvelle représentation du système solaire. Pour finir, de l’éclairage biologique, celui de l’histoire de la vie sur Terre qui n’a pas connu que des dinosaures dans son passé mais où les entités cellulaires comme les bactéries règnent en maîtres depuis les premiers instants. Ces trois perspectives, pas toujours cohérentes entre elles, s’alimentent de champs de connaissances qui, sans être en interaction autrement que de façon ponctuelle, partagent la caractéristique d’avoir des certitudes qui s’estompent lorsque le temps s’allonge et que les données observationnelles deviennent de plus en plus fragmentées, voire inexistantes. Cette mise en perspective permet également de comprendre comment se pose actuellement la question de la généricité de la Terre, c’est-à-dire de savoir si la Terre dans sa totalité et incluant la vie telle que nous la connaissons est un événement rare, unique ou, au contraire, avec des chances de s’être facilement répété dans l’Univers. Que cela soit pour les terres dans des systèmes ne ressemblant pas au système solaire ou pour la recherche d’une jumelle de la nôtre, la question du degré de couplage entre ces trois aspects, comme la nécessité de chacun d’entre eux, est à la base de la réflexion actuelle. En d’autres termes, une planète ressemblant à la Terre peut-
elle être habitable, voire habitée, tout en s’en distinguant de manière notable par son histoire géophysique, biologique ou même astrophysique, et jusqu’à quel point ? Cette question coexiste avec son corollaire, tout aussi intéressant, qui est de déterminer en remontant dans le passé l’importance de certains événements pour arriver à la Terre telle que nous la connaissons aujourd’hui. Cet aller-retour entre les données fournies par l’observation des exoplanètes et la connaissance de l’histoire de la Terre est la base de la réflexion scientifique actuelle, en l’absence de détection de vie extraterrestre. Cette approche dessine une ligne de crête très fine, peut-être trop fortement teintée de géocentrisme, mais que l’on peut parcourir allègrement, à condition de rester lucide.
Les ingrédients primordiaux Dans l’histoire du système solaire réécrite avec le modèle de Nice et du Grand Tack, et prenant en compte de manière générale la migration et l’instabilité dynamique du système externe, l’apparition de Jupiter très tôt dans l’histoire du système solaire est un élément clé et déterminant pour la structure du système interne ainsi que pour la composition initiale de la Terre. L’apparition de Jupiter modifie très tôt la circulation de matière dans le disque et amène ainsi à un système interne avec une masse faible et une répartition des volumes entre les planètes assez particulière et ne ressemblant pas à celle que l’on observe pour les exoplanètes. Les planètes internes du système solaire restent ainsi assez petites en taille, avec la Terre et Vénus voisines d’une masse terrestre, tandis que Mercure et Mars représentent un dixième de celle-ci. Cette situation est perçue, comme nous l’avons vu, en contraste avec la grande majorité des exoplanètes détectées à ce jour qui ont pu accumuler de la matière pendant plus longtemps. L’apparition de Jupiter en quelques centaines de milliers d’années déconnecte ainsi le système interne du système externe. Les planètes de type terrestre se forment alors plus lentement sur plusieurs dizaines de millions d’années à partir de la matière restée emprisonnée. Si l’on reprend le modèle de la nébuleuse solaire que nous avons vu précédemment mais en l’appliquant seulement au disque interne, on voit ainsi que nous sommes trop près du Soleil, c’est-à-dire à l’intérieur de la ligne des glaces, pour trouver de l’eau ou des composés comme le méthane ou l’ammoniac à l’état solide. Seuls le fer et les silicates peuvent se trouver à l’état solide. Les particules solides ainsi constituées de fer et de silicates vont alors s’agréger progressivement pour atteindre des tailles plus importantes. Les étapes précises de la transition entre la matière solide présente dans le disque et les planétésimaux, d’une taille allant jusqu’à quelques kilomètres et des embryons planétaires pouvant atteindre celle de la Lune, sont toujours un sujet de recherche active où plusieurs modèles sont en compétition. Si nous laissons de côté
les détails de cette étape, nous arrivons à simuler avec une certaine précision la croissance d’objets atteignant la taille d’une planète par collisions et accrétions successives sur plusieurs dizaines de millions d’années. Ce modèle de formation des planètes internes, basé sur celui de la nébuleuse solaire, produit par contre des planètes internes uniquement constituées de fer et de silicates. La difficulté à expliquer la présence d’eau sur Terre a été un obstacle majeur pour ce modèle développé dans les années 1970. La ligne des glaces se trouvant bien au-delà de l’orbite de Mars, les planétésimaux constituant la Terre en sont dénués. La situation est identique pour les quatre planètes du système interne. Différents scénarios ont été imaginés pour résoudre cette lacune fondamentale et expliquer l’origine de l’eau sur Terre. L’hypothèse mise en avant jusqu’à très récemment invoque un apport direct par les comètes lors des premières étapes de la formation du système solaire. Les comètes étant des objets composés d’une grande quantité d’eau qui balaient à la fois les zones interne et externe délimitées par la ligne des glaces, cette proposition apparaît comme un mécanisme naturel pour pallier le problème de l’eau sur Terre. Cette hypothèse semble à première vue raisonnable pour apporter dans le système interne la quantité d’eau nécessaire si l’on imagine qu’un nombre d’objets largement plus important existait à l’aube du système solaire. Cette proposition, largement explorée ces cinquante dernières années pour expliquer non seulement la présence de l’eau sur Terre, mais également un apport en composés organiques nécessaires au démarrage de la vie, est maintenant tombée en désuétude. Plusieurs faits sont en effet venus l’ébranler. Le plus direct a consisté à mesurer le rapport isotopique entre le deutérium et l’hydrogène pour plusieurs comètes et à le comparer à celui des océans terrestres. Le deutérium et l’hydrogène sont des atomes ayant le même nombre d’électrons mais dont les noyaux sont composés d’un nombre différent de neutrons. Le nombre d’atomes de deutérium est très faible mais ce rapport est fixe pour l’eau que l’on trouve sur Terre. On espérait ainsi confirmer cette hypothèse d’une origine cométaire de l’eau sur Terre en vérifiant que les comètes possédaient bien le même rapport isotopique. Ces mesures se sont déroulées sur plusieurs décennies, en étudiant plus d’une dizaine de comètes. Elles se sont conclues avec la dernière et spectaculaire observation de la comète 67P/Tchourioumov-Guérassimenko, surnommée Tchouri, par la sonde Rosetta qui resta en orbite durant plusieurs mois et posa à sa surface le module Philae pour étudier la composition de son noyau. Sur les onze comètes observées depuis le sol ou l’espace, une seule présente un rapport isotopique deutérium/hydrogène de l’eau comparable à celui des océans terrestres. La dernière mesure effectuée par Rosetta en 2016, qui montre un rapport isotopique pour la comète Tchouri 3 fois supérieur à celui de la Terre, écarte sans ambiguïté la possibilité d’une origine cométaire pour les océans terrestres. Ce résultat s’est affirmé en suivant une autre ligne de réflexion ouverte avec la possibilité de simuler de manière dynamique la formation du système interne, de manière assez similaire à ce que nous avons vu pour le système solaire externe. Ces simulations partent de planétésimaux et
d’embryons planétaires formés par la coagulation de la matière solide et répartis de manière aléatoire sur l’étendue du système interne. Cela inclut certains corps formés au-delà de la ligne des glaces et contenant de l’eau et d’autres composés légers. En se basant sur les interactions gravitationnelles entre ces différents condensés solides et leurs collisions successives au cours du temps qui amènent à la croissance de certains corps à des tailles comparables à celles des planètes, on se retrouve avec une quantité significative d’eau qui se propage à l’intérieur de la ligne des glaces aux planètes du système interne. Dans cette vision dynamique de la formation des planètes internes, l’origine de l’eau terrestre se trouve donc dans la partie externe du système interne avec des planétésimaux formés au-delà de la ligne des glaces mais à l’intérieur de l’orbite de Jupiter. Ce résultat des simulations dynamiques est maintenant conforté par la mesure du rapport isotopique deutérium/hydrogène des corps formant la ceinture d’astéroïdes qui correspond bien à celui des océans terrestres. Elles montrent que l’origine de l’eau sur Terre, comme la composition globale de la Terre, est le produit d’un système stochastique dont le résultat final doit être perçu de manière probabiliste et non déterministe. En d’autres termes, l’interaction dynamique des planétésimaux initiaux et des embryons planétaires dans le système interne permet d’arriver à une probabilité raisonnable de former des planètes avec une quantité d’eau non négligeable dans le système interne. En revanche, la quantité d’eau exacte ne peut pas être anticipée de manière précise et la réalisation de cet événement doit donc être prise en compte de manière probabiliste et variant d’un système à l’autre. L’apport précis de la quantité d’eau aux planètes du système interne est de plus influencé par le détail de la formation du système externe. Comme nous l’avons vu avec le modèle du Grand Tack, qui met en mouvement les planètes géantes du système externe, un plus grand nombre de planétésimaux va alors être poussé par un effet de chasse-neige à l’intérieur de la ligne des glaces et vers le système interne. Ces différents scénarios de formation vont donc logiquement faire varier l’efficacité et la quantité d’eau finale que l’on trouve sur Terre et les planètes internes. Tous retiennent en revanche l’idée que la dynamique naturelle qui s’établit entre les planétésimaux et les embryons planétaires apparus à la disparition du disque dans le système interne et à l’intérieur de l’orbite de Jupiter suffit à expliquer la présence d’eau sur Terre. Un troisième argument plus récent mobilisé à l’encontre de l’hypothèse d’une origine cométaire de l’eau terrestre s’appuie sur la formation très rapide de Jupiter. Cet événement est maintenant confirmé par l’identification de deux réservoirs de météorites distincts formés très tôt dans le système solaire. En raison de sa masse importante, Jupiter protège le système interne d’un trop grand nombre de comètes et ce, depuis les premières centaines de milliers d’années. Le nombre de comètes nécessaires pour produire les océans terrestres avec cette contrainte devient ainsi rapidement trop important pour rester réaliste. Avec ce troisième et dernier argument, on voit ainsi qu’une vision statique de la formation de la Terre, s’inspirant directement du modèle
de la nébuleuse solaire et dans lequel l’eau est délivrée sur Terre par ces objets célestes fascinants que sont les comètes, n’a pas résisté à l’épreuve de la confrontation avec les données observationnelles obtenues ces dernières années. Il faut donc retenir que la nature dynamique du processus de formation de la Terre, à partir d’un ensemble de planétésimaux et d’embryons planétaires résidant principalement dans le système interne, explique naturellement la présence des océans. Cela ne s’arrête pas là. La présence de la Lune, une autre caractéristique de la Terre, est un autre témoin de ce passé dynamique. La Lune est, comme nous l’avons vu, le deuxième plus gros satellite du système solaire, d’une taille anormalement importante pour une planète comme la Terre. La question de son origine et des mécanismes l’ayant amenée en orbite autour de la Terre a été, autant que les océans, un sujet de préoccupation dans la construction d’un scénario de formation de la Terre.
Figure 20. Simulation de l’impact géant entre la jeune Terre et Théia. Les couleurs indiquent les températures atteintes allant du bleu correspondant à 2 000 K jusqu’au rouge atteignant 6 500 K (© R. Canup SwRI).
Les missions Apollo qui ont rapporté des échantillons de la Lune sur Terre ont permis de résoudre ce problème de manière saisissante. Leur étude a en effet montré que le sol lunaire a une composition similaire à celui du manteau terrestre. Cette similitude n’est pas approximative. Certains éléments comme les isotopes d’oxygène sont même en proportion identiques. Ce résultat indique que la Terre et la Lune se sont formées au même endroit ou, pour le dire en
d’autres termes, que la Lune n’est pas un objet venant d’une autre région du disque interne qui se serait trouvée capturée après la formation de celle-ci. À partir des années 1980-1990, l’idée selon laquelle la Lune serait le vestige d’une collision tardive entre la Terre, dans sa dernière phase d’accrétion, et un embryon planétaire est apparue comme le scénario permettant de satisfaire l’ensemble de données provenant des missions Apollo. Celles-ci s’étendent à d’autres particularités isotopiques au-delà de la similitude en oxygène et se comprennent par le résultat d’une collision massive entre deux objets. Cette hypothèse s’est, de plus, trouvée étayée par deux autres propriétés géophysiques de la Terre difficiles à comprendre dans un scénario de formation par capture. L’un concerne le moment angulaire anormalement élevé du couple Terre-Lune comparé aux autres systèmes. L’autre indique que la Terre a une densité plus élevée, c’est-à-dire contenant un noyau de fer plus important, que celle à laquelle on s’attend si l’on considère la décroissance de densité observée pour les planètes lorsque l’on s’éloigne du Soleil. L’ensemble de ces observations s’explique dans un scénario où la Terre, après 50 à 100 millions d’années d’accrétion et assez proche de sa taille actuelle, est entrée en collision avec un objet de la taille voisine de celle de Mars, Théia. La violence du choc fut telle que la quasi-totalité du manteau terrestre s’est trouvée en fusion, la collision se déroulant assez tard dans le processus d’accrétion. La Terre et Théia sont différenciées, c’est-à-dire que le fer s’est rassemblé au centre et est entouré d’un manteau de silicates. Le choc fut tel que le noyau de fer de Théia plongea vers le centre de la Terre tandis qu’une partie du manteau des deux corps se trouva éjectée et mise en orbite. Ces débris se condensèrent à nouveau pour former la Lune. Ce scénario est actuellement simulé dans sa totalité de manière assez détaillée, tout du moins pour la partie du choc entre les deux corps. Dans le cas d’une collision non frontale mais avec le bon angle, on arrive ainsi à reproduire le moment angulaire élevé observé pour le système Terre-Lune et ainsi à retrouver, avec ce scénario, les trois données observationnelles desquelles nous étions partis. Ce scénario met une nouvelle fois en avant le caractère dynamique de la formation de la Terre, et la Lune, vestige de ce passé violent, passe maintenant paisiblement au-dessus de nos têtes en s’éloignant progressivement de la Terre depuis 4,47 milliards d’années. L’étendue des conséquences de cet impact tardif sur l’habitabilité de la Terre n’est pas complètement appréhendée jusqu’à aujourd’hui puisque la seule planète habitable et habitée que nous connaissons est le produit de cet événement. Nous savons désormais deux choses de manière assez certaine. Les effets de marée entre la Terre et la Lune ralentissent la rotation de la Terre depuis sa formation. La Lune s’éloigne à la vitesse d’environ 4 centimètres par an. Nous avons une bonne contrainte sur cette variation grâce à cinq miroirs posés à sa surface par les missions Apollo et Luna. Ces miroirs nous permettent de mesurer sa distance en continu grâce à plusieurs lasers sur Terre dont l’un, parmi les plus performants, est installé à l’observatoire de la Côte d’Azur. On sait également que, sans la Lune, la nature chaotique du système interne se propagerait sur l’axe de rotation de la Terre, entraînant de grandes variations d’amplitude où les
pôles pourraient se retrouver subitement au niveau de l’équateur. Mars, qui ne possède pas un tel satellite, suffisamment massif, a vraisemblablement connu de tels épisodes durant son histoire. L’impact massif qui a donné naissance à la Lune a donc changé de manière intrinsèque la composition interne de la Terre, modifié son atmosphère et sorti celle-ci du destin chaotique qui l’attendait. La présence de la Lune est donc un facteur probablement incontournable lorsque l’on s’interroge sur l’habitabilité de la Terre sur une période aussi longue. Une particularité de la Lune concerne sa face cratérisée que nous distinguons depuis la Terre avec une simple paire de jumelles. Les échantillons du sol lunaire rapportés par les missions Apollo ont également servi à estimer la date à laquelle ont eu lieu les impacts massifs visibles à sa surface qui, tout comme celle de Mercure ou de l’hémisphère sud de Mars, montre que le système interne a été le siège de plusieurs impacts géants. Ces objets, qui ont pu atteindre jusqu’à une centaine de kilomètres, sont apparus après celui ayant donné lieu à la formation de la Lune et dans la dernière étape de formation des planètes du système interne. Cette constatation n’est, à première vue, pas surprenante. On arrive assez bien à imaginer qu’après l’impact géant les planétésimaux restant dans le disque interne sont graduellement absorbés par les planètes dans leur dernière phase de formation. Ce scénario suppose donc un étalement de ces différents impacts sur plusieurs centaines de millions d’années avec une diminution graduelle du nombre de ceux-ci. Les échantillons rapportés par la mission Apollo montrent, au contraire, que ces impacts se seraient produits sur un intervalle de temps relativement court, aux alentours de 4 milliards d’années. Un nombre aussi important d’impacts dans la toute dernière phase d’accrétion est donc incompatible avec une diminution graduelle du nombre de planétésimaux présents dans le disque. Cette hypothèse, que l’on appelle le bombardement tardif intense, est actuellement très débattue, que cela soit pour sa durée, son intensité ou la date à laquelle il s’est déroulé. Plusieurs ensembles d’indices plus subtils, que nous n’examinerons pas en détail ici, semblent toutefois favoriser un flux de planétésimaux plus intense vers les dernières étapes de la formation de la Terre et des planètes externes, mais peut-être moins intense et moins bref que ne le suggèrent les échantillons d’Apollo. Nul doute que les prochaines explorations du sol lunaire chercheront à étendre le nombre des échantillons pour clore ce débat qui sévit depuis les années 1980 et porte sur la date à laquelle la Terre aurait commencé son lent refroidissement et la formation de son atmosphère. Les impacts du bombardement tardif pris dans leur ensemble sont en effet aussi dramatiques que l’impact géant qui produisit la Lune. La Terre étant largement plus massive que la Lune, l’extrapolation du nombre d’impacts observés sur la Lune, Mars et Mercure amènerait à un bombardement sur celle-ci près de 40 fois plus intense. Cet épisode entraînerait une fusion du manteau, une évaporation des océans et une élévation globale de la température atmosphérique détruisant probablement la quasi-totalité de la vie primitive qui aurait éventuellement démarré. Comme pour l’impact géant tardif, l’atmosphère primitive est également largement modifiée,
éjectée pour une certaine partie et modifiée par l’apport de matière supplémentaire. Cette période correspond aussi à la date à partir de laquelle nous n’avons plus ou peu de traces géologiques sur Terre. En d’autres termes, nous ne trouvons quasiment plus de roches plus anciennes que cette période, ce qui est cohérent avec la notion d’un manteau terrestre largement modifié en surface par cet événement. Il en est de même pour les traces d’activités biologiques qui s’estompent audelà de cette période. Cette convergence entre ces trois événements est peut-être fortuite mais occupe depuis quelques décennies la communauté scientifique qui peine à obtenir un scénario de formation de la Terre expliquant les anomalies de concentration que l’on observe pour certains éléments présents dans la composition atmosphérique ou géologique. Ce bombardement tardif pourrait, de plus, être relié au caractère dynamique du système externe et des phases finales de la formation du système solaire. L’un des résultats notables du modèle de Nice est en fait la mise en relation de l’instabilité dynamique entre Jupiter et Saturne et un bombardement tardif intense. Le modèle de Nice donne une explication élégante pour un bombardement tardif d’une assez forte intensité et sur un temps assez bref. Il montre que l’instabilité dynamique du système externe provoque une déstabilisation de la ceinture d’astéroïdes et explique cette occurrence tardive puisque l’instabilité se produit plusieurs centaines de millions d’années après la formation des planètes. Les impacteurs sont donc dans ce cas majoritairement de même nature que les planétésimaux ayant formé la Terre. On remarque aussi que la tendance de ce mécanisme est de rapporter vers le système interne, et donc sur la Terre, des objets ayant une teneur en eau et en composés carbonés plus importante. Cela peut inclure une fraction d’objets transneptuniens et de comètes mais en plus faible proportion. L’intensité et la durée de ce bombardement sont donc directement liées aux détails du modèle de formation du système solaire dans son ensemble. Cela inclut les événements qui se déroulent dans le système externe et peut se superposer avec une décroissance du nombre de planétésimaux résiduels présents dans le système interne. Le modèle de Nice est largement remis en cause actuellement. Il faut par contre retenir que les différents scénarios mis en avant avec leur lot d’hypothèses vont se traduire par une intensité plus ou moins élevée et une durée plus ou moins grande pour le bombardement tardif. Ils vont ainsi se traduire par l’ajout d’une touche finale d’ingrédients plus ou moins importante qui vont compléter la composition nominale de la Terre à la fin de son processus d’accrétion. On touche ici à l’une des questions fondamentales concernant l’habitabilité de la Terre au sens large et la définition des conditions initiales à partir desquelles elle a évolué jusqu’à aujourd’hui. On constate en effet que le processus de formation de la Terre a peut-être connu deux événements majeurs, l’impact de la Lune et un bombardement intense plusieurs centaines de millions d’années plus tard qui est peut-être directement lié à l’instabilité du système externe. La question de savoir si la Terre serait également habitable sans ces deux épisodes est une question qui demeure à ce jour complètement ouverte. Sans ces deux événements, la densité de la Terre serait plus faible, sa teneur en fer également, et l’apport d’éléments légers comme l’eau
et les autres composés carbonés, probablement également moins important ou tout du moins différent. La question de leur influence sur l’habitabilité de la Terre est régulièrement débattue. Une première ligne de raisonnement suivie est d’avancer que la Terre, telle que nous la connaissons, est non seulement le résultat d’un processus stochastique, mais de plus le produit d’un, voire de deux événements rares. La combinaison des deux est la plus contraignante car il faut un impact géant comme celui qui a donné naissance à la Lune et une deuxième planète géante de la bonne masse et au bon endroit, Saturne, pour non seulement empêcher une migration de Jupiter trop près du système interne, mais aussi pour produire l’instabilité requise qui amène un bombardement tardif. La Terre étant la seule planète habitable connue, cette ligne de raisonnement sous-tend par voie de conséquence qu’une planète habitable serait également un événement assez rare. La contrepartie optimiste consiste à lever ces contraintes et à supposer que la Terre soit habitable même sans ces deux événements. Avec comme seul exemple le système solaire et comme seule planète habitable et habitée connue la Terre, le choix entre ces deux propositions renvoie essentiellement aux convictions intimes de chacun. Les observations qui nous viennent des exoplanètes vont nous permettre de progresser sur cette question. Si l’on replace l’argument de la Terre rare dans ce cadre, on voit que la probabilité de détecter dans notre environnement proche une autre Terre similaire en tout point est relativement faible. Nous avons vu au chapitre précédent que la probabilité de trouver un système planétaire contenant une Jupiter autour d’une étoile similaire au Soleil était de l’ordre de 1/10 000. Si l’on y ajoute la nécessaire occurrence de ces deux événements rares, la probabilité de détecter une jumelle de la Terre est a priori largement réduite, voire nulle, avec les instruments imaginés pour les deux prochaines décennies. Nous voyons, une fois de plus, que rechercher une planète jumelle de la Terre ne semble pas la meilleure des stratégies pour détecter une planète habitable. En revanche, cela ne signifie pas nécessairement qu’il ne faille pas aller dans cette direction. En effet, l’absence de détection ou la démonstration de non-habitabilité viendraient confirmer cette hypothèse d’une Terre rare tandis qu’une détection validerait la proposition inverse et renforcerait une vision optimiste de l’habitabilité qui s’affranchirait de la nécessité de la chaîne d’événements qui se sont déroulés pour la Terre. Comme nous l’avons expliqué précédemment, le risque est, par contre, que le nombre d’objets caractérisés soit trop faible pour valider l’une ou l’autre des propositions dans un avenir proche.
L’atmosphère, le climat et leurs évolutions sur le long terme
Avec le débat concernant le bombardement tardif, son intensité et sa durée, nous perdons la notion d’une condition initiale bien définie pour les conditions ayant existé sur Terre durant les 500 premiers millions d’années. Celles-ci s’étirent le long d’un continuum. Nous avons d’un côté une planète qui se différencie, avec le fer qui se concentre au centre et les silicates, dans le manteau, et une atmosphère composée de CO2, d’eau et d’azote qui s’établit par dégazage. De l’autre, un apport continu de matière venant de différents réservoirs d’astéroïdes amenant un vernis final et changeant peut-être de manière transitoire la composition de l’atmosphère. Comme on associe aussi cette période avec le démarrage de la vie sur Terre, il est important de noter que les différentes hypothèses attenantes à la composition atmosphérique terrestre à cette période n’ont pas seulement répondu à des considérations astrophysiques ou géophysiques. Elles ont été directement influencées au cours du XXe siècle par les théories concernant les conditions nécessaires au démarrage de la vie d’un point de vue physico-chimique, comme nous le verrons dans le dernier chapitre avec l’expérience de Urey-Miller. Ce point de vue, qui est maintenant moins en faveur, préconisait une atmosphère dans laquelle les composés primordiaux sont largement présents durant cette première période. Cette atmosphère s’articulerait autour d’une composition en hydrogène, ammoniac et méthane, comme on le trouve pour les planètes géantes. Si nous reprenons l’histoire de la Terre à la fin du bombardement tardif aux alentours de 4 milliards d’années, nous avons un manteau en fusion qui s’est refroidi et s’est solidifié. L’atmosphère est alors composée non pas de gaz primordiaux mais s’établit par le dégazage du manteau de silicates se refroidissant. Nous avons une atmosphère que l’on appelle secondaire, c’est-à-dire qui ne correspond pas à celle supposée être présente juste à la fin de la période d’accrétion. Cette atmosphère se développe assez rapidement grâce à une activité volcanique très intense produisant une atmosphère composée essentiellement d’azote, de CO2 et d’eau. Le Soleil étant il y a 4 milliards d’années près de 30 % moins brillant qu’il ne l’est actuellement, la température à la surface de la Terre peut alors être estimée comme étant voisine de - 50 °C. L’océan qui couvre alors la totalité de la surface terrestre se refroidirait très rapidement pour se couvrir d’une épaisse couche de glace. La Terre ressemblerait alors à Encelade et serait bien loin du climat tempéré que nous connaissons aujourd’hui. Bien que nous n’ayons que très peu de traces géologiques au-delà de 4 milliards d’années, les rares que nous possédons suggèrent, au contraire, une température de surface assez élevée et au moins égale à la température actuelle. Certaines interprétations portent même celle-ci jusqu’à près de 60 oC durant cette période. Cette contradiction entre les températures déduites des relevés géologiques et les températures calculées était identifiée dès les années 1960 comme le paradoxe du Soleil jeune. La résolution de ce paradoxe qui met en jeu l’influence des gaz à effet de serre constitue en fait les bases sur lesquelles s’est développée, à partir des années 1980, l’idée selon laquelle un réchauffement climatique serait actuellement en cours. Le paradoxe du Soleil jeune, qui trouve lui-même son origine dans l’évolution de notre compréhension de la physique stellaire dans la première moitié du XXe siècle, est une démonstration sans équivoque qu’une meilleure
connaissance de l’évolution de la Terre et de sa longue histoire qui s’étend sur 4,5 milliards d’années est un enjeu majeur pour les préoccupations qui sont les nôtres. Cette histoire recèle les clés de compréhension indispensables pour saisir les équilibres en jeu, les événements qui nous ont amenés à la situation actuelle sur Terre et, pour voir les choses de manière optimiste, pour aborder les défis auxquels nous sommes confrontés dans leur globalité, et non pas au travers de la fenêtre étroite des cent dernières années. Le débat actuel gagnerait sans doute en profondeur et recevrait l’éclairage scientifique nécessaire qui semble parfois manquer aux débats. En lien avec les différentes hypothèses concernant la composition de l’atmosphère terrestre vers 4 milliards d’années, le méthane, l’ammoniac et le CO2 se sont imposés dès les années 1960 comme des candidats potentiels permettant l’élévation nécessaire de la température à la surface de la Terre pour permettre que de l’eau soit à l’état liquide. En suivant la ligne du CO2, en lien avec la vision d’une atmosphère secondaire formée par dégazage du manteau, il faut en revanche plusieurs centaines de fois la pression actuelle de CO2 pour obtenir une température de surface moyenne permettant un océan liquide dans sa totalité et incluant les pôles. Une concentration atmosphérique importante est insuffisante. Encore faut-il un mécanisme pour que celle-ci puisse se maintenir sur un temps suffisamment long tandis que l’atmosphère est en contact avec les océans et les continents. Ce dernier doit aussi prendre en compte le fait que la luminosité du Soleil va continuer à croître jusqu’à sa valeur actuelle. La concentration atmosphérique de CO2 doit donc décliner dans les bonnes proportions. La réponse à ce problème se trouve dans le cycle du carbone terrestre et, plus particulièrement, dans sa partie non biologique appelée le cycle carbonates-silicates. Pour comprendre cet effet, il faut imaginer l’atmosphère comme une tranche de gaz soumise à la radiation du Soleil d’un côté avec certains composés qui sont perdus vers l’espace, tandis que d’autres composés sont déposés ou absorbés dans le sol du côté opposé. La composition de l’atmosphère à un moment donné représente donc le bilan des flux de gaz entrants et sortants de chaque côté. Selon ce schéma, les grands cycles géochimiques terrestres suivent différents composés atmosphériques alors qu’ils se trouvent dans l’atmosphère, se déposent sur les sols, sont absorbés et, dans certaines conditions, retournés dans l’atmosphère. Il y a donc un couplage entre la composition atmosphérique et l’activité géophysique qui se traduit, elle, par des volcans qui dégazent et une tectonique des plaques où les continents sont renouvelés. En quoi consiste le cycle du carbone, dont nous entendons beaucoup parler à l’heure actuelle dans le contexte du changement climatique ? Il décrit la trajectoire du carbone terrestre qui se déplace entre l’atmosphère, la surface et l’intérieur de la Terre sous différentes formes chimiques comme le CO2 et le CH4. Le cycle du carbone contemporain est constitué de deux composantes, une biologique et une autre non biologique. La composante biologique est largement dominée par la photosynthèse oxygénique où le CO2 et l’eau (H2O) sont convertis en matière organique (CH2O) et en oxygène (O2), d’un côté. La respiration de la matière vivante comme les plantes et les mammifères le ramène quasiment à son point initial, de l’autre.
L’équilibre entre cet aller-retour n’est pas parfait et amène un faible déséquilibre sur le long terme. Cette alternance est très rapide, et la totalité du CO2 atmosphérique est ainsi recyclée sur environ une dizaine d’années. Laissons de côté la partie biologique un moment, pour nous pencher sur la partie non biologique du cycle du carbone, c’est-à-dire n’impliquant pas de matière vivante.
Figure 21. Cycle carbonates-silicates terrestre (© Y. Gominet/IMCCE).
Une version simplifiée du cycle du carbone non biologique, le cycle carbonates-silicates, démarre avec le CO2 qui se dissout dans l’eau de pluie pour former de l’acide carbonique (H2CO3). Sur des temps très longs, l’acide carbonique déposé par la pluie va lentement éroder les sols formés de silicates. Des ions de calcium (Ca2+), de magnésium (Mg2+) et de silices (SiO2) vont se trouver dissous dans l’eau des rivières jusqu’à s’accumuler dans les océans. Les ions de calcium forment alors avec le CO2 présent des calcites (CaCO3) qui précipitent et se déposent au fond des océans. Avec l’activité tectonique, ces calcites se retrouvent enfouies dans le manteau
terrestre. Sous l’effet de la pression et de la température élevées, le calcium se réassocie avec la silice et le CO2 est renvoyé dans l’atmosphère sous la forme du dégazage des volcans ou des failles volcaniques. Le CO2 a suivi un cycle complet parti de l’atmosphère, dissous dans l’eau de pluie, pour se retrouver enfoui dans le manteau et réapparaître dans l’atmosphère. Comme nous invoquons la lente érosion des sols d’une part et la tectonique des plaques de l’autre, nous avons contrairement au cycle du carbone biologique un cycle du carbone très long et qui recycle le CO2 atmosphérique sur près de 500 000 ans. Ce temps est long à notre échelle mais court comparé à la lente évolution de la luminosité solaire qui s’étend sur 4 milliards d’années. Ce qui est assez remarquable, c’est que ce cycle du carbone long agit comme un thermostat et maintient une température de surface permettant d’avoir de l’eau à l’état liquide en ajustant la composition atmosphérique en CO2. Si la température baisse, l’érosion est ralentie et le CO2 s’accumule dans l’atmosphère jusqu’à ce que celle-ci remonte à la valeur permettant au cycle de redémarrer. Cela peut en revanche correspondre à des périodes où la Terre est quasiment recouverte de glaces pendant plusieurs centaines de milliers, voire des millions d’années car le temps de réaction est, comme nous l’avons vu, très long. Dans le cas inverse, lorsque la température augmente, l’évaporation est plus importante. Cela amène une quantité de pluies plus importante qui retire une plus grande quantité de CO2 de l’atmosphère et entraîne une érosion plus importante. Le climat terrestre est donc directement lié à la composition atmosphérique en CO2, elle-même régulée par le cycle du carbone long. Ce miracle du cycle du carbone long non biologique, qui a maintenu la Terre habitable au sens astrophysique, c’est-à-dire avec de l’eau liquide en surface, est maintenant validé par plusieurs relevés géologiques. On arrive ainsi à remonter à presque 3 milliards d’années et à retrouver des évidences assez convaincantes d’une teneur atmosphérique en CO2 près de 500 fois la concentration actuelle. Celle-ci a donc largement décru durant 4 milliards d’années. Cette donnée indique que la forte teneur en CO2 de l’atmosphère primaire provenant du dégazage du manteau de silicates a permis dans un premier temps de compenser la faible luminosité du Soleil. Elle s’est ensuite ajustée grâce au cycle du carbone long, le cycle carbonates-silicates. Cette rétroaction s’effectue par contre sur des temps très longs à l’échelle humaine et l’on ne saurait compter dessus pour résoudre nos problèmes climatiques à court terme. Cette notion suggère en revanche que de longues excursions qui s’étendent sur plusieurs millions d’années sont possibles, que cela aille vers des conditions plus chaudes ou plus froides. Des périodes de glaciation et de réchauffement sont donc la norme mais celles-ci sont bornées en amplitude avec une moyenne de la température sur un temps long ayant permis à la Terre de maintenir des conditions habitables en surface sur 4 milliards d’années. Cette description du cycle des carbones-silicates est évidemment très simplifiée. Elle laisse malgré tout entrevoir que l’histoire géophysique de la Terre, actuellement appréhendée dans le contexte du cycle du carbone non biologique, s’interroge sur la vigueur de l’activité tectonique, de l’activité volcanique, de l’efficacité de l’érosion des continents ou du sol océanique. Il s’agit
d’autant de paramètres influant directement sur les conditions climatiques. Cette réflexion s’étend aux autres planètes du système solaire ainsi qu’aux exoplanètes où l’habitabilité, au cours de leur histoire pour les premières ou dont on est à la recherche pour ces dernières, est directement liée à la capacité de maintenir des conditions de température à la surface où l’eau se trouve à l’état liquide sur des temps longs. La notion d’habitabilité, abordée dans le chapitre précédent, n’est donc que partielle puisqu’elle ne s’intéresse qu’à la composition atmosphérique et néglige pour l’instant la capacité de maintenir un cycle carbones-silicates sur un temps long. Si nous prenons la Terre comme exemple, nous voyons que la définition de zone habitable amène à une première réponse utile mais seulement partielle concernant l’habilité d’une planète. Comme le cycle carbones-silicates est pour l’instant seulement contraint par des données géologiques fragmentées alors que nous remontons l’histoire de la Terre, les données que nous allons obtenir avec les exoplanètes vont permettre d’élargir ou, au contraire, de contraindre les facteurs nécessaires à sa viabilité puisque plusieurs facteurs semblent devoir être réunis. La diversité des planètes dans la zone habitable va ainsi permettre d’établir si le cycle du carbone long est viable alors que la masse de la planète croît largement et que l’activité tectonique ou volcanique varie. On peut aussi anticiper le fait que des planètes présentant des densités variables et couvertes d’océans plus ou moins profonds vont permettre d’établir l’efficacité d’un cycle de carbones-silicates qui, en l’absence de continent, ne se base que sur l’érosion du sol océanique. La stratégie qui consiste à suivre la teneur atmosphérique en carbone et en eau pour différentes planètes dans la zone habitable de leur étoile sans chercher à trouver une jumelle de la Terre semble présenter une voie prometteuse pour répondre à cette question. Rappelons que nous sommes ici dans la situation où un nombre de candidats assez important sera caractérisé dans la prochaine décennie. Avec la détection d’objets plus ou moins jeunes, on peut aussi envisager une meilleure contrainte sur le cycle du carbone non biologique pour le passé lointain de la Terre, peut-être même la sortie de la phase d’accrétion, comme nous l’avons évoqué pour les exoplanètes magmatiques. L’efficacité de ce ressort qui a contrôlé la température terrestre sur toute son histoire est, par contre, étonnant. Il tend à suggérer que la Terre a juste les paramètres requis pour être habitable et maintenir de l’eau à l’état liquide en surface. On retrouve ici un autre aspect de l’argument de la Terre rare dont nous avons parlé précédemment et sur lequel nous espérons pouvoir prochainement statuer. Cette représentation simplifiée du cycle carbones-silicates montre également que des changements rapides comme l’apparition des continents, ou une modification brusque de l’activité tectonique ou volcanique auront tendance à produire des variations significatives de la température avant que le cycle du carbone non biologique ne réponde. La composition atmosphérique en CO2 et donc la température sur Terre ne sont donc pas stables sur le court terme et se sont trouvées affectées par une grande diversité d’événements. Ce cycle du carbone long est couplé à d’autres cycles géochimiques. Ces derniers modifient de manière similaire la composition atmosphérique de différents composés. C’est bien sûr le cas pour le cycle du
carbone biologique déjà évoqué. Une hypothèse concurrente expliquant la surprenante stabilité du climat terrestre et résolvant le problème du Soleil jeune a été mise en avant par James Lovelock dans les années 1960 sous le nom de « l’hypothèse Gaia ». Gaia est le nom de la déesse grecque, mère de la Terre. Ce modèle, qui a toujours ses adeptes, avance que l’activité biologique s’ajuste pour équilibrer la composition atmosphérique en CO2 et ainsi réguler le climat sur le long terme. Suivant ce concept, une planète doit donc être habitée pour demeurer habitable. Cette hypothèse seule rencontre plusieurs difficultés notamment pour expliquer la sortie d’épisodes durant lesquels la Terre est probablement devenue entièrement glacée avec une activité biologique disparaissant de la surface des continents et des océans. L’activité biologique qui agit donc en réduisant la quantité de CO2 présent dans l’atmosphère mais prise seule ne semble pas être un mécanisme de stabilisation convaincant pour expliquer l’ensemble des relevés géologiques. L’influence de l’activité biologique doit être considérée dans le cadre du cycle long du carbone comme un second cycle plus court qui s’y superpose, influence ces paramètres et avec lequel il est couplé par la production de matière organique. L’importance du cycle du carbone biologique sur l’environnement terrestre ne se situe pas vraiment sur la composition atmosphérique en CO2 au cours de l’histoire de la Terre mais plutôt autour de celle de l’oxygène. Une des caractéristiques notables de la composition atmosphérique terrestre tient dans sa composition en oxygène, qui est le deuxième gaz le plus abondant. Il représente 21 % de l’atmosphère. Indispensable à la vie telle que nous la connaissons, l’oxygène n’a pas toujours été présent. Comme l’oxygène réagit très rapidement avec différents matériaux, ainsi qu’on peut le voir avec un morceau de fer laissé à l’air libre, on s’est aperçu, dès la fin du XIXe siècle, que les roches très anciennes en contenaient très peu, voire pas du tout. En se penchant sur les données géologiques, on voit en fait que l’oxygène est apparu en deux phases. Une première élévation proche du pourcent, il y a environ 2,4 milliards d’années, et une seconde, plus importante et proche de la concentration actuelle, il y a environ 550 millions d’années. L’atmosphère de la Terre primitive en contenait donc très peu. Elle était principalement constituée d’azote, de CO2 et d’eau, et ce durant près de 1,5 milliard d’années. Il a ensuite fallu 2 milliards d’années, et en deux paliers, pour arriver à la concentration actuelle. Alors que les raisons qui ont amené ces changements sont largement débattues à l’heure actuelle, il existe en revanche un consensus sur l’origine biologique de son apparition dans l’atmosphère terrestre, son lien direct avec le cycle du carbone biologique et plus particulièrement avec la photosynthèse oxygénique. La photosynthèse oxygénique, telle que nous l’observons actuellement pour les plantes et les algues, consomme du CO2 et de l’eau pour les transformer en oxygène et en matière organique grâce à la lumière du Soleil. L’oxygène est, en retour, transformé en CO2 dans la deuxième phase du cycle, celle de la respiration. Comme nous le voyons autour de nous, cette transformation inverse n’est pas exacte puisque de la matière organique est produite et qu’elle se retrouve en fin de compte enfouie dans les sols. Ce léger déséquilibre de 0,5 % dans le cycle du carbone biologique laisse de côté la quantité correspondante d’oxygène dans la phase de
respiration. Celle-ci produit donc un flux d’oxygène qui s’équilibre à terme dans l’atmosphère de manière similaire au CO2 mais dans un autre cycle, celui de l’oxygène. Il faut alors considérer ses flux et ses pertes entre l’océan, l’atmosphère et le manteau. L’atmosphère de la Terre a donc été radicalement modifiée par un mécanisme biologique bien identifié, la photosynthèse oxygénique. Ce qui est assez spectaculaire, c’est que nous avons de plus un suspect bien identifié, l’ancêtre des cyanobactéries, une entité microscopique dont on trouve des traces géologiques remontant à 3,5 milliards d’années. Deux facteurs ont été déterminants au cours de l’histoire de la Terre pour aboutir à la composition atmosphérique et au climat que nous connaissons aujourd’hui. Le cycle du carbone non biologique, d’un côté, qui a permis de maintenir les océans à l’état liquide sur près de 4 milliards d’années et l’activité biologique, de l’autre, qui a amené un niveau d’oxygène élevé dans l’atmosphère. L’oxygène atmosphérique est donc à première vue une bonne signature à rechercher dans l’atmosphère d’une exoplanète pour savoir si une activité biologique est présente à sa surface et si la vie a émergé au-delà du système solaire. Cette assertion activement poursuivie par les programmes d’observation en cours de développement ouvre cependant une nouvelle série de questions. L’oxygène n’est en effet pas apparu immédiatement dans l’histoire de la Terre. Il se trouve en quantité détectable dans l’atmosphère 4 milliards d’années après l’impact massif ayant donné naissance à la Lune. La photosynthèse est, de plus, un produit de l’évolution biologique qui s’est développé après plusieurs milliards d’années. La question de son déterminisme se pose. En d’autres termes, la photosynthèse oxygénique se reproduit-elle invariablement une fois que la vie démarre et au bout de combien de temps ? Nous allons maintenant parcourir l’histoire de la vie sur Terre telle que nous la comprenons aujourd’hui pour tenter de répondre à certaines de ces questions.
La vie comme cataclysme planétaire Appréhender l’évolution de la vie sur Terre dans toute sa complexité et en peser toutes les subtilités, c’est l’objet de nombreux ouvrages écrits depuis le XIXe siècle. À partir de cette période, l’idée selon laquelle la vie sur Terre et les formes suivant lesquelles elle s’est déclinée au cours du temps sont en perpétuelle mutation a largement imprégné notre perception scientifique. Sous bien des aspects, cette réalisation est l’une des avancées scientifiques majeures de la science contemporaine et il est toujours surprenant, mais malheureusement assez fréquent, de voir cette notion remise en cause à travers le monde. Il faut dire que notre perception quotidienne est trompeuse sous bien des aspects. Assis dans son jardin à contempler la diversité
biologique qui nous entoure, on se sent au sommet du règne biologique, mais on ressent à son égard une certaine affinité : celle-ci est plus perceptible lorsqu’on se compare à d’autres mammifères et s’estompe lorsqu’on passe aux oiseaux, aux champignons, aux arbres et aux plantes. Nous appréhendons ainsi la diversité biologique qui nous entoure en y associant un nombre de traits communs qui va décroissant quand on ajoute – en poussant un peu la réflexion – les singes entre nous et les lapins, les poissons entre les oiseaux et les champignons et, plus loin encore, les bactéries et autres diversités microscopiques. Reste à intégrer les insectes et les crustacés, à créer des sous-catégories pour chaque espèce, etc. Cette approche amène naturellement à la taxinomie, un domaine de la biologie qui consiste à classer l’ensemble des espèces vivantes en catégories associées à des critères plus ou moins précis et qui ont varié à travers le temps. Cette approche descriptive du vivant dans sa totalité a été une ligne conductrice importante pour progresser dans l’appréhension de cette diversité difficilement nombrable. Depuis l’époque de Darwin, elle a accumulé des savoirs présentés aujourd'hui dans d’extraordinaires musées d’histoire naturelle, merveilles à la gloire de l’inventivité et de la magie du vivant. Cette taxinomie des espèces a gagné au fil du temps une plus grande profondeur temporelle grâce à l’ajout d’une collection de fossiles de plus en plus étendue, qui ouvre une – toute petite – fenêtre sur la diversité qui nous a précédés. Cette fenêtre est très étroite car elle met en avant principalement des espèces qui laissent des traces fossiles facilement identifiables. Ces espèces sont constituées de matériaux comme les os ou les coquilles qui sont les moins altérés au cours du temps et préservent le mieux leur forme lors du processus de minéralisation qui génère le fossile. Dès le XIXe siècle, on s’est aperçu que différents fossiles étaient associés à différentes couches géologiques, que ceux-ci variaient considérablement au cours du temps et que la diversité du vivant que nous connaissons aujourd’hui connaissait également des variations temporelles. Le paradigme sur lequel reposaient les premiers arbres du vivant suppose que les espèces contemporaines occupent les extrémités des branches, tandis que les espèces fossiles se trouvent en amont, où les ramifications sont moins nombreuses. Le tout converge finalement vers un tronc unique, représentant un ancêtre ou des ancêtres communs, primitifs, à partir desquels les espèces sophistiquées et raffinées, telles que l’homme, se seraient développées. Ce premier schéma de l’évolution du vivant s’est heurté dès sa formulation à une anomalie majeure, celle de la quasi-disparition des fossiles complexes au-delà de 540 millions d’années. En remontant le temps à partir du présent, on voit en effet que la complexification ne montre pas la décroissance continue que suggérait le paradigme, mais qu’elle semble, au contraire, varier pour s’arrêter brutalement au Cambrien. Cette anomalie, que l’on dénomme maintenant « l’explosion cambrienne », était déjà identifiée par Darwin comme un contre-argument majeur à l’encontre de sa théorie de l’évolution. Il la contourna en invoquant, à juste titre, que l’absence de fossile n’implique pas qu’ils n’aient pas existé mais simplement qu’on ne les a pas trouvés. L’histoire lui donna tort sur ce point et cette période est bien une singularité, un peu moins
brutale qu’imaginé initialement, mais incontestablement le point d’origine du règne animal sur Terre. Cette observation, et d’autres qui ont suivi durant le XXe siècle, a amené à un changement de paradigme notable concernant les théories de l’évolution à partir des années 1970. Il paraît clair désormais que nous devons abandonner définitivement l’idée que nous serions à un stade de complexification ultime, le produit de 4 milliards d’années d’évolution, et, d’autre part, la thèse selon laquelle cette évolution serait déterministe et reproductible. Si nous regardons les derniers 540 millions d’années, pour lesquelles nous possédons maintenant une collection de fossiles assez conséquente, il apparaît de manière assez marquée que nous n’avons pas seulement une origine du règne animal bien identifiée à cette date mais également des fluctuations très importantes de cette diversité, avec pas moins de cinq extinctions majeures où près de 80 % des espèces ont subitement disparu. La nature des événements qui ont déclenché ces extinctions et l’explosion cambrienne est actuellement très débattue. Des hypothèses diverses et variées s’invitent régulièrement au-devant de la scène. Elles vont d’une origine extrasolaire associée à l’oscillation du système solaire dans le plan galactique à une origine géophysique associée, quant à elle, à des périodes d’activités magmatiques intenses où la composition atmosphérique se trouverait brusquement modifiée par le dégazage en résultant. Une origine extraterrestre est également évoquée puisque des collisions sont possibles avec les géocroiseurs. L’extinction massive des dinosaures, il y a 65 millions d’années, est vraisemblablement la conséquence d’un tel événement. Nous avons dans ce cas une concordance avec un impact d’astéroïde bien identifié dans le golfe du Mexique. Il faut, pour compléter ce tableau, y ajouter les innovations du vivant qui peuvent, à leur tour, largement modifier les conditions atmosphériques, comme nous l’avons vu avec l’apparition de la photosynthèse oxygénique. En laissant de côté la nature même de l’événement à l’origine de ces extinctions, cette inspection du règne animal nous enseigne que l’évolution n’est pas un processus linéaire et cumulatif, au cours duquel les espèces se complexifieraient lentement comme un arbre qui grandit avec des branches qui se ramifient progressivement au fil du temps. Les arbres de la vie transmettent sur ce point une fausse idée, vestige des concepts qui avaient cours au XIXe siècle. L’évolution du vivant doit, au contraire, être vue de manière ponctuée, avec de brusques accélérations succédant à des périodes de calme et de stabilité qui se trouvent à nouveau bouleversées brutalement par un nombre d’événements planétaires, lesquels peuvent être de nature biologique, géophysique ou astrophysique. Chaque discontinuité amène à une diversification à partir des espèces les plus à même de traverser ce changement brusque. Il faut ainsi considérer la biosphère non pas de manière indépendante mais comme un système en interaction directe avec l’atmosphère, formant un tout, où chacun s’influence mutuellement, de manière parfois brutale, et soumis à un certain nombre de facteurs externes aléatoires. L’inspection du règne animal de ces 540 millions d’années nous montre ainsi que l’évolution de la vie sur Terre ressemble plus à une boule de feu d’artifice à détonations
multiples, dont chacune peut se déclencher de manière aléatoire. Cette image montre utilement que la reproductibilité et le déterminisme ne sont pas de mise lorsque l’on parle de la diversité biologique telle que nous la connaissons après 4,5 milliards d’années. Cette notion est particulièrement importante à garder à l’esprit lorsque l’on s’intéresse au développement possible de l’activité biologique sur une planète autre que la Terre. C’est en effet le cœur de la réflexion lorsque l’on réfléchit à la possibilité d’une vie intelligente ou, plus raisonnablement, lorsque l’on envisage d’utiliser la présence d’oxygène dans l’atmosphère comme signature d’une activité biologique. Avant de revenir plus en détail sur ce point central, achevons notre inventaire de l’histoire de la vie sur Terre. Elle s’arrête pour l’instant à 540 millions d’années, bien loin des 4,5 milliards d’années qui se sont écoulées depuis l’impact géant qui a donné naissance à la Lune. Dans la seconde partie du XXe siècle, des traces de vie au-delà de l’explosion cambrienne se sont fait jour. Se rapportant à des espèces n’ayant ni squelette ni coquille ou branche, elles sont constituées de parties molles plus difficilement préservées au cours du temps. Ces traces fossiles sont de fait également plus difficiles à identifier. Elles sont de plus microscopiques car elles se rapportent à des espèces microbiennes, ce qui entraîne une difficulté supplémentaire pour l’interprétation. Leur morphologie et l’origine biologique des formes produites sont le premier critère de distinction. On remonte ainsi jusqu’à près de 3,35 milliards d’années avec des formes microscopiques qui pourraient être identifiées à des microfossiles. Les plus anciennes sont toutefois assez controversées. Les certitudes que nous avons sur elles s’estompent tout de même au-delà de 2,55 milliards d’années. Après cette date, l’activité biologique est identifiée, de manière moins ambiguë, par les fossiles de stromatolithes. Les stromatolithes sont des structures en champignons ou en colonnes formées par des couches successives de bactéries dont l’activité photosynthétique active localement la précipitation des carbonates en milieux immergés, peu profonds, assez chauds et légèrement salés. Des stromatolithes modernes sont toujours présents sur Terre et en formation à Shark Bay dans l’ouest de l’Australie. L’analogie morphologique entre la structure laminaire, c’est-à-dire en couches, formées par les stromatolithes modernes et des structures similaires, présentes dans de nombreux gisements anciens, suggère, de manière assez convaincante, que ces structures biologiques primitives correspondent à des colonies ou à des matelas plus ou moins étendus de bactéries photosynthétiques qui existent sur Terre depuis les temps les plus anciens et presque d’aussi loin que l’on puisse remonter. L’origine biologique des structures plus anciennes, au-delà de 3,4 milliards d’années, est, par contre, toujours âprement discutée. En revanche, l’hypothèse d’une activité biologique, au moins jusqu’à 3,4 milliards d’années, est cohérente avec les relevés isotopiques pour le carbone qui montrent pour l’un des isotopes une déficience similaire à celle que l’on attend pour le vivant. Nous voyons donc que l’histoire de la vie sur Terre est largement dominée par l’activité bactérienne dont on retrouve les traces jusqu’à 3,4 milliards d’années. Sous sa forme
multicellulaire, qui comprend les plantes et le règne animal, elle s’étend sur seulement 540 millions d’années. Cette surreprésentation n’est pas seulement ressentie lorsque l’on adopte une perspective temporelle. Elle l’est tout autant lorsque l’on analyse quantitativement le poids relatif des différentes catégories du vivant présentes sur Terre aujourd’hui. Ces microorganismes qui échappent entièrement à notre perception comptent en fait pour près de 15 % de la masse de matière biologique présente sur Terre. Les plantes représentent près de 80 % de la masse de la biosphère actuelle, tandis que les animaux, auxquels la plus grande majorité des fossiles se rapportent, ne pèsent au contraire qu’un poids en carbone 40 fois inférieur à celui des bactéries. Ce monde invisible a également révélé ces dernières années son étonnante diversité.
Figure 22. Arbre phylogénétique simplifié du vivant (© Y. Gominet/IMCCE).
Les méthodes de métagénomiques, qui consistent à décoder dans leur ensemble, et non plus de manière individuelle, les caractéristiques génétiques des composants de différents milieux, montrent que nous sommes non seulement passés à côté d’un très grand nombre d’espèces, mais
que, sur les plus de 2,5 millions recensés actuellement sur Terre, près des deux tiers appartiennent au monde bactérien. La diversité génétique des bactéries, leur poids relatif sur la biosphère terrestre, ainsi que leur présence sur près de 3,5 milliards d’années en font la composante biologique déterminante pour l’histoire de la vie sur Terre. Les traces fossiles s’y référant étant, comme nous l’avons vu, assez difficiles à interpréter, c’est par le biais des avancées de la génétique que nous sommes arrivés à une meilleure reconstruction de cette évolution du monde bactérien sur l’histoire de la Terre. À partir de la seconde moitié du XXe siècle, l’ADN et l’ARN, ces deux macromolécules qui constituent les briques élémentaires du vivant, ont été identifiés comme fondamentaux pour la caractérisation et l’hérédité des espèces vivantes. L’ADN représente la bibliothèque génétique d’un individu, tandis que l’ARN est le messager qui transmet cette information aux protéines. Les arbres phylogénétiques du vivant mettent ainsi en perspective les évolutions de l’ensemble des espèces à l’échelle génétique en les reliant par affinité, d’une part, et en supposant un certain taux de mutation ou de variation d’une partie de l’ADN ou de l’ARN en fonction du temps, de l’autre. Ce travail titanesque est en constante évolution puisqu’il s’agit de prendre en compte la grande diversité génétique des espèces actuelles et de remonter dans le temps en s’appuyant sur les mutations ayant lieu à chaque génération. La solution n’est pas non plus unique. Il faut choisir, d’une part, une partie de l’ADN ou de l’ARN qui est commun à l’ensemble des espèces et, d’autre part, faire des choix sur le modèle d’évolution temporelle de cette partie d’ADN ou d’ARN. Il faut, de plus, supposer que ces mutations génétiques ne se transmettent qu’à l’espèce descendante et qu’il n’y a pas de transfert d’information génétique entre des espèces coexistantes pour cette partie commune du génome. Comme on peut s’y attendre, les différents choix entraînent des solutions différentes qui ne sont pas toujours cohérentes entre elles. Des grandes lignes commencent toutefois à se dégager. Trois grands domaines du vivant sont maintenant identifiés, les archées, les bactéries et les eucaryotes. Les eucaryotes se distinguent des archées et des bactéries par leurs cellules qui possèdent un noyau et leur habilité à former des organismes pluricellulaires. On retrouve le domaine des eucaryotes, auquel appartiennent les plantes et les animaux, vers les extrémités des arbres phylogéniques. Cette position particulière confirme qu’il s’agit bien d’une évolution tardive en accord avec les relevés fossiles. On peut donc placer un repère aux alentours de 1,5 milliard d’années pour cette divergence avec les archées. Les archées et les bactéries sont en amont de l’arbre phylogénique, confirmant ainsi que la vie sur la Terre primitive a été dominée par l’activité d’espèces monocellulaires. Elles étaient considérées comme appartenant à la même famille du vivant jusqu’à l’avènement de la génétique qui a ainsi mis en évidence des différences fondamentales entre ces espèces unicellulaires et microscopiques. Les premières archées identifiées ayant des propriétés leur permettant de résister à des conditions extrêmes de température, de salinité ou de pression, elles ont initialement suscité une attention toute particulière en raison de leur position assez basse dans les arbres phylogéniques. Des archées ont
maintenant été identifiées dans une grande diversité d’environnements, qui ne se limitent pas exclusivement à des conditions extrêmes, ce qui lève des restrictions sur les conditions dans lesquelles leur émergence est possible. Le positionnement des espèces thermophiles, c’est-à-dire dont le métabolisme est le plus efficace à haute température, à la base de chacun de ces deux domaines, que cela soit pour les archées et, dans une moindre mesure, pour les bactéries, est en revanche toujours âprement débattu. Il s’agit pour certains d’une preuve que la vie primitive sur Terre s’est développée dans des conditions où les températures étaient élevées en raison d’une concentration de CO2 importante dans l’atmosphère, durant le bombardement tardif ou près des cheminées hydrothermales au fond des océans. Tandis que cette question n’est toujours pas tranchée, ce débat illustre, en revanche, comment les arbres phylogéniques permettent d’explorer les métabolismes des organismes qui peuplaient la Terre primitive. Grâce à eux, on peut ainsi envisager des scénarios de développement de certaines propriétés métaboliques qui ont influencé, ou pu influencer, de manière notable la composition atmosphérique. Les arbres phylogéniques montrent, par exemple, que la photosynthèse oxygénique qui est à l’origine de l’oxygène présent en grande quantité dans l’atmosphère contemporaine ne s’est développée que très récemment pour les eucaryotes, c’est-à-dire les plantes et les algues. Cette propriété ne s’est pas développée de manière graduelle dans le domaine des eucaryotes, génération après génération, mais par endosymbiose avec les cyanobactéries. Cette cohabitation au long terme s’est traduite par l’absorption de cyanobactéries par certains organismes eucaryotes. Si l’on suit ce fil et que l’on passe maintenant dans le domaine des bactéries photosynthétiques, on note que la photosynthèse oxygénique requiert deux mécanismes que l’on retrouve indépendamment chez d’autres bactéries. Ces bactéries utilisent également la lumière comme source d’énergie mais ne produisent pas d’oxygène dans la réaction de photosynthèse. On parle alors de photosynthèse non oxygénique. Leurs positions respectives dans les arbres phylogéniques nous indiquent que la photosynthèse non oxygènique s’est développée assez rapidement après l’apparition de la vie, mais qu’un temps beaucoup plus long s’est écoulé avant que la photosynthèse oxygénique n’apparaisse. À une position comparable aux bactéries photosynthétiques non oxygéniques, on trouve les méthanogènes, des archées qui n’utilisent pas la lumière comme source d’énergie mais convertissent directement de l’hydrogène et du CO2 en méthane. Les méthanogènes, qui consomment deux gaz probablement présents dans l’atmosphère de la Terre primitive et produisent un gaz à effet de serre important, le méthane, sont régulièrement évoqués comme les premiers organismes présents sur Terre. La production de méthane est un aspect important car celui-ci vient contribuer à résoudre le problème du Soleil jeune en réduisant la teneur en CO2 nécessaire pour maintenir la température au niveau requis. Leurs propriétés hyperthermophiles, c’est-à-dire adaptés aux hautes températures, ouvrent de plus la voie à la possibilité d’une émergence de ces organismes dès la fin du bombardement tardif.
L’ordre d’apparition entre la méthanogenèse et la photosynthèse non oxygénique n’est, en revanche, pas clairement établi et traduit vraisemblablement une interprétation trop étroite des arbres phylogéniques qui tendent à pointer vers un ancêtre commun LUCA (dernier ancêtre universel commun), à partir duquel ces deux propriétés auraient émergé. Cette notion est de plus en plus remise en question et le consensus actuel tend à privilégier l’idée que les eucaryotes ont émergé à partir des archées, formant ainsi un seul domaine du vivant où les archées sont les précurseurs, tandis que les bactéries et les archées proviennent peut-être de lignées différentes dont le vivant contemporain a perdu la trace génétique. Cette notion d’origine pour le vivant est peut-être donc conceptuellement hors de portée pour les méthodes phylogénétiques. Cette question fondamentale ne nous empêche pas de tirer des enseignements utiles concernant l’influence de la biosphère sur la composition atmosphérique terrestre au long de son histoire. Un scénario qui se dégage des études phylogénétiques lorsque celles-ci sont mises en liens avec les données géologiques part donc des méthanogènes et de la photosynthèse non oxygénique qui, tous deux, consomment de l’hydrogène atmosphérique. Les relevés isotopiques pour le carbone, qui dépendent de la quantité de matière organique produite, montrent que cette activité a été suffisamment importante pour modifier de manière notable la composition atmosphérique dès 3,5 milliards d’années. Cela a vraisemblablement contribué à résoudre le problème du Soleil jeune en produisant une quantité de méthane significative. La photosynthèse oxygénique est apparue dans un deuxième temps chez les cyanobactéries. Cette propriété s’est développée quelques centaines de millions d’années avant la grande oxydation qui a eu lieu il y a 2,4 milliards d’années. Son apparition pour le vivant ne coïncide a priori donc pas avec cet événement géologique. L’apparition de la photosynthèse oxygénique est donc une condition nécessaire mais probablement non suffisante à elle seule pour expliquer l’apparition de l’oxygène dans l’atmosphère. L’oxygène étant un poison pour ces premiers organismes, son apparition dans l’atmosphère, même à très faible dose et au niveau du premier palier à 1 %, a provoqué une extinction massive, sûrement la plus importante de l’histoire de la Terre. La disparition du méthane atmosphérique et de l’effet de serre attenant a aussi entraîné une baisse des températures soudaine. Cela a déclenché une glaciation massive, les glaciations huroniennes dont on retrouve les traces à la période correspondant à la grande oxydation. La période qui s’est ensuivie, et qui s’étend de 1,8 à 0,8 milliard d’années, est appelée le milliard ennuyeux (the boring billion) en raison de l’apparente stabilité climatique, biologique et géophysique que l’on trouve dans les relevés géologiques. La tectonique des plaques se serait peut-être même fortement ralentie durant cette période. Les eucaryotes se sont probablement largement développés durant cette époque et des relevés isotopiques plus précis nous montreront peut-être que cette apparente tranquillité est en réalité trompeuse. La deuxième oxydation, qui élève la concentration en oxygène de l’atmosphère proche de sa valeur actuelle, amène l’explosion cambrienne et le développement de la vie complexe, semble être accompagnée de plusieurs changements climatiques et d’une activité géologique plus intense.
De multiples scénarios sont mis en avant pour expliquer la manière dont cette innovation biologique développée par les cyanobactéries a changé en 2 fois, et par paliers, la composition atmosphérique de la Terre. Cette question est d’autant plus intrigante qu’il est établi que cette innovation biologique ne correspond pas à un changement immédiat de la composition de l’atmosphère en oxygène. Cette question doit être appréhendée de manière globale dans le cadre du cycle du carbone, où le flux d’oxygène s’accompagne d’un enfouissement de la matière organique qui a pu varier à cause de changements de nature biologique ou géophysique. L’oxygène étant de plus très réactif, son apparition dans l’atmosphère implique un bouleversement global à l’échelle planétaire qui s’accompagne d’une modification de la composition des océans, voire du manteau terrestre. La présence de l’oxygène en grande quantité dans l’atmosphère est donc récente, puisqu’elle date d’il y a 540 millions d’années. Elle résulte d’une intrication entre des innovations biologiques et l’évolution géophysique de la Terre avec une activité tectonique et volcanique qui a pu varier et qui s’est traduite par différents régimes pour son cycle du carbone. Ce couplage entre les deux permet de construire un scénario partant d’une planète où l’oxygène était absent de son atmosphère pour arriver à sa concentration actuelle mais pose la question du déterminisme de cette trajectoire. En d’autres termes, si l’on refaisait l’histoire de la Terre, reviendrait-on exactement à la même composition atmosphérique en oxygène ? Comme le mentionne James Kasting de l’Université de Pennsylvanie, on s’aperçoit en effet que le développement de la photosynthèse oxygénique est apparu par étapes successives, brique par brique, mais que celle-ci n’a été inventée qu’une seule fois dans l’histoire de la vie sur Terre par les cyanobactéries. De manière réciproque, on peut se demander si cette innovation aurait amené une concentration importante d’oxygène sur Terre si l’activité géophysique avait été différente. Ce résumé rapide de l’histoire de la Terre et de la vie sur Terre nous montre comment l’habitabilité et la fréquence de la vie extraterrestre peuvent se décliner de manière scientifique. On peut prendre la Terre en exemple et se demander ce qui dans son histoire est générique. En d’autres termes, quels sont les événements qui se passeraient de manière certaine, et ceux qui semblent être dus à un enchaînement particulier d’événements difficilement reproductibles. Nous voyons qu’au-delà de l’histoire particulière du système solaire viennent s’ajouter l’impact et la formation de la Lune – d’un bombardement plus ou moins intense suivant la formation –, son cycle du carbone particulier qui a maintenu la Terre habitable pendant plus 4 milliards d’années et l’apparition d’une quantité importante d’oxygène dans l’atmosphère qui a permis le développement de la vie complexe. En soupesant ces différentes caractéristiques et l’ensemble des facteurs à réunir, l’histoire de la Terre apparaît comme une ligne de crête étroite, difficile à reproduire si l’on veut arriver jusqu’à la réalisation d’une vie complexe. Alors que différents points de vue s’affrontent autour de cette question, en s’appuyant sur un seul exemple, la Terre et son ensemble de données fragmentées, la découverte des planètes extrasolaires permet d’envisager d’y répondre de manière statistique sans refaire l’histoire de la Terre mais en
quantifiant l’importance de ses événements sur un échantillon de planètes dont l’histoire a été différente.
CHAPITRE 8
Va-t-on détecter une planète habitée ?
Alors que nous sommes une fois encore au bord de la plage à observer l’étendue de cet océan qu’est l’Univers et à attendre le lever d’un nouveau jour dont on commence à voir poindre les premières lueurs, cette même question de la vie au-delà de la Terre continue à se poser de manière vivide. Nous avons avancé d’un demi-pas depuis les Grecs avec les milliards de kilomètres parcourus à travers le système solaire ou visualisés grâce à des télescopes qui se comparent en taille à des cathédrales, mais cette question n’a rien perdu de son lustre. Elle se décline, certes, différemment puisqu’un nombre significatif de données observationnelles se sont accumulées depuis la Grèce antique et qu’à chaque révolution scientifique une perspective différente est venue apporter un éclairage inédit à cette question. L’ensemble des contraintes s’est donc largement étendu, que cela soit pour le système solaire, son histoire ainsi que celle de la Terre. Mais la question fondamentale de savoir si une autre planète est habitée par une forme de vie quelconque nous fait toujours face de manière presque provocatrice. Pour ce qui est de sa détection, nous avons largement revu nos ambitions à la baisse à la suite de l’exploration du système solaire. Nous sommes passés en cinquante ans de l’écoute des étoiles pour détecter les signes d’autres civilisations à espérer simplement qu’il y aurait, dans notre environnement proche, quelques planètes où de l’eau liquide se trouverait en surface, en quantité suffisante, et durant un temps suffisamment long, pour retrouver des conditions favorables à la vie telle que nous la connaissons sur Terre. La recherche de la vie complexe avec ses formes imaginées des plus multiples et des plus diverses a cessé d’être pour l’instant au cœur de nos intérêts. La question scientifique ne se pose plus en ces termes notamment parce qu’elle n’est pas représentative de l’histoire de la vie sur Terre, mais également parce que le point d’origine de la vie terrestre et les conditions qui ont permis son démarrage semblent nous échapper un peu plus à chaque nouvelle avancée que nous faisons.
Qu’il s’agisse de définir ce qu’est la vie, de comprendre son émergence à l’échelle la plus élémentaire où des molécules s’assemblent et s’organisent, ou d’appréhender les conditions qui ont régné sur Terre au moment de cette étincelle initiale, en ce début du XXIe siècle, la science se trouve dans ce que l’on peut considérer comme une impasse. La question de l’origine de la vie sur Terre reste même presque entière. Cela rend la question de la vie sur les planètes extrasolaires, et plus généralement des formes de vie dans l’Univers, tout aussi insaisissable, du fait de la difficulté à définir des critères scientifiques permettant d’orienter les recherches. Cette situation qui s’est encore aggravée ces dernières décennies a conduit du côté de l’astrophysique à ramener la question de l’habitation à celle de l’habitabilité. On ne parle en effet plus de planètes potentiellement habitées mais de planètes potentiellement habitables en se basant, comme nous l’avons vu, sur la possibilité de conditions climatiques favorables pour permettre à l’élément jugé indispensable à la vie, l’eau, de demeurer à l’état liquide en surface. Le pas franchi en astrophysique n’est donc pas sémantique. Il consiste en fait à contourner cette énigme scientifique sur laquelle nous buttons actuellement en cherchant des démonstrations de ses réalisations à défaut d’avoir compris les raisons de son émergence. L’eau ne suffit bien sûr pas. La question de la vie au-delà de la Terre se décline en premier lieu dans le laboratoire, à comprendre les mécanismes qui font émerger et ont fait émerger sur Terre cette marche vers la complexité chimique que représente la vie afin d’appréhender sa probabilité de reproductibilité dans d’autres environnements et sur d’autres planètes.
Le mystère des origines Chacun peut constater en regardant un bocal d’eau sur une table que celui-ci n’a rien de vivant. Si l’on y place un poisson et un rocher, on distingue instinctivement ce qui est vivant de ce qui ne l’est pas. En faisant cette analyse, on ne pense plus à l’eau et notre attention se concentre sur la distinction entre le rocher et le poisson. L’un est dans un état transitoire animé qui nous est familier, celui d’être vivant, et s’oppose sans équivoque au second, le rocher, lui, inerte. Les deux sont pourtant constitués d’atomes et si l’on se penche plus en détail sur leur constitution élémentaire, cette distinction entre vivant et non-vivant nous échappe. Le problème sur lequel nous butons actuellement est de comprendre comment passer de l’un à l’autre à partir d’un ensemble d’atomes donné. Si l’on se penche de plus près sur le fonctionnement du vivant, l’ADN, maintenant passé dans le savoir commun avec sa structure en double hélice, n’est pas en fait la seule macromolécule clé. Lorsque l’on part du vivant, les briques élémentaires sont l’ADN, l’ARN et les protéines qui exercent, elles, un ensemble de fonctions dans les organismes. L’ARN est une
autre macromolécule plus simple que l’ADN et qui ne présente pas de structure en double hélice. Les deux sont formés de nucléotides, complexes chimiques plus élémentaires qui s’assemblent en séquence pour former le code génétique. Trois nucléotides sont communs à l’ADN et à l’ARN, et quatre nucléotides au total, un pour l’ADN et un autre pour l’ARN, s’arrangent de manière linéaire pour former l’ADN ou l’ARN. Cette longue liste de nucléotides forme ce que l’on appelle le code génétique d’une espèce et toutes les formes vivantes peuvent être décrites par une liste plus ou moins longue formée à partir de ces quatre lettres. Dans le fonctionnement de la cellule la plus élémentaire, l’ADN contient le patrimoine génétique mais a besoin de l’ARN pour se répliquer à l’identique. L’ARN prend, lui, l’information stockée dans l’ADN pour produire les protéines nécessaires au fonctionnement de la cellule. Les protéines sont, elles, beaucoup plus versatiles et constituées à partir de 26 acides aminés qui s’arrangent pour effectuer un très grand nombre de fonctions. Dans le fonctionnement du vivant, et cela tout au long de l’arbre phylogénique que nous avons vu précédemment, l’ADN, l’ARN et les protéines s’articulent suivant cette logique pour constituer la machinerie du vivant. Lorsque l’on continue à observer cette machinerie moléculaire sophistiquée, on est à un niveau de complexité chimique relativement élevé et bien loin des briques élémentaires dont nous avons parlé jusqu’à présent dans le processus de formation planétaire comme, par exemple, le CO2 ou l’eau. Cela est notamment le cas pour l’ADN qui peut être constitué d’un très grand nombre de nucléotides atteignant quelques milliards lorsque l’on regarde le génome des êtres humains. L’ARN est moins long mais peut tout de même atteindre quelques milliers de nucléotides. L’articulation entre l’ADN qui joue le rôle de disque dur du génome et l’ARN qui lit ce code génétique est également un processus assez sophistiqué. Cette constatation a très tôt suggéré que cette machinerie n’a pas émergé à partir de la matière chimique élémentaire et qu’une ou plusieurs étapes intermédiaires de complexité chimique ont eu lieu entre le moment où les ingrédients élémentaires étaient réunis sur Terre et l’émergence des premières cellules capables de se répliquer à l’identique à l’aide de cette machinerie. Cette observation est à mettre en regard avec le fait que nous ne connaissons pas actuellement sur Terre et cela, malgré le grand nombre de conditions géologiques explorées de cas, où cette machinerie se met en marche spontanément à partir de composés chimiques simples. La vie a, semble-t-il, démarré dans des conditions qui n’existent plus aujourd’hui à la surface de la Terre. Dès les années 1960, le rôle pivot de l’ARN dans la mécanique du vivant en a fait un candidat idéal pour cette brique primitive, vestige d’une complexité chimique intermédiaire existant pour des organismes ayant précédé la base de l’arbre phylogénétique que nous avons vu dans le chapitre précédent. Dans la machinerie du vivant, nous voyons que l’ADN a besoin de l’ARN pour se répliquer tandis que les protéines ne peuvent pas se répliquer sans l’ARN ou l’ADN puisqu’elles ne portent pas d’information génétique. Cette hypothèse, émise par Carl Woese dans les années 1960, a pris tout son élan à partir des années 1980 lorsqu’il a été observé que certaines formes d’ARN pouvaient simuler certaines fonctions que l’on pensait être
réservées aux protéines. Sa capacité de réplication a également été démontrée à cette période. Cette versatilité des formes d’ARN, qui peuvent à la fois stocker l’information génétique, se répliquer et donc théoriquement lancer seules la machinerie du vivant, est la base sur laquelle s’appuie l’idée que l’ARN serait apparu avant l’ADN. Cette hypothèse, émise à partir des années 1980 et connue sous le nom de monde ARN, postule que des cellules élémentaires constituées seulement d’ARN seraient une des étapes intermédiaires entre la chimie inerte et le vivant tel que nous le connaissons actuellement. Cette hypothèse du monde ARN amène à plusieurs simplifications notables. Nous n’avons plus trois familles à faire émerger, l’ADN, l’ARN et les protéines, mais une seule, l’ARN, pour arriver à une caractéristique notable du vivant, celle de se répliquer avec des variations. On est, dans ce cas, dans une configuration laissant penser que les prérequis sont obtenus pour lancer la machinerie darwinienne. L’ARN est également moins long que l’ADN, ce qui fait de lui une brique apparemment plus simple à construire à partir de composés élémentaires. Pour finir, cette hypothèse rappelle également le fonctionnement des virus qui n’ont pas non plus d’ADN bien que le lien reste suggestif et loin d’être clairement établi. Elle propose par contre un schéma cohérent de développement du vivant avec l’émergence de nucléotides qui se trouvent enfermés dans une membrane, forment des ARN plus ou moins longs permettant la réplication et le démarrage du vivant. Cette théorie est bien entendu largement débattue actuellement et plusieurs schémas alternatifs sont régulièrement proposés. Quelles que soient les critiques faites sur l’hypothèse du monde ARN, et elles sont nombreuses, elle a le mérite de poser un cadre assez clair pour développer l’expérimentation dans le laboratoire afin de relier la chimie inerte d’un côté, s’appuyant sur des composés simples à partir desquels une complexité se développe et la biologie de l’autre, en proposant un système minimal à partir duquel on peut imaginer que la réplication à l’identique, caractéristique du vivant, se développe. Certaines formes d’ARN offrent une possibilité de faire ce lien. L’autre point à retenir est, une nouvelle fois, que cette transition s’est produite dans le passé de l’histoire de la Terre mais ne se déroule plus actuellement. Cette constatation implique de fait que le démarrage de la vie sur Terre peut être un accident de parcours ayant bénéficié de conditions transitoires de pression, de température ou de constituants favorables à cette émergence. Comme nous l’avons vu, l’histoire de la Terre met en jeu un impact géant qui a donné lieu à la formation de la Lune, un refroidissement à partir duquel l’atmosphère s’est formée et un grand bombardement qui s’est ensuivi durant peut-être 500 millions d’années. L’ensemble de ces événements permet d’imaginer différents scénarios pouvant amener à des conditions favorables en surface pour faire émerger suffisamment de complexité chimique pour atteindre le monde ARN. Cette notion de couplage entre l’émergence d’une complexité suffisante pour mettre en œuvre les processus biologiques élémentaires et les conditions sur la Terre primitive trouve ses racines au début du XXe siècle bien avant l’élaboration de l’hypothèse du monde ARN. Haldane et
Oparin avancent indépendamment, à la fin des années 1920, la notion de soupe primitive où les océans remplis de composés chimiques élémentaires, en contact avec une atmosphère dépourvue d’oxygène et soumis au rayonnement du Soleil, d’une part, et à une activité orageuse intense, d’autre part, aurait permis l’émergence d’une complexité chimique suffisante pour faire démarrer la vie. Cette esquisse d’un scénario intégré entre l’histoire de la Terre et l’émergence de la complexité chimique a pris corps de manière concrète dans les années 1950 avec l’expérience référence de Urey-Miller. Stanley Miller et le prix Nobel Harold Urey dont il était l’étudiant ont mis en place la première expérience cherchant à démontrer le démarrage de la vie dans des conditions jugées correspondre à celles ayant existé à la surface de la Terre, il y a plus de 4 milliards d’années.
Figure 23. Stanley Miller devant son expérience en 1970 (© J. Strick).
Afin de recréer ce scénario en laboratoire, ils utilisèrent un ballon de quelques litres relié à un dispositif électrique permettant de reproduire des décharges comparables aux éclairs lorsque nous avons des orages. Le ballon, à demi rempli d’eau, pouvait être chauffé pour reproduire le phénomène d’évaporation. Celui-ci était fermé hermétiquement après que de l’ammoniac, du méthane et de l’hydrogène y avaient été ajoutés pour simuler l’atmosphère terrestre postulée. L’expérience déclencha un coup de tonnerre bien au-delà du milieu scientifique : elle montrait qu’après quelques heures des acides aminés, composants élémentaires des protéines, se formaient spontanément. Ce résultat spectaculaire, qui montrait qu’une certaine complexité chimique importante dans le fonctionnement de la vie pouvait être obtenue à partir de composés élémentaires placés dans des conditions similaires à celles imaginées pour la Terre primitive, donna la fausse impression que l’énigme de l’apparition de la vie sur Terre était résolue. Cette expérience a, depuis, été reproduite des dizaines de fois en perfectionnant le protocole et en faisant varier les ingrédients. Cependant, elle n’a jamais permis d’obtenir des composés plus complexes que les acides aminés ou même des nucléotides amenant à l’ARN ou à l’ADN. Elle montre qu’il est assez facile d’obtenir des acides aminés, mais les produits obtenus ne s’approchent pas suffisamment de la machinerie du vivant pour que l’expérience continue d’être perçue aujourd'hui comme aussi fondamentale qu’il y a soixante-dix ans. Comme nous l’avons vu, les acides aminés sont les briques élémentaires des protéines mais ne participent pas à la construction d’ARN que nous avons identifiée comme la brique élémentaire à obtenir. Le défi non résolu et sur lequel plusieurs équipes se penchent actuellement est non seulement de former des nucléotides, ce qui est assez facilement obtenu, mais surtout de les assembler en une chaîne suffisamment longue pour produire les molécules d’ARN capables de se répliquer spontanément. Cette dernière étape est l’obstacle sur lequel nous butons actuellement et il est maintenant établi qu’un ingrédient ou un processus supplémentaire est nécessaire. L’expérience de Urey-Miller est progressivement tombée en désuétude car les composés utilisés pour représenter l’atmosphère de la Terre primitive, l’ammoniac, le méthane et l’hydrogène, ne sont probablement pas compatibles avec une vision renouvelée de l’atmosphère de la Terre il y a 4 milliards d’années. Comme nous l’avons vu, nos avancées du côté de la formation planétaire indiquent que le CO2, l’eau et l’azote sont à privilégier lorsque l’on considère la composition de l’atmosphère primitive. Ces conditions sont malheureusement moins efficaces pour la production de molécules organiques, et même les acides aminés sont dans ce cas difficiles à produire. L’atmosphère, qui contient plusieurs atomes d’oxygène sous la forme d’eau et de CO2, est dans ce cas dite faiblement réductrice tandis que celle utilisée dans l’expérience originale de Urey-Miller ne contient pas d’atomes d’oxygène. Elle est alors dite fortement réductrice et amène plus facilement à des molécules organiques composées d’une large quantité d’hydrogène et de carbone. Nous avons donc ici un premier obstacle pour cette expérience avec les conditions supposées pour la Terre primitive qui semblent incompatibles, au moins à l’échelle planétaire, avec la production de composés organiques permettant de créer les
briques élémentaires des molécules d’ARN, des protéines et même des vésicules dans lesquelles le matériel génétique peut être emprisonné. Cette ligne de raisonnement amène également à penser que plusieurs mécanismes qui avaient cours pour la Terre primitive se sont éteints avec l’apparition de l’oxygène dans l’atmosphère et les océans. Face à ce qui apparaissait comme une voie sans issue, à la fin des années 1970, la découverte des cheminées hydrothermales a donné de nouveaux espoirs concernant l’identification de conditions permettant l’élaboration de briques élémentaires du vivant. Certaines de ces cheminées, qui se forment sur les failles océaniques où le magma vient effleurer l’océan, offrent des conditions fortement réductrices avec des teneurs en méthane, en ammoniac et même en hydrogène significatives. On retrouve alors des conditions propices au démarrage de la chimie organique et indépendante de la composition atmosphérique ou de l’activité solaire. Les gradients de température, de pression et de concentration de certains éléments permettent également d’imaginer certains processus chimiques imitant ceux que l’on retrouve à l’intérieur des cellules. La découverte d’écosystèmes complets et très riches n’utilisant pas la photosynthèse comme source d’énergie mais l’énergie chimique, de manière similaire à ce que l’on a évoqué pour les premiers organismes supposés avoir peuplé la Terre primitive, a immédiatement suggéré de nouvelles hypothèses sur l’émergence de l’activité biologique. Le scénario mis en avant est un peu différent du monde ARN qui cherche à atteindre une complexité chimique à partir de briques élémentaires. Il s’appuie notamment sur le rôle des argiles tapissant ces cheminées qui reproduisent celui de certaines molécules biologiques lorsque les molécules organiques se forment et éventuellement se répliquent. Il présente en fait une alternative au scénario du monde ARN en suggérant une étape intermédiaire où des molécules plus simples mises en réseau et interagissant grâce à leur interaction avec les surfaces d’argiles permettent progressivement d’arriver aux propriétés d’autoréplication recherchées pour certaines molécules d’ARN. Nous n’avons pas, dans ce cas, de chemin chimique à construire en assemblant des nucléotides mais un chemin de fonctions qui se complexifient pour arriver au monde ARN. Le rôle des argiles pour initier ou induire de nouvelles fonctions lorsque des molécules s’y déposent n’est bien sûr pas limité aux vents hydrothermaux. Il se décline dans différents scénarios impliquant un environnement géologique particulier et qui compte de manière non exhaustive les sources hydrothermales continentales, les étangs ou même les marres que l’on retrouve à la surface des continents. Ceux-ci peuvent, de plus, alterner des épisodes asséchés permettant l’assemblage des molécules complexes et des inondations favorisant le déplacement de celles-ci. Cette grande diversité d’environnements explorés de manière quantitative par des mesures précises sur le terrain ou des reconstructions grâce aux expériences de laboratoire telles que celles de Urey-Miller, celles reproduisant les conditions à la surface des argiles ou même dans les cheminées hydrothermales des océans profonds montre que la voie poursuivie actuellement consiste à identifier, d’une part, un ou des environnements offrant des conditions favorables à une marche vers la complexité biologique. Elle offre ainsi un cadre scientifique où les différentes
hypothèses sont évaluées à l’aune de mesures quantitatives permettant ainsi aux travaux actuels autour des questions des origines de la vie sur Terre de passer du domaine spéculatif qu’ils ont connu durant des siècles à celui de la validation expérimentale qui se déploie depuis quelques décennies. Cet état des lieux rapide montre, d’autre part, que ce ou ces environnements sont perçus comme partie intégrante de la solution permettant d’arriver à des composés comme certains ARN qui ont la propriété de se répliquer à l’identique et de lancer la machinerie du vivant. Il suggère aussi que la vie telle que nous la connaissons actuellement sur Terre est le produit de conditions transitoires ayant existé dans le passé lointain de la Terre, durant une étape proche de sa formation et qui n’a plus cours dans la diversité d’environnements que l’on retrouve actuellement sur Terre. Bien qu’aucun des différents scénarios n’ait à ce jour permis de faire émerger des molécules d’ARN ou une complexité chimique suffisante autorisant l’autoréplication à l’identique, un pas significatif vient d’être franchi par l’équipe de John Sutherland à l’Université de Cambridge. Il a récemment montré qu’il est possible de produire les briques élémentaires de l’ARN, de l’ADN et des acides aminés à partir de molécules de cyanure d’hydrogène (HCN) exposé à un flux de lumière ultraviolet. Le réservoir nécessaire pour construire les briques du vivant est, dans ce cas, une quantité suffisante d’une molécule assez simple qui est produite facilement dans différentes conditions. L’HCN se forme en faible quantité dans l’atmosphère de la Terre primitive, mais aussi par décharges électriques comme celles que l’on a avec les éclairs ou lors d’impacts de météorites. On en trouve même sur les comètes. Cette diversité de sources pour créer une molécule assez simple qui peut jouer le rôle de réservoir pour l’émergence de la complexité chimique donne du poids à ce scénario. Il est aussi intéressant de constater que ce qui semble le résultat le plus important des expériences de Urey-Miller s’est en fait trouvé occulté pendant longtemps par la présence d’acides aminés. Ce scénario est particulièrement séduisant car il réconcilie les conditions géophysiques supposées sur la Terre primitive avec celles nécessaires à la construction des briques élémentaires du vivant à partir de cyanure d’hydrogène. Il articule ainsi une atmosphère faiblement réductrice, des orages intenses, un bombardement assez soutenu de météorites qui a pu être causé par le grand bombardement, un rayonnement UV plus important qu’aujourd’hui en raison de l’absence de couche d’ozone et d’un Soleil plus jeune avec une voie d’accès vers la complexité. Cette recherche de cohérence entre l’environnement planétaire et une voie d’accès à la complexité chimique entrevue avec le cyanure d’hydrogène est particulièrement intéressante car elle repose le problème de l’origine de la vie sur Terre au-delà de son cadre biochimique dans lequel elle a eu tendance à se réfugier ces dernières décennies avec l’émergence de notre compréhension du vivant à l’échelle moléculaire. Elle remet ainsi sur le devant de la scène l’intuition initiale d’Oparine, de Haldane, de Miller et de Urey qui cherchaient à résoudre l’énigme de l’origine de la vie sur Terre dans le cadre d’un scénario global où la recherche des conditions régnant sur la Terre primitive est perçue comme une partie intégrante de la solution.
Cette reformulation du problème ne contredit en rien le besoin de poursuivre les nombreuses expériences de laboratoire qui cherchent à lever ce verrou d’un point de vue biochimique. Au contraire, elle en fait une partie intégrante de l’évolution planétaire. Elle permet également d’étendre la question de l’apparition de la vie sur Terre à d’autres environnements planétaires et ainsi d’établir un nouveau cadre scientifique avec de nouvelles données observationnelles pour préciser et valider les scénarios envisagés. Mars a probablement connu les mêmes conditions que la Terre il y a 4 milliards d’années. Comme la Terre, elle a donc vraisemblablement été le témoin d’une production de cyanure d’hydrogène importante soumise au même rayonnement UV du Soleil jeune. Le sol martien, qui date de 4 milliards d’années en certains endroits en raison de l’absence d’activité tectonique, semble ainsi une cible idéale pour trouver les indices qui nous manquent sur Terre pour comprendre cette marche vers la complexité. Ce raisonnement s’inscrit dans les objectifs de la mission Mars2020 qui va explorer la surface de Mars à partir du début 2021. En explorant ces vestiges qui ont disparu sur Terre, on espère ainsi mieux cerner les contraintes déterminant les conditions qui régnaient sur Terre à cette époque, ou même retrouver des indices sur cette transition entre nucléotides et ARN. Les planètes extrasolaires de type terrestre dans la zone habitable de leur étoile sont bien sûr un autre exemple de ces environnements que l’on souhaiterait mieux connaître pour contribuer à cette question, et peut-être mieux évaluer les contraintes et la plausibilité du scénario de la voie HCN.
Transposer le modèle terrestre aux exoplanètes Face à la difficulté actuelle pour comprendre les origines de la vie sur Terre et l’émergence de la complexité à l’échelle chimique, probablement liée aux conditions particulières qui ont régné à sa surface, la découverte des exoplanètes offre une autre perspective attrayante. Pour comprendre cette deuxième étape, nous n’avons pas seulement les données géologiques très partielles sur l’environnement de la Terre il y a 4 milliards d’années, le sol de Mars qui a peutêtre été habité, mais aussi le potentiel d’habitats multiples offerts par les exoplanètes que l’on pense habitables. Ce dernier objectif n’est cependant pas aussi immédiat qu’il n’y paraît à première vue. Nous n’avons pour le moment que la perspective de réalisation dans les prochaines décennies et un chemin qui va peut-être être assez long à parcourir car la question de l’habitabilité est tout aussi importante, à ce stade, que celle de l’habitation. Il y a en effet trois axes de questionnement concernant les facteurs qui ont conduit à rendre la Terre habitée sur 4 milliards d’années. Son contexte astrophysique dans l’histoire du système solaire, la stabilité des conditions qui ont régné à sa surface grâce au cycle du carbone et la
présence continue de la vie qui a pris plusieurs formes et dont les conditions d’émergence nous restent toujours insaisissables. La question de l’habitation se pose nécessairement dans ce contexte et il n’est a priori pas facile de découpler cette dernière proposition des deux premières. Des conditions ne permettant pas l’existence d’eau liquide en surface s’apparentent aux conditions prévalant sur Vénus : dans ce contexte, la probabilité de trouver des formes de vie ressemblant à celles que l’on connaît sur Terre devient ténue. La logique est donc de prendre les facteurs qui apparaissent comme critiques dans l’histoire de la Terre, de les transposer aux exoplanètes et d’établir ainsi un cadre scientifique clair où les propositions sont validées ou invalidées par les observations. Une des difficultés majeures, actuellement, est l’absence de consensus sur ces facteurs. Rien de surprenant, puisque nous n’avons pour l’instant que la Terre comme exemple de planète habitée… Nous avons avancé un premier facteur pertinent en évoquant la zone d’habitabilité et les planètes habitables. Cette caractérisation se base sur une modélisation atmosphérique contrainte par ce que l’on observe dans le système solaire pour Vénus, la Terre et Mars, et s’appuyant sur l’influence des gaz à effet de serre que sont le CO2, l’eau et le méthane. Une première étape consiste donc à consolider cette notion en détectant que de l’eau est bien présente pour ces planètes identifiées comme étant dans la zone habitable de leur étoile. L’histoire de la Terre montre aussi que le cycle du carbone est critique pour l’évolution sur le long terme des conditions à la surface. Cette définition de zone habitable n’apporte donc pour l’instant qu’une réponse partielle. Il faut y inclure l’évolution de l’activité géophysique dont dépend le cycle du carbone. La question de savoir si le cycle géologique que nous connaissons sur Terre peut se reproduire à l’identique est, par contre, tout aussi ouverte. Alors que nous avons buté sur ce type de question pendant de nombreuses décennies avec la Terre comme seul exemple, l’augmentation rapide du nombre d’exoplanètes détectées nous permet d’envisager des progrès dans cette direction. En suivant la composition de l’atmosphère en CO2 et en eau, nous pouvons ainsi espérer obtenir une contrainte – repérer des critères physiques déterminants – en fonction de la taille et de la composition des planètes de type terrestre. En revanche, comme dans le cas de l’histoire du système solaire ou des Jupiters chauds, cette contrainte n’est pas directe, mais seulement statistique : elle sera inférée de l’observation d’un ensemble d’objets disparates à partir desquels des tendances vont être dégagées. Pour comprendre ce point, il faut se rappeler que la probabilité de détecter une jumelle de la Terre est pour l’instant assez faible. Si cette prédiction se confirme, nous pouvons au mieux espérer que seront observées dans les prochaines décennies quelques planètes semblables à la Terre. Si on ajoute à cette parcimonie des observations le caractère dynamique de la formation du système solaire et de son rôle dans l’apport d’éléments léger tels que ceux nécessaires pour obtenir une quantité d’eau suffisante en surface, cet ensemble restreint composé de seulement quelques objets risque de ne pas être suffisant pour dégager une tendance concernant le cycle du carbone. Nous pouvons par exemple chercher à valider le besoin d’une quantité de CO2
importante pour remédier au problème du Soleil jeune ou isoler la dépendance du cycle de carbone à la proportion de surface émergée en observant des planètes pourvues d’une masse d’eau plus importante. Il faudra donc vraisemblablement étendre cet ensemble de planètes audelà des jumelles de la Terre pour y ajouter des systèmes qui ont un âge distinct autour d’étoiles différentes du Soleil et des planètes dont les paramètres physiques comme la taille ou même la composition varient. Toute la question à l’heure actuelle est donc d’anticiper jusqu’où cet ensemble de planètes peut être étendu pour répondre à cette question particulière de l’influence du cycle du carbone sur les conditions d’habitabilité sur le long terme. La question de détecter une activité biologique à la surface d’une exoplanète suit pour l’instant cette même logique. Si nous reprenons le scénario qui propose que des quantités significatives de cyanure d’hydrogène amènent aux briques élémentaires nécessaires à l’émergence de la vie grâce à un rayonnement UV significatif et des conditions de surface ressemblant à la Terre primitive durant ou juste après le bombardement tardif, il faut alors ajouter à la notion d’habitabilité définie par la probabilité de présence d’eau en surface celles correspondant à des conditions favorables à l’émergence chimique. Cela implique, d’une part, que les composés primordiaux soient présents en surface. On identifie ceux-ci au carbone, à l’hydrogène, à l’azote, à l’oxygène et au potassium (CHNOP). Il faut, de plus, un environnement planétaire similaire à celui que nous venons d’évoquer pour produire une quantité significative de cyanure d’hydrogène. Si cette proposition est valide et que la vie démarre dans de telles conditions, nous pouvons ainsi escompter pouvoir détecter sa présence dans l’atmosphère. Alors que l’on peut espérer repérer des contraintes régulant le cycle du carbone en suivant les teneurs en eau et en CO2 sur un échantillon de planètes de type terrestre, nous voyons que cette proposition étendue à la détection de la présence d’une activité biologique à la surface d’une planète ajoute une difficulté supplémentaire. Celle-ci doit être suffisamment importante pour modifier la composition atmosphérique de la planète, d’une part, et nous devons être capables d’identifier ce changement de composition dans le spectre de la planète, d’autre part. Dans ce dernier cas, nous parlons de signature spectroscopique détectable. On a donc besoin de comprendre le couplage de la biosphère dans son ensemble avec l’atmosphère et cela à l’échelle planétaire. Cette proposition peut paraître vertigineuse à première vue puisque l’on touche ici à un sujet que l’on ne maîtrise pas complètement pour la Terre. L’histoire de la Terre évoquée au chapitre précédent nous donne, en revanche, des indications sur la marche à suivre. Nous avons en effet trois grandes étapes sur 4 milliards d’années, une première étape où les espèces utilisant l’énergie chimique sont apparues produisant ou consommant du méthane, l’apparition de la photosynthèse non oxygénique qui accélère cette production, puis l’apparition de la photosynthèse oxygénique qui est liée à l’apparition de l’oxygène dans l’atmosphère. Une première proposition déjà mentionnée consiste à suivre non pas seulement l’eau comme cela est fait pour l’exploration du système solaire ou identifier des planètes dans la zone habitable de leur étoile, mais à suivre également l’oxygène. L’origine biologique de la
production d’oxygène que l’on retrouve dans l’atmosphère terrestre est a priori un bon marqueur pour détecter une activité biologique. Si l’on regarde l’histoire de la Terre, on voit par contre que l’oxygène est apparu en deux paliers. Un premier palier il y a 2,4 milliards d’années, que l’on appelle la grande oxygénation mais où l’oxygène atmosphérique atteignait à peine un pourcent de sa concentration actuelle, et un second palier, qui a eu lieu il y a 550 millions d’années, et s’est accompagné d’une quantité d’oxygène significative et détectable. Comme nous l’avons dit précédemment, nous voyons donc que cette proposition réduit dramatiquement la présence d’activité biologique à une forme qui n’est apparue sur Terre qu’il y a 540 millions d’années. La présence d’oxygène s’appuie de plus sur une innovation biologique qui ne s’est produite qu’une seule fois dans l’histoire du vivant. L’oxygène peut aussi être produit en faible quantité par des effets non biologiques tels que la photodissociation produite par le rayonnement de l’étoile hôte. Cet effet ne permet pas d’atteindre la concentration que l’on a actuellement sur Terre pour une planète au milieu de la zone habitable d’une étoile mais est suffisant pour atteindre celle présente après la grande oxydation. Si l’on observe une planète en bordure de la zone habitable de son étoile comme Vénus, ce processus peut, de plus, produire de manière transitoire une quantité significative d’oxygène. Cette analyse montre que l’on rencontre plusieurs difficultés à n’utiliser que l’oxygène pour démontrer l’existence d’une activité biologique à la surface d’une planète. La plus importante est sûrement qu’on soit trop restrictifs et qu’on passe à côté d’autres formes de vie qui ont pu se développer durant l’histoire de la Terre et avant le développement de la photosynthèse oxygénique. Un autre gaz associé à l’activité biologique tout au long de l’histoire de la Terre est le méthane. Bien qu’il soit aujourd’hui en faible quantité dans l’atmosphère terrestre, nous avons vu qu’il était vraisemblablement présent en plus grande quantité lorsque l’activité bactérienne dominait, avant que l’extinction massive due à la grande oxygénation n’intervienne. Le méthane est donc à première vue un gaz qui pourrait être plus représentatif de la présence d’une activité biologique si l’on prend l’histoire de la vie sur Terre comme exemple. Cette proposition s’appuie, par contre, sur notre perception de la Terre il y a plus de 2,5 milliards d’années. Il s’agit d’un sujet sur lequel nous n’avons pour l’instant que des indices indirects, notamment concernant la composition atmosphérique précise, et donc bien moins de certitudes que pour sa composition actuelle. Cela concerne la quantité de gaz réducteurs présents dans les premiers temps après la formation et restant éventuellement dans l’atmosphère, ainsi que l’ampleur de l’activité biologique et ses effets sur la composition atmosphérique. Comme la vigueur de l’activité biologique modifie de manière proportionnelle la composition atmosphérique en méthane, ce deuxième point amène à la question du seuil à partir duquel cette activité est détectable par spectroscopie. Ce point n’est pas anodin puisqu’il rajoute à la question de la signature celui de sa détectabilité et des moyens observationnels nécessaires pour y parvenir. Avant d’étudier ce point plus en détail, nous retiendrons de cette discussion qu’il n’existe pas un élément unique à détecter dans l’atmosphère pour démontrer qu’une planète est habitable, mais
plusieurs éléments possibles, tels que l’oxygène et le méthane, et que la combinaison des deux, voire l’ajout éventuel d’autres participants au cycle biologique, est certainement la voie à suivre pour augmenter nos chances d’une détection non ambiguë. Le premier problème qu’entraîne la détection de multiples espèces est celui de la gamme spectrale que l’instrument de détection doit couvrir. Comme nous cherchons à détecter de l’eau, du CO2, de l’oxygène et du méthane afin de vérifier si la planète est, d’une part, habitable et, d’autre part, habitée, il faudrait idéalement un instrument qui couvre une gamme spectrale suffisamment large s’étendant de l’ultraviolet proche, couvrant le visible et atteignant le proche infrarouge, pour accéder à l’ensemble de ces éléments. Ces différentes gammes du spectre demandent différents types de détecteurs, ce qui présente une première difficulté. Le deuxième critère à satisfaire est de détecter suffisamment de planètes dans la zone habitable de leur étoile. Il est raisonnable d’anticiper que nous allons avoir besoin d’un échantillon de planètes assez large pour confirmer la présence d’une activité biologique. Comme nous l’avons vu, nous devons d’abord prendre en compte la nature dynamique de la formation et de l’évolution planétaire et anticiper qu’un certain nombre de planètes dans la zone habitable de leur étoile ne seront pas habitables en raison d’événements particuliers pour ce système. Nous ne savons pour l’instant pas non plus dans quelles conditions précises l’activité biologique terrestre a démarré, ni sa probabilité de le faire avec des conditions planétaires qui seraient semblables. Il nous faut, de plus, soupeser l’influence des processus non biologiques ainsi que l’environnement planétaire dans lequel nous détectons cette planète pour pouvoir décider si la détection de méthane ou d’oxygène est une signature viable pour identifier une activité biologique. Il est fort probable que la détection d’oxygène ou de méthane sur une seule planète ne sera pas convaincante, notamment s’il s’agit d’une planète dans la zone habitable d’une étoile de type M et donc dans un environnement très différent de celui de la Terre. C’est une nouvelle fois par le biais de la statistique et grâce à un échantillon de planètes suffisamment important qu’il faut appréhender ce problème. Nous nous heurtons cependant, une fois encore, au nombre de planètes disponibles dans notre environnement proche et à celles pour lesquelles nous allons pouvoir effectuer ces caractérisations spectroscopiques de l’atmosphère. Deux voies se présentent ici, dictées par les impératifs observationnels. Nous anticipons dans la décennie à venir la possibilité d’effectuer avec le télescope spatial JWST de la spectroscopie de transit pour des systèmes comme Trappist-1 qui se trouvent autour d’étoiles de type M très différentes du Soleil. Nous pouvons nous attendre à ce que quelques systèmes planétaires similaires soient caractérisés dans les années à venir avec cet instrument. L’effort va en revanche se concentrer sur la validité de la notion d’habitabilité pour ces planètes très différentes de la Terre en rotation synchrone et en observant principalement l’eau et le CO2. Le méthane pourra également y être détecté s’il est en quantité suffisante dans l’atmosphère mais la composition en oxygène ne sera accessible que dans des cas limites ressemblant à ce qu’a connu Vénus. L’oxygène et le méthane à des niveaux comparables à ceux connus dans l’histoire de la
Terre ne seront, par contre, vraisemblablement pas accessibles avec cet instrument qui fonctionnera principalement dans le proche infrarouge. La prochaine génération de télescopes au sol tels que l’ELT qui seront mis en service à la fin de la décennie pousse cette limite un peu plus loin en permettant d’étendre l’échantillon des planètes dans la zone habitable d’étoiles de type M et d’envisager une gamme spectrale plus étendue ainsi qu’une meilleure sensibilité en utilisant l’imagerie directe. On anticipe ainsi la possibilité de caractériser l’atmosphère d’une quinzaine de planètes dans la zone habitable de leur étoile pour le début de la décennie 2030. Cet échantillon commence à être suffisamment important pour permettre l’identification des planètes habitables en y mesurant la teneur en eau et en CO2 et éventuellement détecter du méthane et de l’oxygène d’origine biologique. Pour étendre cet échantillon à des étoiles plus brillantes et se rapprochant du Soleil, il faudra attendre la fin des années 2030 et la mise en service des télescopes spatiaux de la prochaine génération. Plusieurs concepts sont actuellement à l’étude comme LUVOIR (Large UV Optical Infrared Surveyor) qui anticipe la caractérisation atmosphérique d’une cinquantaine de planètes de type terrestre dans la zone habitable de leur étoile et avec une bonne fraction d’objets du même type que le Soleil. Ce télescope spatial, possédant une large couverture spectrale comme son nom l’indique, permettra la détection de gaz impliqués dans l’activité biologique comme le méthane ou l’oxygène et sur un échantillon de planètes suffisamment grand pour anticiper la réponse à la question fondamentale de savoir si la vie telle que nous la connaissons sur Terre est unique ou répandue dans l’Univers. Cela demande par contre un télescope possédant un miroir près de 6 fois plus grand que le télescope Hubble, c’est-à-dire 2 fois plus grand que celui du JWST dont la construction se termine actuellement et qui sera mis en service dans les deux prochaines années.
Revoir nos ambitions à la hausse La possibilité de détecter une activité biologique à la surface d’une planète semble à première vue un horizon assez lointain. Avec des projets comme LUVOIR, nécessaires pour obtenir un échantillon de planètes suffisamment large, nous parlons maintenant de la phase d’exploitation d’un télescope spatial qui se déroulera au mieux vers la fin des années 2030. En prenant en compte la cinétique assez lente des agences spatiales ou, plus simplement, des projets instrumentaux internationaux, ponctuée par des annulations et des changements de calendrier répétés, cette proposition pourrait apparaître comme une promesse faite pour la prochaine génération de répondre à cette question fondamentale.
Il faut garder à l’esprit que ce calendrier ne repose pas sur le besoin de lever plusieurs contraintes technologiques. La technologie envisagée pour le télescope LUVOIR, ou d’autres de la même envergure, est assez proche de celle développée pour le JWST. Seule la taille imposante demande qu’un porteur permettant la mise en orbite soit disponible, mais cela reste dans le périmètre des choses que l’on fait ou que l’on a su faire et ne constitue pas un obstacle technologique à surmonter. La contrainte est donc principalement d’ordre financier. Celle-ci se traduit par une priorité donnée aux différents programmes spatiaux et aux programmes scientifiques au sens large. Il s’agit donc d’une limite politique plus que technologique ou scientifique sur laquelle nous pouvons revenir, et peut-être même intervenir. Nous avons maintenant suffisamment progressé pour savoir que les systèmes planétaires sont multiples et pour aborder la question de l’habitabilité de certaines de ces planètes extrasolaires. Nous voyons de plus comment avancer sur la question de leur habitation de manière scientifique à partir d’une technologie que nous avons déjà développée. Un investissement massif sur ce problème pour répondre à cette question fondamentale semble être à l’ordre du jour. On pourrait reprocher à cette approche de se cantonner à ce questionnement de manière un peu trop étroite en s’appuyant sur la vision que nous avons de l’histoire du système solaire, de la Terre, de la vie sur Terre et de son origine, amenant ainsi à un biais anthropocentrique qui a été fatal à de nombreuses reprises, comme nous l’avons vu, pour la recherche de la vie dans le système solaire et même pour la découverte des exoplanètes. Il s’agit, au contraire, de la force de la proposition. Elle présente un cadre scientifique clair pour aborder cette question complexe pour laquelle nous n’avons qu’un seul point de mesure, la vie sur Terre et son histoire, en nous appuyant sur une articulation entre observations possibles et hypothèses nourries par les observations actuelles. L’objectif n’est pas d’observer une planète jumelle de la Terre mais d’étendre la notion d’habitabilité telle que nous la comprenons pour la Terre, au vu de son histoire ainsi que de celle des deux autres planètes telluriques du système solaire. L’approche tend donc à être la moins restrictive possible tout en restant dans un cadre que l’observation peut préciser en spécifiant certaines contraintes. Elle articule pour cela non seulement la vie telle que nous la connaissons actuellement sur Terre, mais celle plus diverse qui s’y est développée durant 4 milliards d’années. En s’appuyant sur cette double perspective, les observations que l’on peut obtenir avec le déploiement de ces nouveaux instruments vont avant tout nous permettre de mieux appréhender l’histoire de la Terre, de la vie sur Terre et de son origine. La question de savoir si d’autres planètes sont habitables ou habitées n’est pas qu’une simple question académique ou philosophique, si puissante soit-elle. Elle est directement liée à ce que nous comprenons de notre environnement quotidien, de la Terre, de son histoire et de son évolution. À une époque où nous prenons conscience de la fragilité et du caractère transitoire des conditions qui existent sur notre planète, nous ne devrions pas mettre cette perspective de côté. L’impulsion financière nécessaire pour raccourcir le calendrier viendra peut-être d’initiatives privées. Face à des États qui sont sous une contrainte budgétaire constante, plusieurs
fondations privées à travers le monde investissent ce champ de recherche grâce à des contributions significatives. Tel est le cas du Breakthrough Initiatives, des fondations Kavli, Simmons, Templeton ou Volkswagen, pour n’en citer que quelques-unes. On peut être optimiste et espérer que ce champ de recherche connaîtra la même révolution que celle que l’on est en train de vivre dans le domaine spatial et l’exploration du système solaire. Des missions privées vers Mars et la Lune sont déjà programmées, et une équipe travaille déjà à envoyer des sondes nanométriques vers Proxima, le système planétaire le plus proche de nous. Une avancée significative sur la question fondamentale de savoir si la vie telle que nous la connaissons sur Terre est le produit de circonstances exceptionnelles, uniques ou, au contraire, est générique et répandue dans l’Univers semble à portée de main. Espérons qu’elle bénéficiera de ce nouveau périmètre d’investissements pour construire les équipements nécessaires pour y répondre.
Quelques références pour aller plus loin
S. A. Bernner et al., « When did life likely emerge on Earth in an RNA-first process ? », 2019, 2019arXiv190811327B. W. F. Bottke et M. D. Norman, « The late heavy bombardment », Annu. Rev. Earth Planet. Sci., 2017, 45, p. 619-647. A. Brahic et B. Smith, Terres d’ailleurs, Odile Jacob, 2015. D. C. Catling et J. F. Kasting, Atmospheric Evolution on Inhabited and Lifeless Worlds, Cambridge University Press, 2018. R. I. Dawson et J. A. Johnson, « Origins of hot Jupiters », Annu. Rev. Astron. Astrophys., 2018, 56, p. 175-221. S. D. Domagal-Goldmann et al., « The astrobiology primer v2.0 », Astrobiology, 2016, 16 (8), p. 561-653. J. Kasting, How to Find a Habitable Planet, Princeton University Press, 2010. A. H. Knoll, Life on a Young Planet : The First Three Billion Years of Evolution on Earth, Princeton Science Library, 2015. J. Laskar, « Is the solar system stable ? », Chaos, 2013, p. 239-270. M. Mayor et D. Cenadelli, « Exoplanets : The beginning of a new era in astrophysics », Eur. Phys. H, 2018, 43 (1), p. 41. S. N. Raymond, A. Izidoro et A. Morbidelli, « Solar system formation in the context of extrasolar planets », 2018, 2018arXiv181201033R. D. Sasselov, J. P. Grotzinger et J. D. Sutherland, « The origin of life as a planetary phenomenon », Science Advances, 2020, 6 (6), eaax3419, 2020.
P. Ward et D. Brownlee, Rare Earth, Springer Verlag, 2000.
Remerciements
Ce livre n’aurait jamais vu le jour sans l’impulsion de Stéphane Audoin-Rouzeau qui m’amena dans les mains expertes de Perrine Nahum et des éditions Odile Jacob au détour d’un déjeuner anodin comme il est agréable d’en avoir au mois de juin à Paris, en si bonne compagnie. Ce déjeuner transforma soudain le désir vague et abstrait de rassembler de nombreuses notes éparses, des esquisses de chapitres et des conférences grand public en un impératif concret de livrer un ouvrage prêt à être imprimé. Cet objectif se serait laissé facilement déborder par d’autres priorités sans cette intervention initiale et la patience de Perrine qui a nourri de son enthousiasme et de sa persévérance les mois passés à la rédaction. Je suis également très reconnaissant aux éditions Odile Jacob et à Bernard Gotlieb de m’avoir accordé leur confiance à partir de l’esquisse d’un ouvrage dont le contenu a continué à évoluer au fil de sa rédaction. Cet ouvrage doit également beaucoup à mes collègues avec qui j’ai la chance d’échanger régulièrement sur les nombreux thèmes balayés ici. Je pense tout particulièrement à A.M. Lagrange, à J. Laskar, à A. Morbidelli et aux membres du projet Origines et conditions d’apparition de la vie de l’université Paris Sciences et Lettres : C. Bigg, D. Bockelée-Morvan, E. Farge, R. Ferrière, A. Griffith, A. Joliot, L. Julien, P. Nghe, P. Pitrou et B. Turquier, qui m’ont ouvert à leurs perspectives si riches et si diverses sur cette large question. Ce projet risqué et très interdisciplinaire, sur lequel T. Coulhon puis A. Fuchs n’ont pas hésité à investir de manière significative et largement au-dessus de ce qui est la norme dans le système universitaire français, est le terreau à partir duquel un grand nombre des idées évoquées dans ce livre ont germé et pu mûrir. Un grand merci également à Yohann Gominet de l’Institut de mécanique céleste et de calculs des éphémérides pour les nombreuses heures passées à faire et à refaire les illustrations, et à M. Mayor d’avoir pris le temps de me raconter la recherche des exoplanètes dans les années 1980 et 1990, et de m’avoir orienté vers plusieurs références importantes sur l’histoire de la détection des exoplanètes.
Ce livre doit aussi beaucoup à ma compagne Sandrine, pour sa patience, son soutien et sa compréhension. À mes enfants, Rhana et Marco, qui trouveront, je l’espère, dans cet ouvrage un moyen de continuer nos discussions nocturnes, face aux étoiles, que leur vie d’adulte ne nous permet plus d’avoir aussi souvent.
SOMMAIRE
Avant-propos À la recherche des origines et des conditions d'apparition de la vie dans l'Univers CHAPITRE 1 - Une perspective sur la cosmologie grecque et le modèle géocentrique Quelques leçons de la révolution copernicienne et de l'héliocentrisme CHAPITRE 2 - Le système solaire moderne Des terres brûlées aux géantes de glace Éris la déesse de la discorde et les lunes de mille mondes Aux confins du système solaire, des objets encore plus petits, et peut-être une neuvième planète ? CHAPITRE 3 - L'âge d'or de la conquête spatiale ou l'invasion du système solaire Près de deux cents sondes depuis 1960 Des mondes hostiles à l'invasion de Mars Des anneaux à n'en plus finir et des lunes peut-être habitables CHAPITRE 4 - Le défi des exoplanètes La première planète détectée Une avalanche d'exoplanètes Des planètes mais aussi des disques CHAPITRE 5 - L'histoire du système solaire chamboulée Laplace et notre besoin de stabilité : un premier scénario de formation du système solaire Le système solaire est en fait chaotique Le modèle de Nice et le grand virement de bord Les grandes missions d'observation à venir
CHAPITRE 6 - Ce que nous apprennent les exoplanètes détectées La question de l'origine des Jupiters chauds après vingt-cinq ans d'observations Une trop grande diversité de planètes détectées Des candidats qui seraient peut-être habitables On cherche toujours un système planétaire qui ressemble au système solaire CHAPITRE 7 - Une brève histoire de la Terre Les ingrédients primordiaux L'atmosphère, le climat et leurs évolutions sur le long terme La vie comme cataclysme planétaire CHAPITRE 8 - Va-t-on détecter une planète habitée ? Le mystère des origines Transposer le modèle terrestre aux exoplanètes Revoir nos ambitions à la hausse Quelques références pour aller plus loin Remerciements
Ouvrage proposé par Perrine Simon-Nahum
www.odilejacob.fr Suivez nous sur :